• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 94
  • 50
  • 7
  • Tagged with
  • 146
  • 146
  • 83
  • 80
  • 35
  • 21
  • 19
  • 17
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Mesure et Prévision de la Volatilité pour les Actifs Liquides

Chaker, Selma 04 1900 (has links)
Le prix efficient est latent, il est contaminé par les frictions microstructurelles ou bruit. On explore la mesure et la prévision de la volatilité fondamentale en utilisant les données à haute fréquence. Dans le premier papier, en maintenant le cadre standard du modèle additif du bruit et le prix efficient, on montre qu’en utilisant le volume de transaction, les volumes d’achat et de vente, l’indicateur de la direction de transaction et la différence entre prix d’achat et prix de vente pour absorber le bruit, on améliore la précision des estimateurs de volatilité. Si le bruit n’est que partiellement absorbé, le bruit résiduel est plus proche d’un bruit blanc que le bruit original, ce qui diminue la misspécification des caractéristiques du bruit. Dans le deuxième papier, on part d’un fait empirique qu’on modélise par une forme linéaire de la variance du bruit microstructure en la volatilité fondamentale. Grâce à la représentation de la classe générale des modèles de volatilité stochastique, on explore la performance de prévision de différentes mesures de volatilité sous les hypothèses de notre modèle. Dans le troisième papier, on dérive de nouvelles mesures réalizées en utilisant les prix et les volumes d’achat et de vente. Comme alternative au modèle additif standard pour les prix contaminés avec le bruit microstructure, on fait des hypothèses sur la distribution du prix sans frictions qui est supposé borné par les prix de vente et d’achat. / The high frequency observed price series is contaminated with market microstructure frictions or noise. We explore the measurement and forecasting of the fundamental volatility through novel approaches to the frictions’ problem. In the first paper, while maintaining the standard framework of a noise-frictionless price additive model, we use the trading volume, quoted depths, trade direction indicator and bid-ask spread to get rid of the noise. The econometric model is a price impact linear regression. We show that incorporating the cited liquidity costs variables delivers more precise volatility estimators. If the noise is only partially absorbed, the remaining noise is closer to a white noise than the original one, which lessens misspecification of the noise characteristics. Our approach is also robust to a specific form of endogeneity under which the common robust to noise measures are inconsistent. In the second paper, we model the variance of the market microstructure noise that contaminates the frictionless price as an affine function of the fundamental volatility. Under our model, the noise is time-varying intradaily. Using the eigenfunction representation of the general stochastic volatility class of models, we quantify the forecasting performance of several volatility measures under our model assumptions. In the third paper, instead of assuming the standard additive model for the observed price series, we specify the conditional distribution of the frictionless price given the available information which includes quotes and volumes. We come up with new volatility measures by characterizing the conditional mean of the integrated variance.
52

Éléments de conception d’un générateur électrique pour l’alimentation d’un dispositif à décharge à barrière diélectrique (DBD) / The synthesis of conceptual elements for an electrical generator of dielectric barrier discharge (DBD) device supply system

Djibrillah, Mahamat Abakar 01 April 2011 (has links)
Ce travail traite de la conception de générateur alimentant une lampe DBD destinée à la production de rayonnement UV. Cette alimentation doit permettre un contrôle efficace du rayonnement, grâce aux degrés de liberté apportés par le contrôle du générateur (fréquence, amplitude du courant injecté dans la lampe). Le modèle électrique de la lampe est utilisé pour prédire l’impact des caractéristiques du générateur sur le rayonnement UV produit. Une synthèse des interrupteurs de puissance du convertisseur statique permettant le contrôle du courant injecté est proposée et des solutions d’implémentation sont étudiées. Une démarche de conception en vue de l’optimisation du transformateur haute tension est proposée, notamment en ce qui concerne la valeur de ses éléments parasites. L’ensemble de ces travaux est étayé par des réalisations expérimentales. / This work presents the concept of a generator supplying a DBD lamp for UV radiation production purpose. This supply permits effective control of radiation based on degree-of-freedom provided by generator control system (lamp current frequency and ampli-tude). Lamp electrical model is used to predict the impact of power source characteristics on the produced UV radiation. A synthesis of the switching devices of power converter for current lamp control is pro-posed and the implemented solutions are studied. A design procedure for high voltage transformer optimization is proposed in particular concerning parasitic elements. The entire work is supported by experimentations.
53

Caractérisation du rôle des oscillations à haute fréquence dans les réseaux épileptiques / Characterization of the role of high-frequency oscillations in epileptic networks

Roehri, Nicolas 16 January 2018 (has links)
Touchant plus de 50 millions de personnes dans le monde, l’épilepsie est un problème majeur de santé publique. Un tiers des patients souffrent d’épilepsie pharmaco-résistante. Une chirurgie visant à enlever la région cérébrale à l’origine des crises – la zone épileptogène – est considérée comme l’option de référence pour rendre libre de crises ces patients. Le taux d’échec chirurgical non négligeable a poussé la recherche d’autres marqueurs. Un marqueur potentiel est les oscillations à haute fréquence (HFOs). Une HFO est une brève oscillation entre 80-500 Hz qui dure au moins 4 périodes enregistrée en EEG intracérébrale. Par leur caractère très bref, le marquage visuel de ces petites oscillations est fastidieux et chronophage.. Il semble impératif de trouver un moyen de détecter automatiquement ces oscillations pour étudier les HFOs sur des cohortes de patients. Aucun détecteur automatique existant ne fait cependant l’unanimité. Durant cette thèse, nous avons développé un nouveau moyen de visualiser les HFOs grâce à une normalisation originale de la transformée en ondelettes pour ensuite mieux les détecter automatiquement. Puis, nous avons mise en place une stratégie pour caractériser et valider des détecteurs. Enfin, nous avons appliqué le nouveau détecteur à une cohorte de patients pour déterminer la fiabilité des HFOs et des pointes épileptiques - le marqueur standard - dans la prédiction de la zone épileptogène. La conclusion de cette thèse est que les HFOs ne sont pas meilleurs que les pointes épileptiques pour prédire la zone épileptogène mais que combiner ces deux marqueurs permettait d’obtenir un marqueur plus robuste. / Epilepsy is a major health problem as it affects 50 million people worldwide. One third of the patients are resistant to medication. Surgical removal of the brain areas generating the seizure – the epileptogenic zone – is considered as the standard option for these patients to be seizure free. The non-negligible rate of surgical failure has led to seek other electrophysiological criteria. One putative marker is the high-frequency oscillations (HFOs).An HFO is a brief oscillation between 80-500 Hz lasting at least 4 periods recorded in intracerebral EEG. Due to their short-lasting nature, visually marking of these small oscillations is tedious and time-consuming. Automatically detecting these oscillations seems an imperative stage to study HFOs on cohorts of patients. There is however no general agreement on existing detectors.In this thesis, we developed a new way of representing HFOs thanks to a novel normalisation of the wavelet transform and to use this representation as a base for detecting HFOs automatically. We secondly designed a strategy to properly characterise and validate automated detectors. Finally, we characterised, in a cohort of patients, the reliability of HFOs and epileptic spikes - the standard marker - as predictors of the epileptogenic zone using the validated detector. The conclusion of this thesis is that HFOs are not better than epileptic spikes in predicting the epileptogenic zone but combining the two leads to a more robust biomarker.
54

Four essays in financial econometrics / Quatre Essais sur l’Econométrie Financière

Banulescu, Denisa-Georgiana 05 November 2014 (has links)
Cette thèse se concentre sur des mesures du risque financier et la modélisation de la volatilité. L’objectifgénéral est : (i) de proposer de nouvelles techniques pour mesurer à la fois le risque systémique et lerisque à haute fréquence, et (ii) d’appliquer et d’améliorer les outils économétriques de modélisation etde prévision de la volatilité. Ce travail comporte quatre chapitres (papiers de recherche).La première partie de la thèse traite des questions liées à la modélisation et la prévision des mesuresdu risque à haute fréquence et du risque systémique. Plus précisément, le deuxième chapitre proposeune nouvelle mesure du risque systémique utilisée pour identifier les institutions financières d’importancesystémique (SIFIs). Basée sur une approche spécifique, cette mesure originale permet de décomposer lerisque global du système financier tout en tenant compte des caractéristiques de l’entreprise. Le troisièmechapitre propose des mesures du risque de marché intra-journalier dans le contexte particulier des donnéesà haute fréquence irrégulièrement espacées dans le temps (tick-by-tick).La deuxième partie de la thèse est consacrée aux méthodes d’estimation et de prévision de la volatilitéincluant directement des données à haute fréquence ou des mesures réalisées de volatilité. Ainsi, dans lequatrième chapitre, nous cherchons à déterminer, dans le contexte des modèles de mélange des fréquencesd’échantillonnage (MIDAS), si des regresseurs à haute fréquence améliorent les prévisions de la volatilitéà basse fréquence. Une question liée est de savoir s’il existe une fréquence d’échantillonnage optimaleen termes de prévision, et non de mesure de la volatilité. Le cinquième chapitre propose une versionrobuste aux jumps du modèle Realized GARCH. L’application porte sur la crise / This thesis focuses on financial risk measures and volatility modeling. The broad goal of this dissertationis: (i) to propose new techniques to measure both systemic risk and high-frequency risk, and (ii) toapply and improve advanced econometric tools to model and forecast time-varying volatility. This workhas been concretized in four chapters (articles).The first part addresses issues related to econometric modeling and forecasting procedures on bothsystemic risk and high-frequency risk measures. More precisely, Chapter 2 proposes a new systemic riskmeasure used to identify systemically important financial institutions (SIFIs). Based on a componentapproach, this original measure allows to decompose the risk of the aggregate financial system whileaccounting for the firm characteristics. Chapter 3 studies the importance and certifies the validity ofintraday High Frequency Risk (HFR) measures for market risk in the special context of irregularly spacedhigh-frequency data.The second part of this thesis tackles the need to improve the estimation/prediction of volatility bydirectly including high-frequency data or realized measures of volatility. Therefore, in Chapter 4 weexamine whether high-frequency data improve the volatility forecasts accuracy, and if so, whether thereexists an optimal sampling frequency in terms of prediction. Chapter 5 studies the financial volatilityduring the global financial crisis. To this aim, we use the largest volatility shocks, as provided by therobust version of the Realized GARCH model, to identify and analyze the events having induced theseshocks during the crisis.
55

Approche multi-proxys de la réponse des plages sableuses ouvertes aux événements de tempêtes, en incluant les phases de récupération / Study of open sandy beaches responses to storms including recovery periods.

Biausque, Mélanie 06 December 2018 (has links)
Cette thèse présente une étude de la dynamique des plages sableuses ouvertes dominées par la houle, au travers d’une base de données originale, couvrant une période de 29 mois, et composée de 150 levés DGPS couvrant 750m de linéaire côtier, donnant accès à la morphodynamique du site de Biscarrosse à différentes échelles de temps. Dans un premier temps, l’analyse du jeu de données à l’échelle des événements (tempêtes et successions de tempêtes appelées clusters) nous a permis de montrer que la réponse des plages sableuses aux clusters ne résulte pas de la somme des impacts induits par chaque tempête d’un cluster. Ainsi, l’effet cumulé des clusters, rapporté sur d'autres sites dans la littérature, n’est ici pas vérifié. L'impact de l’enchainement des tempêtes a également été étudié et il en résulte que lors d’un cluster, un changement des conditions hydrodynamique, à savoir, une augmentation des hauteurs de vagues et/ou du niveau d’eau, est nécessaire pour que la tempête suivante ait un impact érosif significatif sur le système. Dans un second temps, nous avons étudié la dynamique saisonnière du système plage/dune, que ce soit la saison hivernale ou estivale, dans le but de mettre en relief les principaux processus impliqués à cette échelle. Nos travaux montrent que la réponse hivernale de la plage ne dépend pas uniquement des conditions énergétiques et du profil pré-hivernal de la plage, mais également du séquençage des événements, comme lors d'un cluster. Mes travaux confirment également la nécessité de prendre en compte de nombreux paramètres dans l’étude de la dynamique hivernale des littoraux sableux : les conditions hydrodynamiques, le séquençage des évènements érosifs mais également reconstructifs, en particulier le ré-engraissement post-évènement, les transports sédimentaires cross-shore et longshore, ainsi que la position de la barre interne et des courants d’arrachements. La saison estivale est, quant-à-elle, marquée par la reconstruction de berme. Elle semble être liée à la fois aux conditions hydrodynamiques et aux caractéristiques des barres sableuses. L’étude de deux étés et deux hivers successifs a ainsi permis d’identifier les interactions entre les saisons et l’impact de la saison hivernale sur l’estivale, et l’influence de la dynamique événementielle sur la dynamique saisonnière. Elle a aussi permis de mettre en relief l’impact de l’urbanisme et des stratégies d’aménagement dans la réponse du système, à différentes échelles de temps. / This thesis presents a study of an open sandy beach wave-dominated, based on an original dataset, covering 29 months and composed by 150 DGPS surveys recorded along 750m of sandy shore, giving an access to the morphodynamic of Biscarrosse beach at different timescales. In a first time, event scale analysis showed that sandy beach response to clusters is not the result of the sum of the impact generated by each storm of a cluster on the system. Thus, the cumulated effect of clusters, described in the literature is not verified here. The storm sequencing has also been studied: during a cluster, changes in hydrodynamics conditions (rising of the water level and/or wave height) are necessary to provoke a significant erosion of the system by the second storm. In a second time, we studied the seasonal scale dynamic of the beach/dune system (winter and summer seasons) with the purpose to highlight dominant processes involved at this timescale. Beach response to winter seasons not only depends on hydrodynamic conditions and previous beach profile, but also on erosion/recovery event sequencing, post-storm recovery, cross-shore and longshore sediment transport, the barline characteristics and RIP current positions. Summer seasons are here defined by the berm reconstruction. Recovery periods are both linked to hydrodynamic conditions and barline characteristics (e.g. position and shape).The study of successive winters and summers allowed us to identify interactions between seasons, and the influence of short-scale dynamics on the seasonal one. It also emphasizes the impact of urbanism and coastal management strategies on the system’s response, at different timescales.
56

Development of novel ultrasound techniques for imaging and elastography : from simulation to real-time implementation / Sviluppo di tecniche originali ad ultrasuoni per applicazioni di imaging ed elastografia : dalla simulazione all'implementazione in tempo reale / Développement de nouvelles techniques ultrasonores pour des applications d’imagerie ou d’élastographie : de la simulation à l'implémentation temps-réel

Ramalli, Alessandro 02 April 2012 (has links)
Les techniques ultrasonores offrent de nombreux avantages, à la fois par leur utilisation facile et la sécurité du patient. De plus, la recherche, visant à étendre les possibles champs d’applications, est particulièrement active. Cependant, l’accès à des équipements adaptés et supportant des logiciels est conditio sine qua non pour l’expérimentation de nouvelles techniques. Ce projet de thèse traite des problématiques de traitement du signal et d'image dans un contexte d'imagerie médicale et vise à répondre à deux objectifs scientifiques: le premier consiste à contribuer au développement d'une puissante plateforme de recherche (ULA-OP) alors que le second a pour objectif d'introduire et de valider, grâce à cette plateforme, des méthodes de traitement non-standard qui ne pourraient pas être évaluées avec des équipements médicaux commerciaux. ULA-OP, un équipement recherche qui donne accès aux développeurs à une grande liberté de contrôle et de configuration l’ensemble des parties actives du système, de la transmission aux traitements des signaux échographiques. Il offre aussi la possibilité d’accéder aux signaux bruts à n’importe quel niveau de la chaîne de réception. Durant cette thèse, les capacités du système ont été améliorées en implémentant des outils logiciels comme des simulateurs de champ acoustique (propagation linéaire et non-linéaire), et en développant des programmes de génération de signaux post-échographique. L’ULA-OP a été crucial pour développer et tester différentes techniques non-standard telles qu’un schéma adaptatif de formation de voie et une méthode d’imagerie Doppler couleur/vecteur, qui seront détaillés dans le manuscrit. En particulier, une nouvelle méthode a été développée pour des applications d’élastographie quasi-statique. Cette méthode, basée sur un algorithme d’estimation du mouvement dans le domaine fréquentiel et combinée à une méthode d’imagerie haute fréquence, a permis d’améliorer la qualité des élastogrammes obtenus. Cette nouvelle méthode a d’abord été testée in-vitro par des traitements hors ligne des signaux reçus et pour ensuite être implémentée en temps réel sur le ULA-OP. Les résultats obtenus montrent que cette technique est performante et que les élastogrammes présentent une qualité supérieure comparée à ceux obtenues avec les méthodes connues de la littérature / Ultrasound techniques offer many advantages, in terms of both ease of realization and patients’ safety. The research aimed at expanding the fields of application, is nowadays particularly active. The availability of suitable hardware and supporting software tools is condicio sine qua non for the experimentation of new techniques. This Ph.D project addresses signal/image processing issues in medical ultrasound and seeks to achieve two major scientific goals: the first is to contribute to the development of a powerful ultrasound research platform (ULA¬OP), while the second is introducing and validating, through this platform, non-standard methods which could not be tested with commercial equipment. ULA-OP is a research system, which gives developers great freedom in terms of management and control of every section, from signal transmission to echo-signal processing; it also offers the possibility to access raw data at any point in the receive chain. During the thesis, the capabilities of the system were improved by creating advanced software tools, such as acoustic field simulators (for linear and nonlinear propagation), and by developing echo-signals post-elaboration programs. ULA-OP was crucial to develop and test various non-standard techniques such as an adaptive beamforming scheme and a color/vector Doppler imaging method, which will be detailed in this thesis. In particular, a novel technique was developed for quasi-static elastography applications. This technique, based on a frequency domain displacement estimation algorithm, combined with a high-frame-rate averaging method, aims at improving the quality of the elastograms. The new method was first tested in-vitro by offline processing the received signals, and then it was implemented in real-time on ULA-OP. The results show that this technique is effective and that the obtained elastograms present higher quality compared with those obtained with standard algorithms
57

Comment la Technologie Façonne les Marchés Financiers : l’Exemple du Marché des Changes / How Technology Shapes Financial Markets : the Perspective of the Foreign Exchange Market

Lafarguette, Romain 03 May 2017 (has links)
Cette thèse de doctorat est composée de trois chapitres traitant de l’impact des innovations technologiques sur les marchés financiers, prenant comme cas d’étude le marché des changes. Le premier chapitre analyse l’impact des innovations technologiques sur la géographie du marché des changes. Il utilise la connexion des pays au réseau sous-marin des câbles à fibre optique comme mesure de choc technologique exogène. Les estimations montrent que l’introduction des câbles à fibre optique a contribué à concentrer la répartition des activités de trading dans quelques grandes places financières au détriment de toutes les autres. Le deuxième chapitre s’intéresse à l’impact de la technologie sur la réaction des marchés des changes à de nouvelles informations macroéconomiques et financières. Il estime que le développement des technologies de l’information et de la communication permet de réduire la volatilité sur les marchés des changes de façon significative. Enfin, le troisième chapitre montre que le trading à grande vitesse contribue à atténuer les réactions de marché aux chocs macroéconomiques exogènes. Une explication possible, qui s’appuie sur un modèle théorique, est que le trading à grande vitesse augmente la dispersion des cotations de change, qui en retour accroît le temps nécessaire pour les traders pour traiter l’information contenue dans les cotations, rendant de fait le marché moins réactif à de nouvelles informations macroéconomiques et financières. Cette thèse de doctorat propose une nouvelle façon de penser et de mesurer l’impact du progrès technologique sur les marchés financiers. La première contribution est d’utiliser le réseau sous-marin des câbles à fibre optique comme choc technologique exogène et de mesurer son impact sur la géographie des marchés des changes et la volatilité. La seconde contribution est de montrer le lien entre trading à grande vitesse, dispersion des cotations et efficience des marchés, en utilisant l’entropie des cotations comme mesure du temps nécessaire pour traiter l’information contenue dans les prix et en comprendre l’impact sur l’efficience de marché. / This PhD dissertation is a collection of three essays on how technology has been shaping financial markets, using as a case study the foreign exchange market. The first chapter investigates the impact of technological innovations on the geography of the foreign exchange market. It uses as a proxy for exogeneous technological changes the connection of countries to submarine fiber-optic cables. The estimates of this chapter suggest that technology contributes to concentrating foreign exchange trading in an handful of financial centers. The second chapter studies the impact of technology on the reaction of foreign exchange markets to macroeconomic announcements. It shows that the development of Information and Communication Technologies dampens foreign exchange markets volatility. Finally, the third chapter shows that fast trading dampens market reaction to new macroeconomic information. One possible explanation, based on a theoretical model, is that fast traders increase the dispersion in exchange rate quotes, i.e. the time traders need to process new information about market prices; in turn, entropy dampens the market’s reaction to macro news. This PhD dissertation provides a new way to measure and conceptualize technological progress with regards to financial markets. The first contribution is to treat the network of submarine fiber optic cables as an exogenous technological shock to investigate the impact of technology on the geography of foreign exchange trading and on volatility. The second contribution is to show that patterns in the distribution of quotes matters in the context of fast trading. The concept of entropy in exchange rate quotes is used to characterize how fast information diffuses on financial markets and thereby to assess the implications of fast trading on market efficiency.
58

Nouvelle utilisation de l’ablation laser dans l’analyse de pétrole et de ses dérivés

Martinez Labrador, Mauro Alberto 21 January 2013 (has links)
L’analyse du pétrole et de ses dérivés est d'une grande importance pour l'industrie pétrolière et de l'environnement, et que dans sa matrice contient un ensemble de métaux (V, Ni, Fe, etc) et les non-métaux (S, N, Cl, etc) qui ont un grand impact au cours du raffinage et des procédés de combustion. La quantification de ces éléments est devenu sujet commun dans de nombreux laboratoires d'analyse. À l'heure actuelle, il existe des méthodes standard pour la quantification de ces éléments à l'aide des techniques spectroscopiques telles que la plasma à couplage inductif (ICP), la vaporisation électrothermique (ETV), analyse par activation neutronique (NAA), des métaux et des non-métaux, et des techniques potentiométriques les non-métaux tels que les halogènes. Ces méthodes, bien qu'elles soient validées, montrent des formalités fastidieuses, vous pouvez demander stratégies d’étalonnages bons et, dans certains cas, nécessite l'utilisation de normes coûteuses organométalliques. En raison de ces raisons a été soulevée dans le présent document rechercher de nouvelles formes de dosage pour l'analyse élémentaire dans le pétrole et ses dérivés en utilisant des méthodologies sensibles, rapides et faciles. La première idée qui se pose est de l'échantillon enrobé dans une matrice de xérogel de solide brut, ce qui pose le profit pour préparer les normes d'étalonnage à l'aide de solutions aqueuses de concentration connue et en les encapsulant dans la même manière. Cette huile manière encapsulée dans xérogel a été validée à l'aide LA ICP-MS et LIBS et les limites de détection ont été obtenus à partir de 0,7 ng g-1 pour Ni, 0,8 ng g-1 pour V et 1,5 ng g- 1 S, avec une reproductibilité entre 1 à 3%. L'analyse de spéciation ont également soulevé des molécules associées à V, Ni et S par chromatographie sur couche mince et surveillés par MS PCI ainsi trouvé une famille de différenciation molécules associées à ces éléments entre différentes fractions de pétrole brut et la matrice de l'échantillon même que les limites de détection ont été trouvés pour Ni et V de 18 ng g-1 et 23 ng g-1 respectivement. Il a également été observé que l'utilisation de ces méthodes d'analyse peut prendre moins de temps pour atteindre certains protocoles d'analyse systématique et finalement échouer à générer très peu de déchets dans l'environnement. / Analysis of crude oil and its derivatives is of great importance for the crude oil industry and the environment, and that within its matrix contains a set of metals (V, Ni, Fe, etc.) and nonmetals (S, N, Cl, etc) which have great impact during the refining and combustion processes. Quantification of these elements has become common subject matter in many analytical laboratories. Currently, there are standard methods for the quantification of these elements using spectroscopic techniques such as inductively coupled plasma (ICP), electrothermal vaporization (ETV), neutron activation analysis (NAA), for metals and some non-metals, and potentiometric techniques non-metals such as halogens. These methods, although they are validated, show time-consuming procedures, it can not raise a good calibration strategies and in some cases requires the use of expensive organometallic standards. Because of these reasons was raised in this paper find new forms of quantification for elemental analysis in the oil and its derivatives using sensitive methodologies, quick and easy. The first idea that arises is the sample encapsulated within a crude solid xerogel matrix, this poses the advantage to prepare our own calibration standards using aqueous solutions of known concentration and encapsulating them in the same way. This way crude oil encapsulated in xerogel was validated using LA ICP MS and LIBS and detection limits were obtained from 0.7 ng g-1 for Ni, 0.8 ng g-1 for V and 1.5 ng g-1 S, with a reproducibility between 1 to 3%. Also raised speciation analysis of molecules associated with V, Ni and S by thin layer chromatography and monitored by LA ICP MS, thus was found a family of differentiation-associated molecules to these elements between different fractions of crude and the same sample matrix, as detection limits were found for Ni and V of 18 ng g-1 and 23 ng g-1 respectively. It was also observed that the use of these methods of analysis may take less time to reach some systematic analysis protocols and ultimately fail to generate very little waste to the environment.
59

Etude par imagerie in situ des processus biophysiques en milieu fluvial : éléments méthodologiques et applications / Study of fluvial biophysical processes using ground imagery : methodological elements and applications

Benacchio, Véronique 10 July 2017 (has links)
La télédétection est une technique de plus en plus utilisée dans le domaine fluvial, et si des images acquises à haute, voire très haute altitude via des vecteurs aéroportés et satellites sont traditionnellement utilisées, l’imagerie in situ (ou « imagerie de terrain ») constitue un outil complémentaire qui présente de nombreux avantages (facilité de mise en place, coûts réduits, point de vue oblique, etc.). Les possibilités de programmer les prises de vue fixes à des fréquences relativement élevées (de quelques dixièmes de secondes dans le cas de vidéos, à quelques heures par exemple) mais aussi de pouvoir observer les évènements au moment où ils surviennent, est sans commune mesure avec les contraintes associées à l’acquisition de l’imagerie « classique » (dont les plus hautes fréquences s’élèvent à quelques jours). Cela permet de produire des jeux de données conséquents, dont l’analyse automatisée est nécessaire et constitue l’un des enjeux de cette thèse. Le traitement et l’analyse de jeux de données produits sur cinq sites test français et québécois ont permis de mieux évaluer les potentialités et les limites liées à l’utilisation de l’imagerie in situ dans le cadre de l’étude des milieux fluviaux. La définition des conditions optimales d’installation des capteurs en vue de l’acquisition des données constitue la première étape d’une démarche globale, présentée sous forme de modules optionnels, à prendre en compte selon les objectifs de l’étude. L’extraction de l’information radiométrique, puis le traitement statistique du signal ont été évalués dans plusieurs situations tests. La classification orientée-objet avec apprentissage supervisé des images a notamment été expérimentée via des random forests. L’exploitation des jeux de données repose principalement sur l’analyse de séries temporelles à haute fréquence. Cette thèse expose les forces et les faiblesses de cette approche et illustre des usages potentiels pour la compréhension des dynamiques fluviales. Ainsi, l’imagerie in situ est un très bon outil pour l’étude et l’analyse des cours d’eau, car elle permet la mesure de différents types de temporalités régissant les processus biophysiques observés. Cependant, il est nécessaire d’optimiser la qualité des images produites et notamment de limiter au maximum l’angle de vue du capteur, ou la variabilité des conditions de luminosité entre clichés, afin de produire des séries temporelles pleinement exploitables. / Remote sensing is more and more used in river sciences, mainly using satellite and airborne imagery. Ground imagery constitutes a complementary tool which presents numerous advantages for the study of rivers. For example, it is easy to set up; costs are limited; it allows an oblique angle; etc. It also presents the possibility to set up the triggering with very high frequency, ranging, for instance, from a few seconds to a few hours. The possibility to monitor events at the instant they occur makes ground imagery extremely advantageous compared to aerial or spatial imagery (whose highest acquisition frequency corresponds to a few days). Such frequencies produce huge datasets, which require automated analyses. This is one of the challenges addressed in this thesis. Processing and analysis of data acquired at five study sites located in France and Québec, Canada, facilitated the evaluation of ground imagery potentials, as well as its limitations with respect to the study of fluvial systems. The identification of optimal conditions to set up the cameras and to acquire images is the first step of a global approach, presented as a chain of optional modules. Each one is to be taken into account according to the objectives of the study. The extraction of radiometric information and the subsequent statistical analysis of the signal were tested in several situations. In particular, random forests were applied, as a supervised object-oriented classification method. The datasets were principally exploited using high frequency time series analyses, which allowed demonstrating strengths and weaknesses of this approach, as well as some potential applications. Ground imagery is a powerful tool to monitor fluvial systems, as it facilitates the definition of various kinds of time characteristics linked with fluvial biophysical processes. However, it is necessary to optimize the quality of the data produced. In particular, it is necessary to minimize the acquisition angle and to limit the variability of luminosity conditions between shots in order to acquire fully exploitable datasets.
60

Génération et spectrométrie des phonons de haute fréquence. Méthode des impulsions de chaleur

Huet, Danier 23 June 1978 (has links) (PDF)
Les expériences présentées portent sur l'étude du transport de phonons de haute fréquence dans les semiconducteurs, en particulier leur analyse spectrale. Tout d'abord nous avons développé une technique de spectrométrie de phonons basée sur la mesure par temps de vol de la dispersion chromatique des phonons balistiques dans la gamme de centaines de GHz. Des informations précises sur l'interaction électron-phonon dans les semiconducteurs ont été obtenues : dans le germanium, l'absorption résonnante de phonons entre les niveaux singulet et triplet de l'état de base de l'impureté Sb et les règles de sélection sur les polarisations de phonons s'y attachant ont été vérifiées avec précision. La séparation accordable des niveaux d'énergie avec une pression uniaxiale nous a permis de déterminer la composition spectrale des impulsions de phonons transmis. Dans InSb (dégénéré) de type n, nous avons mis en évidence la non-interaction entre modes transverses et électrons de conduction. Dans le cas des modes longitudinaux, l'interaction est caractérisée par une coupure abrupte à haute fréquence lorsque le vecteur d'onde atteint le diamètre de la sphère de Fermi (2kF). Cette coupure, combinée à la détection à seuil de jonctions tunnel supraconductrices a été mise à profit pour réaliser une spectroscopie à 2kF, sans paramètre ajustable, des impulsions de phonons transmises dans le cristal. Des résultats sur la génération de phonons par excitation laser directe sont également présentés.

Page generated in 0.0666 seconds