• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 73
  • 33
  • 8
  • Tagged with
  • 115
  • 42
  • 20
  • 19
  • 16
  • 15
  • 14
  • 14
  • 13
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

L'aléa dans le contrat d'assurance / Hazard in the insurance contract

Demont, Bruno 22 October 2012 (has links)
L’aléa, véritable « cœur » du contrat d’assurance, ne finit pas de susciter les interrogations lorsqu’il s’agit de préciser plus techniquement son rôle, tout comme sa raison d’être. En première ligne se situe naturellement le débat relatif à la qualification des formes contemporaines d’assurance vie : ce dernier, haut lieu de controverse doctrinale depuis des années, ne s’est toujours pas apaisé malgré l’impressionnant nombre d’études consacrées au sujet. En parallèle, le thème de l’aléa dans les contrats fait également l’objet d’un vif regain d’intérêt, s’invitant dans les colloques et les ouvrages les plus récents. Plus que jamais, les notions de contrat d’assurance et de contrat aléatoire se retrouvent donc au cœur de la polémique. Et cette dernière peut aller bon train, tant le débat reste enfermé dans cette idée courante qu’un contrat est un acte nécessairement créateur d’obligations. Ainsi, l’on s’attache bien souvent à mettre en évidence le déséquilibre des obligations des parties (caractéristique des contrats aléatoires) avant de s’interroger sur son existence dans le contrat d’assurance. Mais cette approche obligationnelle de la structure contractuelle est-elle véritablement pertinente ? Ne devrait-on pas, au contraire, concevoir plus largement les effets de l’acte juridique, et consacrer juridiquement une idée somme toute assez commune dans le langage courant des praticiens : celle d’un transfert de risque ? A l’approche obligationnelle classique, exclusivement focalisée sur l’analyse des prestations des parties (paiement de la prime par le souscripteur ; règlement du sinistre voire couverture du risque par l’assureur), se substituerait ainsi une approche réelle, davantage axée sur le transfert de risque opéré entre les parties. Cette approche réelle, à bien des égards séduisante par rapport à l’approche obligationnelle, permettrait ainsi de porter – entre autres – un regard différent sur la problématique inhérente aux formes contemporaines d’assurance vie. / Hazard is well known for being at the heart of the insurance contract. Nonetheless, it does not stop raising questions about its precise role and raison d’être. Firstly, the debate deals with the qualification of contemporary forms of life insurance; Mecca of doctrinal controversy for years, it still remains topical in spite of the impressive number of studies. Meanwhile, contingency is of intense interest in civil contract law, as well as subject to recent seminars and latest books. More than ever, the notions of insurance contract and of aleatory contract appear as being the “core” issues of a controversy which keeps going well, because the debate may be limited by the idea that a contract is necessarily an act that creates obligations. Thus, the imbalance between the parties’ obligations - characteristic of aleatory contracts – is often highlighted before questioning its existence in the insurance contract. However, it may be wondered as whether to know if such an “obligational” approach of the contract is truly relevant. On the contrary, shouldn’t we consider the effects of the contract through a wider point of view, in order to admit – legally – a quite common idea in everyday language: the transfer of risk? Unlike the obligational approach which is solely focused on the performances of both parties (premium paid by the taker; compensation paid out of the claim or even risk covered by the insurer), that “real” approach would be more focused on the risk that is transferred between the contracting parties. Such a real approach, which seems to be highly more attractive than the obligational one, would offer - among others - a different perspective within the debate that is inherent to the contemporary forms of life insurance.
72

Effets cellulaires et moléculaires de l’invalidation conditionnelle du gène MTR au niveau du foie et du cerveau de souris / Cellular and molecular effects of conditional MTR gene knockdown in liver and mouse brain

Lu, Peng 14 December 2016 (has links)
L’enzyme méthionine synthase (MTR) catalyse la reméthylation de l’homocystéine en méthionine, le précurseur du donneur universel de groupe méthyle S-Adenosylmethionine (SAM), impliqué dans des mécanismes de régulations épigénétiques. Des polymorphismes de MTR sont associés à des défauts métaboliques et des défauts de développement embryonnaire. Afin d’étudier les conséquences d’une déficience en MTR, nous avons généré des modèles murins d’invalidation conditionnelle du gène MTR de manière constitutive ou inductible dans le foie et dans le cerveau. L’invalidation constitutive ou inductible ciblée dans le foie pendant l’embryogenèse n’est pas viable, suggérant un rôle limitant de la méthionine synthase sur le développement précoce et l’organogenèse en lien probable avec les conséquences sur la prolifération cellulaire. Dans les périodes post-natales, nous avons utilisé le modèle inductible complété par une hépatectomie pour étudier les altérations de la régénération hépatique liée aux effets sur le stress cellulaire ainsi que l’expression et l’activation des cyclines. Le KO dans le cerveau induit principalement une perte des fonctions de mémorisation de l’apprentissage hippocampo-dépendant. Au total, nos résultats illustrent les effets différents de l’invalidation de MTR en fonction de l’organe considéré. Le foie est un organe très plastique avec une capacité de régénération très importante. Les effets sur les étapes de l’organogénèse et sur l’inhibition de la régénération confirment l’hypothèse du rôle majeur et limitant de la méthionine synthase dans la régulation du cycle cellulaire. Le modèle d’invalidation au niveau du cerveau confirme le rôle très important de la voie de reméthylation de l’homocystéine catalysée par la méthionine synthase, rôle qui a déjà été illustré par d’autres travaux sur les rats carencés en donneur de méthyle et sur la souris transgénique KO cd320 / The enzyme methionine synthase (MTR) catalyzes the remethylation of homocysteine to methionine, the precursor of the methyl donor S-universal Adenosylmethionine (SAM), involved in epigenetic regulation mechanisms. We generated mouse models with conditional invalidation of the mtr gene in a constitutive or inducible manner to delete the gene expression specifically in the liver and brain. Constitutive invalidation during embryonic life is not sustainable when targeted to the liver, suggesting a limiting role of methionine synthase in early organogenesis and probably on cell proliferation. We performed hepatectomy to study regeneration-related effects on the cellular stress and found dramatic effects on cell proliferation through altered expression and activation of cyclins. The constitutive model in brain highlighted the behavioral anomalies related to a loss of learning and memory. This suggested major effects in the hippocampus. Overall, our findings highlighted the specific effects of the invalidation of methionine synthase in both organs. The liver is a plastic member with a very high regenerative capacity. The effects on organogenesis and inhibition of regeneration confirm the hypothesis for a major role of methionine synthase in cell cycle regulation. The invalidation model in the brain confirms the important role of the remethylation pathway catalysed by methionine synthase, a role which has been shown by other studies in rats deprived in methyl donors and in cd320 KO transgenic mice
73

Définitions par réécriture dans le lambda-calcul : confluence, réductibilité et typage / Definitions by rewriting in the lambda-calculus : confluence, reducibility and typing

Riba, Colin 14 December 2007 (has links)
Cette thèse concerne la combinaison du lambda-calcul et de la réécriture, dont nous étudions principalement deux propriétés : la confluence et la normalisation forte. Nous commençons par étudier sous quelles conditions la combinaison d'une relation de réécriture conditionnelle confluente au lambda-calcul donne une relation de réécriture confluente. Ensuite nous nous intéressons aux preuves de normalisation forte de lambda-calculs typés utilisant la technique de réductibilité. Notre contribution la plus importante est une comparaison de diverses variantes de cette technique, utilisant comme outil de comparaison la manière dont ces variantes s'étendent à la réécriture et dont elles prennent en compte les types unions et les types existentiels implicites. Enfin, nous présentons un critère, basé sur un système de types contraints, pour la normalisation forte de la réécriture conditionnelle combinée au lambda-calcul. Notre approche étend des critères de terminaison existants qui utilisent des annotations de taille. C'est à notre connaissance le premier critère de terminaison pour la réécriture conditionnelle avec membres droits d'ordre supérieur qui prenne en compte, dans l'argument de terminaison, de l'information issue de la satisfaction des conditions des règles de réécriture / This thesis is about the combination of lambda-calculus with rewriting. We mainly study two properties: confluence and strong normalization. We begin by studying under which conditions the combination of a confluent conditional rewrite relation to the lambda-calculus leads to a confluent relation. Next, we study strong normalization proofs of typed lambda-calculi that use the reducibility technique. Our main contribution is a comparison of variants of this technique, with respect to how they extend to rewriting and how they handle union and implicit existential types. Finally, we present a termination criterion for the combination of conditional rewriting and lambda-calculus based on a constrained type system. Our approach, which extends known criteria that use sized types, is to our knowledge the first termination criterion for conditional rewriting with higher-order right-hand sides that takes into account in the termination argument some information generated by the satisfaction of the conditions of the rewrite rules
74

Optimisation de la politique de remanufacturing des pièces de rechange dans le cadre d'une maintenance intégrée à une chaîne logistique en boucle fermée / Spare parts remanufacturing policy optimization in the context of an integrated maintenance and closed loop supply chain

Boudhar, Hamza 28 January 2015 (has links)
Motivés par l'évolution des réglementations en matière d'écologie mais aussi par des contraintes purement économiques, plusieurs secteurs industriels se sont retrouvés dans l'obligation de développer de nouvelles méthodes et modèles pour la gestion des produits en fin de vie. Dans ce contexte, la remanufacturation vise à gérer la récupération de la valeur d’un produit avant sa fin de vie. Elle permet de prolonger le cycle de vie du produit et d’économiser une partie des besoins industriels en matière première. Ces produits remanufacturés seront remis dans le marché et destinés à une autre catégorie de clients, différente de celle des produits neufs. Dans d'autres cas, les produits remanufacturés sont réutilisés sous la forme de pièces de rechange dans les actions de maintenance, mais cette réutilisation peut varier selon la stratégie de maintenance adoptée. Dans ce contexte, cette thèse s'intéresse à l’intégration d'un flux d’approvisionnement hybride en pièces de rechange dans un modèle de maintenance basé sur la dégradation stochastique d’un système de production. Deux types de flux d’approvisionnement en pièces de rechange sont étudiés : un flux direct et un flux inverse. Le flux direct est représenté par l'utilisation de pièces de rechange neuves et le flux inverse est représenté par la réutilisation des pièces récupérées lors des remplacements ultérieurs, avec la possibilité de réaliser une action de remanufacturation pour améliorer l'état de dégradation de ces pièces de rechange. Plusieurs problématiques ont été traitées pour permettre de comprendre l'impact et l'influence d'une politique de remanufacturation sur les performances d'un système de production. En effet, dans un premier temps, nous nous sommes intéressés à des systèmes de production composés d'une seule machine. Dans ce cadre, nous avons proposé des études séquentielles puis intégrées pour optimiser la politique de maintenance et celle de l'approvisionnement hybrides en pièces de rechange destinées aux actions de remplacements. Nous avons étudié également la gestion de production soumise à une contrainte de qualité basée sur l'évolution de la dégradation de la machine. Ensuite, et dans un second temps, nous avons présenté des généralisations des modèles étudiés dans le cadre de systèmes de production composés de plusieurs machines. Enfin, nous avons développé un outil d'aide à la décision pour conception de systèmes de production dans le cadre d'une politique de remanufacturation. Cette problématique - du niveau stratégique - vise à sélectionner le meilleur ensemble de machines pour construire un nouveau système de production capable de satisfaire les contraintes de production définies par décideur / Motivated by the change of regulations in the matter of sustainability, but also by pure economic constraints, several industries have found themselves obligated to develop new methods and models for the management of products that are at the end of their life cycle. In this context, the remanufacturing aims at managing the recovery of the product’s value before its end of life. This type of action will extend the product life cycle and save the use of the raw material. These remanufactured products will be re-injected in a market that serves another class of customers, different from the one using new products. In other cases, the remanufactured products are reused as spare parts for the maintenance, but this reuse may vary according to the maintenance strategy adopted. This thesis focuses on the integration of a hybrid flow supply of spare parts in a service model based on stochastic degradation of a production system. Two types of spare parts supply flows are studied: a direct flow and reverse flow. The direct flow is represented by the use of new spare parts and the reverse flow is represented by the reuse of the recovered parts during the replacements, with the ability to perform remanufacturing action to improve the degradation level of these spare parts. Several issues were treated to better understand the impact of remanufacturing policies over the performance of a production system. At the beginning we started our study with production systems composed of a single machine. In this context, we proposed sequential studies then integrated one to optimize the maintenance policy as well as the Hybrid provisioning in regard to spare parts destined to replacement actions. Similarly, we’ve studied the production management subjected to quality constraint based on the machine’s degradation process. Furthermore, we’ve presented generalizations of studied models within the context of a production system composed of several machines. Finally, we’ve developed an aid-to-decision-design tool for production systems within the remanufacturing process. This problematic aims at –from a strategic point- selecting the best group of machines to build a new system of production that is able to satisfy the constraints of a production defined by the decision maker
75

Estimation and misspecification Risks in VaR estimation / Estimation and misspecification risks in VaR evaluation

Telmoudi, Fedya 19 December 2014 (has links)
Dans cette thèse, nous étudions l'estimation de la valeur à risque conditionnelle (VaR) en tenant compte du risque d'estimation et du risque de modèle. Tout d'abord, nous considérons une méthode en deux étapes pour estimer la VaR. La première étape évalue le paramètre de volatilité en utilisant un estimateur quasi maximum de vraisemblance généralisé (gQMLE) fondé sur une densité instrumentale h. La seconde étape estime un quantile des innovations à partir du quantile empirique des résidus obtenus dans la première étape. Nous donnons des conditions sous lesquelles l'estimateur en deux étapes de la VaR est convergent et asymptotiquement normal. Nous comparons également les efficacités des estimateurs obtenus pour divers choix de la densité instrumentale h. Lorsque l'innovation n'est pas de densité h, la première étape donne généralement un estimateur biaisé de paramètre de volatilité et la seconde étape donne aussi un estimateur biaisé du quantile des innovations. Cependant, nous montrons que les deux erreurs se contrebalancent pour donner une estimation consistante de la VaR. Nous nous concentrons ensuite sur l'estimation de la VaR dans le cadre de modèles GARCH en utilisant le gQMLE fondé sur la classe des densités instrumentales double gamma généralisées qui contient la distribution gaussienne. Notre objectif est de comparer la performance du QMLE gaussien par rapport à celle du gQMLE. Le choix de l'estimateur optimal dépend essentiellement du paramètre d qui minimise la variance asymptotique. Nous testons si le paramètre d qui minimise la variance asymptotique est égal à 2. Lorsque le test est appliqué sur des séries réelles de rendements financiers, l'hypothèse stipulant l'optimalité du QMLE gaussien est généralement rejetée. Finalement, nous considérons les méthodes non-paramétriques d'apprentissage automatique pour estimer la VaR. Ces méthodes visent à s'affranchir du risque de modèle car elles ne reposent pas sur une forme spécifique de la volatilité. Nous utilisons la technique des machines à vecteurs de support pour la régression (SVR) basée sur la fonction de perte moindres carrés (en anglais LS). Pour améliorer la solution du modèle LS-SVR nous utilisons les modèles LS-SVR pondérés et LS-SVR de taille fixe. Des illustrations numériques mettent en évidence l'apport des modèles proposés pour estimer la VaR en tenant compte des risques de spécification et d'estimation. / In this thesis, we study the problem of conditional Value at Risk (VaR) estimation taking into account estimation risk and model risk. First, we considered a two-step method for VaR estimation. The first step estimates the volatility parameter using a generalized quasi maximum likelihood estimator (gQMLE) based on an instrumental density h. The second step estimates a quantile of innovations from the empirical quantile of residuals obtained in the first step. We give conditions under which the two-step estimator of the VaR is consistent and asymptotically normal. We also compare the efficiencies of the estimators for various instrumental densities h. When the distribution of is not the density h the first step usually gives a biased estimator of the volatility parameter and the second step gives a biased estimator of the quantile of the innovations. However, we show that both errors counterbalance each other to give a consistent estimate of the VaR. We then focus on the VaR estimation within the framework of GARCH models using the gQMLE based on a class of instrumental densities called double generalized gamma which contains the Gaussian distribution. Our goal is to compare the performance of the Gaussian QMLE against the gQMLE. The choice of the optimal estimator depends on the value of d that minimizes the asymptotic variance. We test if this parameter is equal 2. When the test is applied to real series of financial returns, the hypothesis stating the optimality of Gaussian QMLE is generally rejected. Finally, we consider non-parametric machine learning models for VaR estimation. These methods are designed to eliminate model risk because they are not based on a specific form of volatility. We use the support vector machine model for regression (SVR) based on the least square loss function (LS). In order to improve the solution of LS-SVR model, we used the weighted LS-SVR and the fixed size LS-SVR models. Numerical illustrations highlight the contribution of the proposed models for VaR estimation taking into account the risk of specification and estimation.
76

Revisiting stormwater quality conceptual models in a large urban catchment : Online measurements, uncertainties in data and models / Révision des modèles conceptuels de qualité des eaux pluviales sur un grand bassin versant urbain : Mesures en continue, incertitudes sur les données et les modèles

Sandoval Arenas, Santiago 05 December 2017 (has links)
Les modèles de Rejets Urbains par Temps de Pluie (MRUTP) de Matières en Suspension (MES) dans les systèmes d’assainissement urbains sont essentiels pour des raisons scientifiques, environnementales, opérationnelles et réglementaires. Néanmoins, les MRUTP ont été largement mis en question, surtout pour reproduire des données mesurées en continu à l’exutoire des grands bassins versants. Dans cette thèse, trois limitations potentielles des MRUTP traditionnels ont été étudiées dans un bassin versant de 185 ha (Chassieu, France), avec des mesures en ligne de 365 événements pluvieux : a) incertitudes des données dû aux conditions sur le terrain, b) incertitudes dans les modèles hydrologiques et mesures de pluie et c) incertitudes dans les structures traditionnelles des MRUTP. Ces aspects sont approfondis dans six apports séparés, dont leurs résultats principaux peuvent être synthétisés comme suites : a) Acquisition et validation des données : (i) quatre stratégies d’échantillonnage pendant des événements pluvieux sont simulées et évaluées à partir de mesures en ligne de MES et débit. Les intervalles d’échantillonnage recommandés sont de 5 min, avec des erreurs moyennes entre 7 % et 20 % et des incertitudes sur ces erreurs d’environ 5 %, selon l’intervalle d’échantillonnage; (ii) la probabilité de sous-estimation de la concentration moyenne dans la section transversale du réseau est estimée à partir de deux méthodologies. Une méthodologie montre des sous-estimations de MES plus réelles (vers 39 %) par apport à l'autre (vers 269 %). b) Modèles hydrologiques et mesures de pluie : (iii) une stratégie d’estimation de paramètres d’un modèle conceptuel pluie-débit est proposée, en analysant la variabilité des paramètres optimaux obtenus à partir d’un calage Bayésien évènement-par-évènement; (iv) une méthode pour calculer les précipitations moyennes sur un bassin versant est proposée, sur la base du même modèle hydrologique et les données de débit. c) MRUTP (pollutographes) : (v) la performance de modélisation à partir du modèle traditionnel courbe d’étalonnage (RC) a été supérieur aux différents modèles linéaires de fonctions de transfert (TF), surtout en termes de parcimonie et précision des simulations. Aucune relation entre les potentielles erreurs de mesure de la pluie et les conditions hydrologiques définies en (iii) et (iv) avec les performances de RC et TFs n’a pu être établie. Des tests statistiques renforcent que l’occurrence des évènements non-représentables par RC ou TF au cours de temps suit une distribution aléatoire (indépendante de la période sèche précédente); (vi) une méthode de reconstruction Bayésienne de variables d’état virtuelles indique que des processus potentiellement manquants dans une description RC sont ininterprétables en termes d’un unique état virtuel de masse disponible dans le bassin versant qui diminue avec le temps, comme nombre de modèles traditionnels l’ont supposé. / Total Suspended Solids (TSS) stormwater models in urban drainage systems are often required for scientific, legal, environmental and operational reasons. However, these TSS stormwater traditional model structures have been widely questioned, especially when reproducing data from online measurements at the outlet of large urban catchments. In this thesis, three potential limitations of traditional TSS stormwater models are analyzed in a 185 ha urban catchment (Chassieu, Lyon, France), by means 365 rainfall events monitored online: a) uncertainties in TSS data due to field conditions; b) uncertainties in hydrological models and rainfall measurements and c) uncertainties in the stormwater quality model structures. These aspects are investigated in six separate contributions, whose principal results can be summarized as follows: a) TSS data acquisition and validation: (i) four sampling strategies during rainfall events are simulated and evaluated by online TSS and flow rate measurements. Recommended sampling time intervals are of 5 min, with average sampling errors between 7 % and 20 % and uncertainties in sampling errors of about 5 %, depending on the sampling interval; (ii) the probability of underestimating the cross section mean TSS concentration is estimated by two methodologies. One method shows more realistic TSS underestimations (about 39 %) than the other (about 269 %). b) Hydrological models and rainfall measurements: (iii) a parameter estimation strategy is proposed for conceptual rainfall-runoff model by analyzing the variability of the optimal parameters obtained by single-event Bayesian calibrations, based on clusters and graphs representations. The new strategy shows more performant results in terms of accuracy and precision in validation; (iv) a methodology aimed to calculate “mean” areal rainfall estimation is proposed, based on the same hydrological model and flow rate data. Rainfall estimations by multiplying factors over constant-length time window and rainfall zero records filled with a reverse model show the most satisfactory results compared to further rainfall estimation models. c) Stormwater TSS pollutograph modelling: (v) the modelling performance of the traditional Rating Curve (RC) model is superior to different linear Transfer Function models (TFs), especially in terms of parsimony and precision of the simulations. No relation between the rainfall corrections or hydrological conditions defined in (iii) and (iv) with performances of RC and TFs could be established. Statistical tests strengthen that the occurrence of events not representable by the RC model in time is independent of antecedent dry weather conditions; (vi) a Bayesian reconstruction method of virtual state variables indicate that potential missing processes in the RC description are hardly interpretable as a unique state of virtual available mass over the catchment decreasing over time, as assumed by a great number of traditional models.
77

Contributions à la statistique des processus et à l'estimation fonctionnelle

Rachdi, Mustapha 07 November 2006 (has links) (PDF)
Dans cette HDR, notre objectif premier est de présenter nos travaux sur la statistique non paramétrique des processus stochastiques et sur l'estimation fonctionnelle. Plutôt que de vouloir insister sur les détails mathématiques de nos résultats, que l'on pourra toujours retrouver dans les articles correspondants, nous avons choisi de les présenter d'une façon synthétique. Sans prétendre à l'exhaustivité, nous nous sommes attachés à indiquer les articles historiques et à faire un choix de certains articles nous paraîssant les plus intéressants. Les techniques non paramétriques ont pris une importance de plus en plus grande depuis une trentaine d'années dans la recherche en statistique mathématique. Le nombre toujours croissant d'articles sur ce thème en témoigne. Il faut également signaler que le développement des moyens informatiques et la puissance actuelle de calcul des ordinateurs permettent d'élargir toujours plus le champs d'application de ces méthodes. Ce document est organisé en respectant des thématiques. En fait, nous avons classifié l'ensemble de nos travaux en six chapitres. Dans chacun de ces chapitres, nous indiquons les travaux concernés avant un bref historique, ensuite nous résumons les principaux résultats, les idées sous-jacentes, et ce qui a motivé ce travail. Nous scindons nos recherches en deux grandes parties : d'abord, l'estimation fonctionnelle et la statistique des processus en dimension finie (chapitres 1, 2, 3 et 4), et puis, l'analyse statistique des données fonctionnelles (chapitre 5). Le dernier chapitre de ce mémoire est le fruit de nos investigations avec l'équipe de Telecom Lille 1 sur la modélisation statistique du canal de transmission à 60 GHz dans les milieux confinés.
78

ATOMES ET CAVITÉ : PRÉPARATION ET MANIPULATION D'ÉTATS INTRIQUÉS COMPLEXES

Rauschenbeutel, Arno 02 May 2001 (has links) (PDF)
Nous présentons ici la réalisation d'une dynamique quantique conditionnelle et la préparation d'un état intriqué à trois systèmes quantiques dans une expérience d'électrodynamique quantique en cavité. Nous couplons des atomes, préparés dans un état de Rydberg circulaire, au mode d'une cavité de très haute surtension, préparé dans l'état vide. A résonance, un échange réversible et cohérent d'un quantum d'excitation entre l'atome et le champ a lieu : l'oscillation de Rabi quantique. En fixant le temps d'interaction à un cycle complet d'absorption et d'émission, nous obtenons une dynamique conditionnelle : la phase quantique de l'état atome--champ change si le mode contient un photon et si l'état atomique est couplé au mode. En revanche, si le mode ne contient pas de photon ou si l'état atomique n'est pas<br />couplé, la phase reste inchangée. Nous démontrons ce changement de phase et nous faisons varier sa valeur en désaccordant la fréquence du mode par rapport à la transition atomique. De plus, nous vérifions que la dynamique préserve la cohérence des sous-systèmes, menant ainsi à un état intriqué si les deux sont initialement préparés dans des superpositions d'états. Nous interprétons le processus en termes d'une porte logique quantique et nous analysons ses limitations. Dans une deuxième expérience, nous préparons et analysons un état intriqué entre deux atomes et le champ en effectuant des opérations successives et réversibles. Le premier atome est intriqué avec le champ en interagissant avec ce dernier pendant un quart d'oscillation de Rabi. Le deuxième atome effectue ensuite, comme dans la première expérience, une oscillation de Rabi complète. Etant préparé dans une superposition de l'état couplé et de l'état non-couplé, il s'intrique également avec le champ, et donc avec le premier atome. Des mesures dans deux bases orthogonales sont effectuées sur l'état intriqué à trois systèmes résultant. Une analyse des signaux expérimentaux est présentée, confirmant que l'état préparé n'est effectivement pas séparable. Nous discutons des perspectives ouvertes par ces expériences pour le traitement<br />quantique de l'information.
79

Sur diverses extensions des chaînes de Markov cachées avec application au traitement des signaux radar

Lapuyade-Lahorgue, Jérôme 10 December 2008 (has links) (PDF)
L'objectif de cette thèse est de proposer différents modèles généralisant le modèle classique des chaînes de Markov cachées à bruit indépendant couramment utilisé en inférence bayésienne de signaux. Les diverses extensions de ce modèle visent à l'enrichir et à prendre en compte différentes propriétés du signal, comme le caractère non gaussien du bruit, ou la nature semi-markovienne du signal caché. Dans un problème d'inférence bayésienne, nous disposons de deux processus aléatoires X et Y , on observe la réalisation y de Y et nous estimons la réalisation cachée x de X. Le lien existant entre les deux processus est modélisé par la distribution de probabilité p(x, y). Dans le modèle classique des chaînes de Markov cachées à bruit indépendant, la distribution p(x) est celle d'une chaîne de Markov et la distribution p(y|x) est celle de marginales indépendantes conditionnellement à x. Bien que ce modèle puisse être utilisé dans de nombreuses applications, il ne parvient pas à modéliser toutes les situations de dépendance. Le premier modèle que nous proposons est de type “chaînes de Markov triplet”, on considère ainsi un troisième processus U tel que le triplet (X, U, Y ) soit une chaîne de Markov. Dans le modèle proposé, ce processus auxiliaire modélise la semi-markovianité de X ; on parvient ainsi à prendre en compte la non markovianité éventuelle du processus caché. Dans un deuxième modèle, nous considérons des observations à dépendance longue et nous proposons un algorithme d'estimation original des paramètres de ce modèle. Nous étudions par ailleurs différents modèles prenant en compte simultanément la semi-markovianité des données cachées, la dépendance longue dans les observations ou la non stationnarité des données cachées. Enfin, la nature non nécessairement gaussienne du bruit est prise en compte via l'introduction des copules. L'intérêt des différents modèles proposés est également validé au travers d'expérimentations. Dans la dernière partie de cette thèse, nous étudions également comment la segmentation obtenue par une méthode bayésienne peut être utilisée dans la détection de cibles dans le signal radar. Le détecteur original que nous implémentons utilise la différence de statistiques entre un signal recu et les signaux recus de son voisinage. Le détecteur ainsi implémenté s'avère donner de meilleurs résultats en présence de fort bruit que le détecteur habituellement utilisé en traitement radar.
80

Un théorème limite conditionnel. Applications à l'inférence conditionnelle et aux méthodes d'Importance Sampling.

Caron, Virgile 16 October 2012 (has links) (PDF)
Cette thèse présente une approximation fine de la densité de longues sous-suites d'une marche aléatoire conditionnée par la valeur de son extrémité, ou par une moyenne d'une fonction de ses incréments, lorsque sa taille tend vers l'infini. Dans le domaine d'un conditionnement de type grande déviation, ce résultat généralise le principe conditionnel de Gibbs au sens où il décrit les sous suites de la marche aléatoire, et non son comportement marginal. Une approximation est aussi obtenue lorsque l'événement conditionnant énonce que la valeur terminale de la marche aléatoire appartient à un ensemble mince, ou gros, d'intérieur non vide. Les approximations proposées ont lieu soit en probabilité sous la loi conditionnelle, soit en distance de la variation totale. Deux applications sont développées; la première porte sur l'estimation de probabilités de certains événements rares par une nouvelle technique d'échantillonnage d'importance; ce cas correspond à un conditionnement de type grande déviation. Une seconde application explore des méthodes constructives d'amélioration d'estimateurs dans l'esprit du théorème de Rao-Blackwell, et d'inférence conditionnelle sous paramètre de nuisance; l'événement conditionnant est alors dans la gamme du théorème de la limite centrale. On traite en détail du choix effectif de la longueur maximale de la sous suite pour laquelle une erreur relative maximale fixée est atteinte par l'approximation; des algorithmes explicites permettent la mise en oeuvre effective de cette approximation et de ses conséquences.

Page generated in 0.2611 seconds