• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 64
  • 29
  • 8
  • 1
  • 1
  • Tagged with
  • 102
  • 35
  • 27
  • 17
  • 16
  • 16
  • 16
  • 15
  • 13
  • 12
  • 10
  • 10
  • 10
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Многомодовые перепутанные состояния в связанных оптических параметрических взаимодействиях и их применения в телепортации / Des états intriqués créés dans les interactions paramétriques optiques et leurs applications en téléportation / Multimode entangled states in coupled optical parametric interactions and their applications in teleportation

Saygin, Mikhail 16 June 2011 (has links)
La thèse est consacrée au développement de la théorie quantique de l’intrication et de la statistique non classique des champs optiques multimodaux dans les interactions paramétriques. Nous étudions également des applications de ce type de champs dans les schémas de l’information quantique. Nous considérons deux types d’interactions paramétriques, appelées concurrents et consécutifs, entre cinq modes du champ électromagnétique avec des fréquences différentes. Le premier type d’interaction est le processus de conversion de fréquence connu comme « parametric down-conversion » accompagné par « parametric up-conversion » : [Oméga]p=[Oméga]1+[Oméga]2, 2[Oméga]p=[Oméga]2+[Oméga]3, [Oméga]p+[Oméga]1=[Oméga]3. Nous démontrons que ces deux processus concurrent produisent une intrication de trois modes du champ électromagnétique avec les trois fréquences différentes. Nous trouvons les conditions optimales pour la création de ce type d’intrication. Le deuxième processus considéré dans la thèse est celle du « parametric down-conversion » accompagné par deux « parametric up-conversion » : [Oméga]p=[Oméga]1+[Oméga]2, [Oméga]p+[Oméga]1=[Oméga]3, [Oméga]p+[Oméga]2=[Oméga]4. Nous avons trouvé l’intrication entres les deux modes de basses fréquences [Oméga]1 et [Oméga]2 et les deux modes de hautes fréquences [Oméga]3 et [Oméga]4 . En appliquant le critère basé sur les valeurs symplectiques nous avons quantifié ce type d’intrication. Nous avons étudié des propriétés de champs avec plusieurs modes spatiaux dans les deux configurations de l’imagerie quantiques : le champ proche et le champ lointain. Dans les deux cas nous avons calculé le rapport signal à bruits et étudié son comportement en fonction des paramètres physiques. Nous avons également proposé et étudié un schéma pour téléportation des images optiques classiques et non classiques (intriquées). Nous avons évalué la fidélité de téléportation en fonction des paramètres de notre système tels que la taille de pixel dans la caméra de détection et la longueur de cohérence de l’émission paramétrique. / The main goal of the thesis is to elaborate the quantum properties, such as entanglement and quantum statistics, of multi-frequency fields, both spatial single-mode and multimode, generated in coupled parametric wave interactions and consider some applications of these fields in quantum information schemes. In the thesis two coupled (also named as concurrent or consecutive) parametric interactions involving modes of five frequencies are considered. The first interactions are two parametric down-conversion processes accompanied by the up-conversion process: [Oméga]p=[Oméga]1+[Oméga]2, 2[Oméga]p=[Oméga]2+[Oméga]3, [Oméga]p+[Oméga]1=[Oméga]3. It has been shown that the resulting three-frequency optical field is in a three mode entangled state. We formulate the optimal conditions for creation of such type of entanglement. The other coupled interactions comprise one parametric down-conversion process with two up-conversion ones: [Oméga]p=[Oméga]1+[Oméga]2, [Oméga]p+[Oméga]1=[Oméga]3, [Oméga]p+[Oméga]2=[Oméga]4. The entanglement analysis, carried out for these interactions, suggests that the modes with frequencies [Oméga]1 and [Oméga]2 low-frequency modes) along with modes with frequencies [Oméga]3 and [Oméga]4 (high-frequency modes) exhibit two-mode entanglement. Moreover, the symplectic eigenvalue criterion has shown the presence of block entanglement between low-frequency and high-frequency modes. The properties of the spatially multimode fields, generated in the second type of interaction, were investigated for two configurations of quantum imaging schemes: the near-field and the far-field. For both configurations the signal-to-noise ratio and entanglement properties of the generated images have been studied in detail. The schemes for teleportation of entangled spatial single-mode states and entangled images using auxiliary quantum states obtained in the second interactions are proposed and thoroughly analyzed. The teleportation quality in dependence on the amount of entanglement in auxiliary fields and the states to be teleported has been studied. For the images teleportation scheme the influence of the detectors pixel size on the quality of teleportation has been analyzed.
2

Spécialisations de revêtements et théorie inverse de Galois / Specializations of covers and inverse Galois theory

Legrand, François 10 December 2013 (has links)
On s'intéresse dans cette thèse à des questions portant sur les spécialisations de revêtements algébriques (galoisiens ou non). Le thème central de la première partie de ce travail est la construction de spécialisations de n'importe quel revêtement galoisien de la droite projective de groupe G défini sur k dont on impose d'une part le comportement local en un nombre fini d'idéaux premiers de k et dont on assure d'autre part qu'elles restent de groupe G si le corps k est hilbertien. Dans la deuxième partie, on développe une méthode générale pour qu'un revêtement galoisien f de la droite projective de groupe G défini sur k vérifie la propriété suivante : étant donné un sous-groupe H de G, il existe au moins une extension galoisienne de k de groupe H qui n'est pas spécialisation du revêtement f. De nombreux exemples sont donnés. La troisième partie consiste en l'étude de la question suivante : une extension galoisienne F/k, ou plus généralement une k-algèbre étale ∏ Fl /k, est-elle la spécialisation d'un revêtement d'une variété B défini sur k (galoisien ou non) en un certain point k-rationnel de B non-ramifié ? Notre principal outil est un twisting lemma qui réduit la question à trouver des points k-rationnels sur certaines k-variétés que nous étudions ensuite pour des corps de base k variés. / We are interested in this thesis in some questions concerning specializations of algebraic covers (Galois or not). The main theme of the first part consists in producing some specializations of any Galois cover of the projective line of group G defined over k with specified local behavior at finitely many given primes of k and which each have in addition Galois group G if k is assumed to be hilbertian. In the second part, we offer a systematic approach for a given Galois cover f of the projective line of group G defined over k to satisfy the following property: given a subgroup H of G, at least one Galois extension of k of group H is not a specialization of the cover f. Many examples are given. The central question of the third part is whether a given Galois extension F/k, or more generally a given k-étale algebra ∏ Fl /k, is the specialization of a given cover of a variety B defined over k (Galois or not) at some unramified k-rational point of B ? Our main tool is a twisting lemma which reduces the problem to finding k-rational points on some k-varieties which we then study for various base fields k.
3

Bases creuses en algèbre linéaire exacte et simplification algorithmique de modèles biologiques / Sparse basis in exact linear algebra and algorithmic simplification of biological models

Temperville, Alexandre 11 July 2016 (has links)
Les nouveaux algorithmes présentés dans cette thèse contribuent à la thématique générale de la simplification des modèles biologiques : le calcul de bases creuses de lois de conservation, la simplification des systèmes d'équations différentielles paramétriques, fréquents en modélisation, et le reverse engineering des modèles. Les algorithmes de cette thèse sont basés sur de l'algèbre linéaire exacte. Le chapitre 2 présente un algorithme glouton exact et garanti permettant de calculer une base la plus creuse parmi toutes les bases d'un espace vectoriel. On l'applique au calcul de lois de conservation de modèles biologiques. Dans le chapitre 3, une variante de cet algorithme utilise la résolution de plusieurs programmes linéaires (avec l'algorithme du simplexe) en variables réelles. Cette variante permet de calculer des bases creuses sans garantir qu'elles soient complètes ou les plus creuses. Le chapitre 4 présente un algorithme permettant de calculer une base la plus creuse modulo un espace vectoriel. Il permet de simplifier des fractions rationnelles en effectuant des changements de variables. Enfin, le chapitre 5 présente un algorithme qui, dans le cas où l'ensemble des lois de conservation d'un modèle biologique n'admet pas de base complète de lois à coefficients positifs, suggère des modèles enrichis d'une ou plusieurs espèces. / The new algorithms introduced in this thesis contribute to the general theme of simplification of biological model : the computation of sparse bases of conservation laws, the simplification of parametric systems of differential equations, frequent in modelling, and the reverse engineering of models. The algorithms of this thesis are based on exact linear algebra. The chapter 2 introduces a greedy, exact and guaranteed algorithm which allows to compute a sparsest basis among all the bases of a vector space. We apply it to the computation of conservation laws of biological models. In the chapter 3, a variant of this algorithm uses the resolution of several linear programs (with the simplex algorithm) in real variables. This variant allows to compute sparse bases without guarantee they are complete or sparsest. The chapter 4 introduces an algorithm which allows to compute a sparsest basis modulo a vector space. It was developed with the aim to simplify rational fractions using changes of variables. The chapter 5 introduces an algorithm which suggests models enriched of one or several species, in the case where the set of conservation laws does not admit a complete basis of laws with nonnegative coefficients.
4

Réduction du bruit optique dans un oscillateur paramétrique optique par l'ajout d'une cavité externe

Drouin, Étienne M. 12 April 2018 (has links)
L'ajout de cavités externes à des lasers est une façon passive de réduire le bruit optique à basses fréquences dans ces derniers. Cette technique peut être utilisée autant pour les lasers à émission continue que dans les lasers en régime impulsionnel. Le projet consistait à appliquer cette méthode à un oscillateur paramétrique optique pour réduire son bruit et en stabiliser les impulsions. Nous avons ainsi réussi à réduire de plus de 40 dB le bruit à certaines fréquences et à obtenir des moyennes de réduction pouvant aller jusqu'à 30 dB entre 0 et 10 MHz. Il a été conclu que la longueur optimale de la cavité externe est légèrement plus courte que celle de la cavité résonnante de l'OPO et qu'une réduction de bruit adéquate sans trop allonger les impulsions est atteinte lorsque le niveau de retour est près de 10-2. Les paramètres initiaux de l'OPO font beaucoup varier ces résultats. En effet, l'alignement de celui-ci change beaucoup la trace de bruit initiale (sans cavité externe). Il nous est donc possible d'obtenir de plus grandes réductions si le bruit initial est plus élevé. Il semble que la cavité externe puisse éliminer presque complètement le bruit dans ce spectre de fréquences. Enfin, la stabilisation sur une plus longue période a été réalisée grâce à une boucle de rétroaction reliant le coupleur de sortie de l'OPO à un détecteur au silicium. On peut ainsi éviter l'alignement manuel de l'OPO pour une journée complète d'utilisation.
5

Modèles semi-paramétriques appliqués à la prévision des séries temporelles. Cas de la consommation d'électricité.

Lefieux, Vincent 12 October 2007 (has links) (PDF)
Une prévision correcte de la consommation d'électricité est fondamentale pour le bon fonctionnement du réseau électrique français, dont Réseau de Transport d'Electricité a la charge. Les prévisions utilisées quotidiennement par RTE sont issues d'un modèle alliant une régression paramétrique non linéaire et un modèle SARIMA.Dans l'idée d'obtenir un modèle de prévision adaptatif, des méthodes de prévision non-paramétriques ont déjà été testées sans succès véritable. On sait notamment que la qualité d'un prédicteur non-paramétrique résiste mal à un grand nombre de variables explicatives, ce qu'on appelle communément le fléau de la dimension.On a proposé récemment des méthodes semi-paramétriques d'estimation d'une régression qui améliorent l'approche non-paramétrique pure. L'une d'elles, basée sur la notion de ''directions révélatrices'' appellée MAVE (Moving Average -conditional- Variance Estimation), peut s'appliquer aux séries temporelles. Nous étudions empiriquement son efficacité pour prédire les valeurs futures d'une série temporelle autorégressive.Nous adaptons ensuite cette méthode, d'un point de vue pratique, pour prédire la consommation électrique. Nous proposons un modèle semi-paramétrique semi-linéaire, basé partiellement sur la méthode MAVE, qui permet de prendre en compte simultanément l'aspect autorégressif du problème, et l'introduction de variables exogènes. La procédure d'estimation proposée se révèle efficace en pratique.
6

Sur l'estimation d'un vecteur moyen sous symétrie sphérique et sous contrainte

Kortbi, Othmane January 2011 (has links)
Ce travail est essentiellement centré sur l'estimation, du point de vue de la théorie de la décision, de la moyenne d'une distribution multidimensionnelle à symétrie sphérique. Sous coût quadratique, nous nous sommes concentrés à développer des classes d'estimateurs au moins aussi bons que les estimateurs usuels, puisque ces derniers tendent à perdre leur performance en dimension élevée et en présence de contraintes sur les paramètres. Dans un premier temps, nous avons considéré les distributions de mélange (par rapport à [sigma][indice supérieur 2]) de lois normales multidimensionnelles N ([théta], [sigma][indice supérieur 2]I[indice inférieur p]), en dimension p supérieure ou égale à 3. Nous avons trouvé une grande classe de lois a priori (généralisées), aussi dans la classe des distributions de mélange de lois normales, qui génèrent des estimateurs de Bayes minimax. Ensuite, pour étendre nos résultats, nous avons considéré les distributions à symétrie sphérique (pas nécessairement mélange de lois normales) avec paramètre d'échelle connu, en dimension supérieure ou égale à 3 et en présence d'un vecteur résiduel. Nous avons obtenu une classe d'estimateurs de Bayes généralisés minimax pour une grande classe de distributions sphériques incluant certaines distributions mélange de lois normales. Dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], I[indice inférieur p]) sous la contrainte [double barre verticale][théta][double barre verticale] [inférieur ou égal] m avec m > 0, une analyse en dimension finie pour comparer les estimateurs linéaires tronqués [delta][indice inférieur a] (0 [plus petit ou égal] a < 1) avec l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] est donnée. Un cadre asymptotique est développé, ceci nous permet de déduire la sous-classe des estimateurs [delta][indice inférieur a] qui dominent [delta][indice inférieur emv] et de mesurer avec précision le degré d'amélioration relative en risque. Enfin, dans l'estimation de la moyenne [théta] d'une loi N[indice inférieur p]([théta], [sigma][indice supérieur 2]I[indice inférieur p]) où [sigma] est inconnu et sous la contrainte [Special characters omitted.] [plus petit ou égal] m avec m > 0, des résultats de dominance de l'estimateur X et de l'estimateur du maximum de vraisemblance [delta][indice inférieur emv] sont développés. En particulier, nous avons montré que le meilleur estimateur équivariant [delta][indice inférieur m] (x , s) = h[indice inférieur m] ([Special characters omitted.]) x pour = [Special characters omitted.] = m domine [delta][indice inférieur emv] lorsque m [plus petit ou égal] [racine carrée]p et que sa troncature [delta][Special characters omitted.] domine [delta][indice inférieur emv] pour tout (m , p).
7

Sources optiques cohérentes pour la spectroscopie. Développements de la microscopie de photodétachement.

Drag, Cyril 15 December 2010 (has links) (PDF)
.
8

Machine learning methods for discrete multi-scale fows : application to finance / Méthodes d'apprentissage pour des flots discrets multi-échelles : application à la finance

Mahler, Nicolas 05 June 2012 (has links)
Ce travail de recherche traite du problème d'identification et de prédiction des tendances d'une série financière considérée dans un cadre multivarié. Le cadre d'étude de ce problème, inspiré de l'apprentissage automatique, est défini dans le chapitre I. L'hypothèse des marchés efficients, qui entre en contradiction avec l'objectif de prédiction des tendances, y est d'abord rappelée, tandis que les différentes écoles de pensée de l'analyse de marché, qui s'opposent dans une certaine mesure à l'hypothèse des marchés efficients, y sont également exposées. Nous explicitons les techniques de l'analyse fondamentale, de l'analyse technique et de l'analyse quantitative, et nous nous intéressons particulièrement aux techniques de l'apprentissage statistique permettant le calcul de prédictions sur séries temporelles. Les difficultés liées au traitement de facteurs temporellement dépendants et/ou non-stationnaires sont soulignées, ainsi que les pièges habituels du surapprentrissage et de la manipulation imprudente des données. Les extensions du cadre classique de l'apprentissage statistique, particulièrement l'apprentissage par transfert, sont présentées. La contribution principale de ce chapitre est l'introduction d'une méthodologie de recherche permettant le développement de modèles numériques de prédiction de tendances. Cette méthodologie est fondée sur un protocole d'expérimentation, constitué de quatre modules. Le premier module, intitulé Observation des Données et Choix de Modélisation, est un module préliminaire dévoué à l'expression de choix de modélisation, d'hypothèses et d'objectifs très généraux. Le second module, Construction de Bases de Données, transforme la variable cible et les variables explicatives en facteurs et en labels afin d'entraîner les modèles numériques de prédiction de tendances. Le troisième module, intitulé Construction de Modèles, a pour but la construction de modèles numériques de prédiction de tendances. Le quatrième et dernier module, intitulé Backtesting et Résultats Numériques, évalue la précision des modèles de prédiction de tendances sur un ensemble de test significatif, à l'aide de deux procédures génériques de backtesting. Le première procédure renvoie les taux de reconnaissance des tendances de hausse et de baisse. La seconde construit des règles de trading au moyen des predictions calculées sur l'ensemble de test. Le résultat (P&L) de chacune des règles de trading correspond aux gains et aux pertes accumulés au cours de la période de test. De plus, ces procédures de backtesting sont complétées par des fonctions d'interprétation, qui facilite l'analyse du mécanisme décisionnel des modèles numériques. Ces fonctions peuvent être des mesures de la capacité de prédiction des facteurs, ou bien des mesures de fiabilité des modèles comme des prédictions délivrées. Elles contribuent de façon décisive à la formulation d'hypothèses mieux adaptées aux données, ainsi qu'à l'amélioration des méthodes de représentation et de construction de bases de données et de modèles. Ceci est explicité dans le chapitre IV. Les modèles numériques, propres à chacune des méthodes de construction de modèles décrites au chapitre IV, et visant à prédire les tendances des variables cibles introduites au chapitre II, sont en effet calculés et backtestés. Les raisons du passage d'une méthode de construction de modèles à une autre sont particulièrement étayées. L'influence du choix des paramètres - et ceci à chacune des étapes du protocole d'expérimentation - sur la formulation de conclusions est elle aussi mise en lumière. La procédure PPVR, qui ne requiert aucun calcul annexe de paramètre, a ainsi été utilisée pour étudier de façon fiable l'hypothèse des marchés efficients. De nouvelles directions de recherche pour la construction de modèles prédictifs sont finalement proposées. / This research work studies the problem of identifying and predicting the trends of a single financial target variable in a multivariate setting. The machine learning point of view on this problem is presented in chapter I. The efficient market hypothesis, which stands in contradiction with the objective of trend prediction, is first recalled. The different schools of thought in market analysis, which disagree to some extent with the efficient market hypothesis, are reviewed as well. The tenets of the fundamental analysis, the technical analysis and the quantitative analysis are made explicit. We particularly focus on the use of machine learning techniques for computing predictions on time-series. The challenges of dealing with dependent and/or non-stationary features while avoiding the usual traps of overfitting and data snooping are emphasized. Extensions of the classical statistical learning framework, particularly transfer learning, are presented. The main contribution of this chapter is the introduction of a research methodology for developing trend predictive numerical models. It is based on an experimentation protocol, which is made of four interdependent modules. The first module, entitled Data Observation and Modeling Choices, is a preliminary module devoted to the statement of very general modeling choices, hypotheses and objectives. The second module, Database Construction, turns the target and explanatory variables into features and labels in order to train trend predictive numerical models. The purpose of the third module, entitled Model Construction, is the construction of trend predictive numerical models. The fourth and last module, entitled Backtesting and Numerical Results, evaluates the accuracy of the trend predictive numerical models over a "significant" test set via two generic backtesting plans. The first plan computes recognition rates of upward and downward trends. The second plan designs trading rules using predictions made over the test set. Each trading rule yields a profit and loss account (P&L), which is the cumulated earned money over time. These backtesting plans are additionally completed by interpretation functionalities, which help to analyze the decision mechanism of the numerical models. These functionalities can be measures of feature prediction ability and measures of model and prediction reliability. They decisively contribute to formulating better data hypotheses and enhancing the time-series representation, database and model construction procedures. This is made explicit in chapter IV. Numerical models, aiming at predicting the trends of the target variables introduced in chapter II, are indeed computed for the model construction methods described in chapter III and thoroughly backtested. The switch from one model construction approach to another is particularly motivated. The dramatic influence of the choice of parameters - at each step of the experimentation protocol - on the formulation of conclusion statements is also highlighted. The RNN procedure, which does not require any parameter tuning, has thus been used to reliably study the efficient market hypothesis. New research directions for designing trend predictive models are finally discussed.
9

Estimateurs fonctionnels récursifs et leurs applications à la prévision

Amiri, Aboubacar 06 December 2010 (has links) (PDF)
Nous nous intéressons dans cette thèse aux méthodes d'estimation non paramétriques par noyaux récursifs ainsi qu'à leurs applications à la prévision. Nous introduisons dans un premier chapitre une famille d'estimateurs récursifs de la densité indexée par un paramètre ℓ ∈ [0, 1]. Leur comportement asymptotique en fonction de ℓ va nous amener à introduire des critères de comparaison basés sur les biais, variance et erreur quadratique asymptotiques. Pour ces critères, nous comparons les estimateurs entre eux et aussi comparons notre famille à l'estimateur non récursif de la densité de Parzen-Rosenblatt. Ensuite, nous définissons à partir de notre famille d'estimateurs de la densité, une famille d'estimateurs récursifs à noyau de la fonction de régression. Nous étudions ses propriétés asymptotiques en fonction du paramètre ℓ. Nous utilisons enfin les résultats obtenus sur l'estimation de la régression pour construire un prédicteur non paramétrique par noyau. Nous obtenons ainsi une famille de prédicteurs non paramétriques qui permettent de réduire considérablement le temps de calcul. Des exemples d'application sont donnés pour valider la performance de nos estimateurs
10

Robust Segmentation of Focal Lesions on Multi-Sequence MRI in Multiple Sclerosis

García-Lorenzo, Daniel 04 March 2010 (has links) (PDF)
La sclérose en plaques (SEP) atteint autour de 80.000 personnes en France. L'imagerie par résonance magnétique (IRM) est un outil essentiel pour le diagnostic de la SEP. Plusieurs bio-marqueurs sont obtenus à partir des IRM, comme le volume des lésions, et sont utilisés comme mesure dans des études cliniques en SEP, notamment pour le développement des nouveaux traitements. La segmentation manuelle des lésions est une tâche encombrante et dont les variabilités intra- et inter-expert sont grandes. Nous avons développé une chaîne de traitement automatique pour la segmentation des lesions focales en SEP. La méthode de segmentation est basée sur l'estimation robuste d'un modèle paramétrique des intensités du cerveau qui permet de détecter les lésions comme des données aberrantes. Nous avons aussi proposé deux méthodes pour ajouter de l'information spatiale avec les algorithmes mean shift et graph cut. Nous avons validé quantitativement notre approche en utilisant des images synthétiques et cliniques, provenant de deux centres différents pour évaluer la précision et la robustesse.

Page generated in 0.0507 seconds