• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 18
  • 1
  • Tagged with
  • 119
  • 78
  • 24
  • 21
  • 20
  • 20
  • 18
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Intelligence artificielle et droit d’auteur : le dilemme canadien

Jonnaert, Caroline 03 1900 (has links)
En 2016, un « nouveau Rembrandt » a été créé par intelligence artificielle dans le cadre du projet The Next Rembrandt. Grâce à la méthode d’apprentissage profond, un ordinateur a en effet permis la réalisation d’un tableau qui, selon les experts, aurait pu être créé par le maître hollandais. Ainsi, une création artistique a été conçue avec un programme d’intelligence artificielle, « en collaboration » avec des humains. Depuis, de nouvelles créations algorithmiques ont vu le jour, en minimisant chaque fois davantage l’empreinte créatrice humaine. Mais comment le droit d’auteur canadien encadre-t-il ou, le cas échéant, pourrait-il encadrer ce type de créations ? Voici la question générale à laquelle notre projet de recherche souhaite répondre. En dépit des récentes avancées technologiques et d’un certain abus de langage, l’intelligence artificielle n’est pas (encore) entièrement autonome (Chapitre liminaire). Il en résulte qu’un humain crée les dessous de l’œuvre, c’est-à-dire les règles dans le cadre duquel les créations sont produites. À l’heure actuelle, les créations « artificielles » sont donc issues d’un processus où l’algorithme agit comme simple outil. Partant, les principes classiques de droit d’auteur doivent s’appliquer à ces créations assistées par intelligence artificielle (Chapitre premier). En l’espèce, les critères d’originalité et d’autorat constituent les principaux obstacles à la protection de (certaines) créations algorithmiques. En outre, le processus collaboratif de création ne permet pas d’identifier systématiquement des co-auteurs faisant preuve « de talent et de jugement » (Chapitre deux). Dans ce contexte singulier, des juristes étrangers ont proposé des « solutions », afin de protéger les créations produites « artificiellement » par leurs régimes de droit d’auteur respectifs (Chapitre trois). La réception des propositions étrangères en sol canadien n’est toutefois pas souhaitable, car elle risque de fragiliser la cohérence interne de la Loi, ainsi que les fondements du régime. Dès lors, ces solutions ne permettent pas de résoudre la « problématique » des créations algorithmiques. Quelle devrait donc être la réponse canadienne ? Il s’agit de la question à laquelle nous répondons au Chapitre quatre. Afin de respecter l’intégrité du régime de droit d’auteur canadien, nous concluons que seules les créations répondant aux critères de la législation canadienne sur le droit d’auteur doivent être protégées. Les productions ne parvenant pas à respecter l’une ou l’autre des conditions de protection tomberaient, pour leur part, dans le domaine public. En dépit de ce constat, nous croyons que la constitution d’un régime sui generis, propre aux créations algorithmiques, pourrait être appropriée. Il appartiendra cependant au gouvernement canadien de décider si l’édification d’un tel régime est pertinente. Pour ce faire, il sera nécessaire d’obtenir des données probantes de la part des différentes parties prenantes. Il s’agit-là du dilemme auquel le Canada fait face. / In 2016, a « new Rembrandt » was created with artificial intelligence as part of The Next Rembrandt project. Thanks to the deep learning method, a computer has indeed made it possible to make a painting that, according to experts, could have been created by the Dutch Master. Thus, an artistic creation was designed with an artificial intelligence program, « in collaboration » with humans. Since then, new algorithmic creations have emerged, each time further minimizing the human creative footprint. But how does or could the Canadian copyright regime protect this type of creation ? This is the general question that our research project wishes to answer. Despite recent technological advances and a certain abuse of language, artificial intelligence is not (yet) autonomous (Preliminary Chapter). As a result, a human creates the underside of the work, that is, the rules within which the creations are produced. At present, « artificial » creations are therefore the result of a process where the algorithm acts as a simple tool. Therefore, the classical principles of copyright should apply to such creations produced with computer assistance (Chapter One). In the present case, the conditions of originality and authorship constitute the main obstacles to the protection of (certain) algorithmic creations. In addition, the collaborative creative process does not systematically allow the identification of coauthors (Chapter Two). In this singular context, foreign authors have proposed solutions to protect these creations by their respective copyright regimes (Chapter Three). However, the adoption of these proposals in Canada is not desirable, as it may weaken the internal scheme of the Canadian copyright regime, as well as its foundations. As such, these solutions do not solve the « problem » of algorithmic 5 creations. What should be the Canadian response ? This is the question we answer in Chapter Four. In order to protect the integrity of the Canadian copyright regime, we conclude that only creations that meet the criteria of the Copyright Act should be protected. Productions that fail to comply with any of these conditions should fall into the public domain. Despite this observation, we believe that the constitution of a sui generis regime specific to algorithmic creations could be appropriate. Yet, it will be up to the Canadian government to decide whether the creation of such a regime is pertinent. This will require gathering evidence from different stakeholders. This is the dilemma that Canada is facing.
102

Photon elastic scattering background events in the SuperCDMS SNOLAB experiment

Hassan, Noah 10 1900 (has links)
Alors que la nouvelle génération de détecteurs directs de matière sombre est en cours de construction, dans l’espoir de trouver de la matière sombre avec une masse inférieure au GeV, il est important de comprendre comment le rayonnement naturel peut produire un fond d’interactions à faible énergie. Cette thèse s’intéressera à la simulation de la diffusion élastique des rayons γ, une source possible de fonds pour les détecteurs de matière sombre sub-GeV. La simulation utilise le logiciel SuperSim basé sur Geant4 afin de modéliser l’expérience SuperCDMS SNOLAB. Une version modifiée du G4JAEAElasticScatteringModel appelée CDMSJAEAElasticScatteringModel a été mise en oeuvre dans SuperSim afin de simuler les mécanismes de diffusion de photon élastiques Rayleigh, nucléaire Thomson et Delbrück. Le CDMSJAEAElasticScatteringModel ajoute la possibilité pour les particules γ de déposer de l’énergie après avoir été diffusées élastiquement. La validité de ces deux modèles a été vérifiée et des erreurs dans le logicielle ont été rencontrées dans leur traitement des distributions d’angle de diffusion des photons qui déterminent les spectres d’énergie déposée. Les sections efficaces totales sont en accord avec la documentation et d’autres sources. Malgré les erreurs logicielles, la simulation définit une limite inférieure sur le taux de diffusion élastique des rayons γ de ∼ 0,01 et ∼ 0,035 photon diffusé élastiquement par kg par an pour les détecteurs SuperCDMS SNOLAB au germanium et au silicium, respectivement. Ces limites inférieures sont définies à l’aide d’une coupure d’énergie de recul de 1 eV. Cela fait de la diffusion élastique des rayons γ une source importante de bruit de fond pour détecteurs SuperCDMS proposés avec des capacités de discrimination ER/NR à des énergies de recul à l’échelle eV. / While the new generation of direct dark matter detectors are being built in the hopes of finding sub-GeV dark matter, it is important to understand how natural radiation can produce a background of low-energy interactions. This thesis will analyze simulating γ-ray elastic scattering, a possible source of background for sub-GeV dark matter detectors. The simulation uses Geant4-based SuperSim software in order to model the SuperCDMS SNOLAB experiment. A modified version of the G4JAEAElasticScatteringModel called CDMSJAEAElasticScatteringModel was implemented into SuperSim in order to simulate the Rayleigh, nuclear Thomson and Delbrück γ-ray elastic scattering mechanisms. The CDMSJAEAElasticScatteringModel adds the ability for the γ particles to deposit energy after being elastically scattered. The validity of both these models was checked, and errors were encountered in their treatment of photon scattering angle distributions which determine the deposited energy spectra. The total cross sections are consistent with the documentation and other sources. Despite the bug, the simulation does set a lower bound on the γ-ray elastic scattering rate of ∼ 0.01 and ∼ 0.035 elastically scattered photon per kg per year for germanium and silicon SuperCDMS SNOLAB detectors, respectively. These lower bounds are set using a 1 eV recoil energy cutoff. In conclusion, γ-ray elastic scattering a significant source of background for proposed SuperCDMS detectors with ER/NR discrimination capabilities at eV-scale recoil energies.
103

Apprentissage machine efficace : théorie et pratique

Delalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them. We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
104

Contributions à l’apprentissage automatique pour l’analyse d’images cérébrales anatomiques / Contributions to statistical learning for structural neuroimaging data

Cuingnet, Rémi 29 March 2011 (has links)
L'analyse automatique de différences anatomiques en neuroimagerie a de nombreuses applications pour la compréhension et l'aide au diagnostic de pathologies neurologiques. Récemment, il y a eu un intérêt croissant pour les méthodes de classification telles que les machines à vecteurs supports pour dépasser les limites des méthodes univariées traditionnelles. Cette thèse a pour thème l'apprentissage automatique pour l'analyse de populations et la classification de patients en neuroimagerie. Nous avons tout d'abord comparé les performances de différentes stratégies de classification, dans le cadre de la maladie d'Alzheimer à partir d'images IRM anatomiques de 509 sujets de la base de données ADNI. Ces différentes stratégies prennent insuffisamment en compte la distribution spatiale des \textit{features}. C'est pourquoi nous proposons un cadre original de régularisation spatiale et anatomique des machines à vecteurs supports pour des données de neuroimagerie volumiques ou surfaciques, dans le formalisme de la régularisation laplacienne. Cette méthode a été appliquée à deux problématiques cliniques: la maladie d'Alzheimer et les accidents vasculaires cérébraux. L'évaluation montre que la méthode permet d'obtenir des résultats cohérents anatomiquement et donc plus facilement interprétables, tout en maintenant des taux de classification élevés. / Brain image analyses have widely relied on univariate voxel-wise methods. In such analyses, brain images are first spatially registered to a common stereotaxic space, and then mass univariate statistical tests are performed in each voxel to detect significant group differences. However, the sensitivity of theses approaches is limited when the differences involve a combination of different brain structures. Recently, there has been a growing interest in support vector machines methods to overcome the limits of these analyses.This thesis focuses on machine learning methods for population analysis and patient classification in neuroimaging. We first evaluated the performances of different classification strategies for the identification of patients with Alzheimer's disease based on T1-weighted MRI of 509 subjects from the ADNI database. However, these methods do not take full advantage of the spatial distribution of the features. As a consequence, the optimal margin hyperplane is often scattered and lacks spatial coherence, making its anatomical interpretation difficult. Therefore, we introduced a framework to spatially regularize support vector machines for brain image analysis based on Laplacian regularization operators. The proposed framework was then applied to the analysis of stroke and of Alzheimer's disease. The results demonstrated that the proposed classifier generates less-noisy and consequently more interpretable feature maps with no loss of classification performance.
105

Apprentissage machine efficace : théorie et pratique

Delalleau, Olivier 03 1900 (has links)
Malgré des progrès constants en termes de capacité de calcul, mémoire et quantité de données disponibles, les algorithmes d'apprentissage machine doivent se montrer efficaces dans l'utilisation de ces ressources. La minimisation des coûts est évidemment un facteur important, mais une autre motivation est la recherche de mécanismes d'apprentissage capables de reproduire le comportement d'êtres intelligents. Cette thèse aborde le problème de l'efficacité à travers plusieurs articles traitant d'algorithmes d'apprentissage variés : ce problème est vu non seulement du point de vue de l'efficacité computationnelle (temps de calcul et mémoire utilisés), mais aussi de celui de l'efficacité statistique (nombre d'exemples requis pour accomplir une tâche donnée). Une première contribution apportée par cette thèse est la mise en lumière d'inefficacités statistiques dans des algorithmes existants. Nous montrons ainsi que les arbres de décision généralisent mal pour certains types de tâches (chapitre 3), de même que les algorithmes classiques d'apprentissage semi-supervisé à base de graphe (chapitre 5), chacun étant affecté par une forme particulière de la malédiction de la dimensionalité. Pour une certaine classe de réseaux de neurones, appelés réseaux sommes-produits, nous montrons qu'il peut être exponentiellement moins efficace de représenter certaines fonctions par des réseaux à une seule couche cachée, comparé à des réseaux profonds (chapitre 4). Nos analyses permettent de mieux comprendre certains problèmes intrinsèques liés à ces algorithmes, et d'orienter la recherche dans des directions qui pourraient permettre de les résoudre. Nous identifions également des inefficacités computationnelles dans les algorithmes d'apprentissage semi-supervisé à base de graphe (chapitre 5), et dans l'apprentissage de mélanges de Gaussiennes en présence de valeurs manquantes (chapitre 6). Dans les deux cas, nous proposons de nouveaux algorithmes capables de traiter des ensembles de données significativement plus grands. Les deux derniers chapitres traitent de l'efficacité computationnelle sous un angle différent. Dans le chapitre 7, nous analysons de manière théorique un algorithme existant pour l'apprentissage efficace dans les machines de Boltzmann restreintes (la divergence contrastive), afin de mieux comprendre les raisons qui expliquent le succès de cet algorithme. Finalement, dans le chapitre 8 nous présentons une application de l'apprentissage machine dans le domaine des jeux vidéo, pour laquelle le problème de l'efficacité computationnelle est relié à des considérations d'ingénierie logicielle et matérielle, souvent ignorées en recherche mais ô combien importantes en pratique. / Despite constant progress in terms of available computational power, memory and amount of data, machine learning algorithms need to be efficient in how they use them. Although minimizing cost is an obvious major concern, another motivation is to attempt to design algorithms that can learn as efficiently as intelligent species. This thesis tackles the problem of efficient learning through various papers dealing with a wide range of machine learning algorithms: this topic is seen both from the point of view of computational efficiency (processing power and memory required by the algorithms) and of statistical efficiency (n umber of samples necessary to solve a given learning task).The first contribution of this thesis is in shedding light on various statistical inefficiencies in existing algorithms. Indeed, we show that decision trees do not generalize well on tasks with some particular properties (chapter 3), and that a similar flaw affects typical graph-based semi-supervised learning algorithms (chapter 5). This flaw is a form of curse of dimensionality that is specific to each of these algorithms. For a subclass of neural networks, called sum-product networks, we prove that using networks with a single hidden layer can be exponentially less efficient than when using deep networks (chapter 4). Our analyses help better understand some inherent flaws found in these algorithms, and steer research towards approaches that may potentially overcome them. We also exhibit computational inefficiencies in popular graph-based semi-supervised learning algorithms (chapter 5) as well as in the learning of mixtures of Gaussians with missing data (chapter 6). In both cases we propose new algorithms that make it possible to scale to much larger datasets. The last two chapters also deal with computational efficiency, but in different ways. Chapter 7 presents a new view on the contrastive divergence algorithm (which has been used for efficient training of restricted Boltzmann machines). It provides additional insight on the reasons why this algorithm has been so successful. Finally, in chapter 8 we describe an application of machine learning to video games, where computational efficiency is tied to software and hardware engineering constraints which, although often ignored in research papers, are ubiquitous in practice.
106

Comparaison de réseaux biologiques

Mohamed Babou, Hafedh 06 November 2012 (has links) (PDF)
La comparaison de réseaux biologiques est actuellement l'une des approches les plus prometteuses pour aider à la compréhension du fonctionnement des organismes vivants. Elle apparaît comme la suite attendue de la comparaison de séquences biologiques dont l'étude ne représente en réalité que l'aspect génomique des informations manipulées par les biologistes. Dans cette thèse, nous proposons une approche innovante permettant de comparer deux réseaux biologiques modélisés respectivement par un graphe orienté D et un graphe non-orienté G, et dotés d'une fonction f établissant la correspondance entre les sommets des deux graphes. L'approche consiste à extraire automatiquement une structure dans D, biologiquement significative, dont les sommets induisent dans G, par f, une structure qui soit aussi biologiquement significative. Nous réalisons une étude algorithmique du problème issu de notre approche en commençant par sa version dans laquelle D est acyclique (DAG). Nous proposons des algorithmes polynomiaux pour certains cas, et nous montrons que d'autres cas sont algorithmiquement difficiles (NP-complets). Pour résoudre les instances difficiles, nous proposons une bonne heuristique et un algorithme exact basé sur la méthode branch-and-bound. Pour traiter le cas où D est cyclique, nous introduisons une méthode motivée par des hypothèses biologiques et consistant à décomposer D en DAGs tels que les sommets de chaque DAG induisent dans G un sous-graphe connexe. Nous étudions également dans cette thèse, l'inférence des voies de signalisation en combinant les informations sur les causes et sur les effets des événements extra-cellulaires. Nous modélisons ce problème par un problème d'orientation de graphes mixtes et nous effectuons une étude de complexité permettant d'identifier les instances faciles et celles difficiles.
107

De la substance à la forme : rôle des contraintes motrices orofaciales et brachiomanuelles de la parole dans l'émergence du langage

Rochet-Capellan, Amélie 23 October 2007 (has links) (PDF)
Et si les propriétés sensori-motrices de la parole modelaient le langage ? Cette hypothèse a propulsé le langage dans le monde de la complexité et de la cognition en-corporée. Nous introduisons ici différents types d'arguments montrant le rôle de la motricité de la parole dans la genèse du langage. Motricité orofaciale, d'abord, avec l'idée que les propriétés de la coordination inter-articulateurs contraindraient la morphogenèse du langage. Motricité orofaciale et brachiomanuelle, ensuite, avec l'hypothèse que le langage émergerait de la coordination main-bouche portant l'acte de pointage par la voix et par la main. Dans ce cadre, nos expériences analysent les mouvements enregistrés chez des locuteurs du français dans différentes tâches afin d'établir les propriétés des coordinations mâchoire-langue-lèvres dans la parole, puis mâchoire-main dans le pointage. Ces recherches s'intègrent au cadre de recherche global et récent proposant d'étudier le langage comme un système-complexe.
108

Dynamical study of diatomics: applications to astrochemistry, quantum control and quantum computing / Etude dynamique de molécules diatomiques: applications en astrochimie, en contrôle quantique et en quantum computing

Vranckx, Stéphane 20 August 2014 (has links)
In this work, we theoretically study the properties of diatomic molecular systems, their dynamics, and the control thereof through the use of laser fields. We more specifically study three compounds:<p>1) HeH+, a species of great astrochemical importance which is thought to be the first molecular species to have formed in the universe;<p>2) CO2+, a metastable dication of particular interest in quantum control experiments due to its long-lived lowest vibrational level;<p>3) 41K87Rb, a polar molecule that can be formed at very low temperature and trapped, making it a good candidate for quantum computing schemes.<p>First, we use ab initio methods to compute accurate potential energy curves for the lowest singlet and triplet states of HeH+ as well as the potential energy curves, transition dipole moments and nonadiabatic radial couplings of the ground 3Π state of CO2+ and of its 11 lowest 3Σ- states.<p>In a second step, we use this ab initio data to compute the photodissociation and radiative association cross sections for the a and b 3Σ+ states of HeH+, as well as the values of the corresponding rate constants for astrophysical environments. The photodissociation cross sections from the lowest vibrational level of CO2+ is also determined.<p>Going one step further, we optimize laser control fields that drive the photodissociation dynamics of HeH+ and CO2+ towards specific channels. We compare two field optimization methods: a Møller operator-based Local Control approach and Optimal Control Theory. In both cases, we add a constraint that minimizes the area of the optimized fields.<p>Finally, we focus on one of the potential applications of high-fidelity laser control: the use of small molecular systems as quantum computers. We more specifically study the potential implementation of both intra- and intermolecular logic gates on data encoded in hyperfine states of trapped ultracold polar 41K87Rb molecules, opening interesting perspectives in terms of extensibility.<p>/<p>Dans cette thèse, nous étudions théoriquement les propriétés de molécules diatomiques, leur dynamique de réaction ainsi que le contrôle de cette dynamique à l'aide de champs laser. Notre travail porte plus spécifiquement sur trois espèces :<p>1) HeH+, un composé-clé en astrochimie considéré comme la première espèce moléculaire qui s'est formée dans l'univers ;<p>2) CO2+, un dication métastable qui se prête bien à des expériences de contrôle quantique en raison du relativement long temps de vie de son état vibrationnel le plus bas ;<p>3) 41K87Rb, une molécule polaire qui présente la particularité de pouvoir être formée à très basse température et piégée, ce qui en fait un bon support physique potentiel pour la réalisation d'un ordinateur quantique moléculaire. <p>Nous utilisons tout d'abord des méthodes de calcul ab initio afin d'obtenir les courbes d'énergie potentielle des premiers états singulets et triplets de HeH+ avec un haut de degré de précision, ainsi que les courbes d'énergie potentielle, les moments dipolaires de transition et les couplages non-adiabatiques radiaux de l'état fondamental 3Π de CO2+ et de ses 11 premiers états 3Σ-.<p>Ensuite, nous utilisons ces données ab initio pour calculer les sections efficaces de photodissociation et d'association radiative des états a et b 3Σ+ de HeH+, ainsi que les constantes cinétiques associées à ces processus dans les conditions rencontrées dans des environnements astrophysiques. Les sections efficaces de photodissociation du niveau vibrationnel le plus bas de CO2+ sont également calculées. <p>Nous allons ensuite un cran plus loin en optimisant des champs laser qui guident la dynamique de photodissociation de HeH+ et CO2+ vers des canaux de dissociation spécifiques. Nous comparons deux méthodes d'optimisation de ces champs: une approche de contrôle local basée sur les opérateurs de Møller et la théorie du contrôle optimal. Dans le deux cas, nous incluons une contrainte qui minimise l'aire des champs. <p>Enfin, nous nous concentrons sur l'une des applications possibles du contrôle laser à haute fidélité :l'utilisation de petits systèmes moléculaires comme ordinateurs quantiques. Nous étudions plus spécifiquement l'implémentation possible d'opérations logiques intra- et intermoléculaires sur des données encodées dans des états hyperfins de molécules de 41K87Rb piégées, ce qui ouvre des perspectives intéressantes en terme d'extensibilité. / Doctorat en Sciences / info:eu-repo/semantics/nonPublished
109

A model for inductive plasma wind tunnels

Magin, Thierry 10 June 2004 (has links)
A numerical model for inductive plasma wind tunnels is developed. This model provides the flow conditions at the edge of a boundary layer in front of a thermal protection material placed in the plasma jet stream at the outlet of an inductive torch. The governing equations for the hydrodynamic field are derided from the kinetic theory. The electromagnetic field is deduced from the Maxwell equations. The transport properties of partially ionized and unmagnetized plasma in weak thermal nonequilibrium are derived from the Boltzmann equation. A kinetic data base of transport collision integrals is given for the Martian atmosphere. Multicomponent transport algorithms based upon Krylov subspaces are compared to mixture rules in terms of accuracy and computational cost. The composition and thermodynamic properties in local thermodynamic<p>equilibrium are computed from the semi-classical statistical mechanics.<p>The electromagnetic and hydrodynamic fields of an inductive wind tunnel is presented. A total pressure measurement technique is thoroughly investigated by means of numerical simulations.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
110

Alice au pays des monnaies : ou la course sans fin vers de nouveaux moyens de paiement / Alice in payment land : or the endless race towards new payment media

Deungoue Megogoue, Sandra 18 January 2010 (has links)
L’objet de cette thèse est d’analyser l’évolution du marché des paiements de détail avec en toile de fond la constitution d’un espace unique pour les paiements en Europe. Notre analyse révèle notamment que ce marché évolue selon la théorie de la Reine Rouge ; en effet, sous le poids de la concurrence, les prestataires de service ne cessent de créer des moyens de paiement de plus en plus innovants afin de maintenir leur part de marché. Paradoxalement, la demande, elle, évolue plus lentement, essentiellement à cause des habitudes difficiles à changer. Pour la dynamiser, régulateur et industrie bancaire ont mis en œuvre de nombreux moyens. Notre étude révèle ainsi que bien que les facteurs sociodémographiques, technologiques et économiques déterminant les comportements de paiement varient et n’ont pas le même impact d’un pays à un autre, certains Etats présentent néanmoins suffisamment d’homogénéité pour appartenir à une même zone de paiement optimale. En outre, nous démontrons que l’harmonisation des pratiques bancaires et des réglementations mise en place pour la réalisation du marché unique a conduit à une convergence des comportements de paiement en Europe. Par ailleurs, en analysant le cas particulier des paiements par carte, nous développons un modèle multi-agents permettant de mettre en évidence l’importance des pratiques tarifaires telles que la commission d’interchange ou la règle de non-discrimination sur la concurrence entre instruments, intermédiaires et systèmes de paiement. L’expérimentation artificielle de ce modèle dévoile les conditions nécessaires à l’efficacité de la réglementation de ces pratiques par l’Etat. / The purpose of present thesis is to study the evolution of the retail payment market. This work is set against a backdrop of the creation of a single payment area in Europe. Our analysis reveals that this market is subject to the Red Queen dilemma; indeed, because of intense competition, payment service providers are forced to a constant evolution of technology in order to maintain their market share. Paradoxically, the demand for payment instruments tends to move slowly, basically because habits are difficult to change. To improve the dynamism of the demand response to innovation, regulator and banking industry have implemented new policies and procedures that encourage the development of trans-border payments. Thereby, although the sociodemographic, technological and economic factors which influence payment behaviours vary and don't have the same impact from one country to another, we find some remarkable homogeneity across countries that are eligible to form an optimal payment area. Besides, we show that the harmonization of the banking laws and products led to a convergence of the payment behaviours in Europe. In addition, by analyzing the case of the payment card industry, we develop an agent-based model which highlights the effects of the tariff practices such as the interchange fee or the no-surcharge rule, on competition within and between payment systems. The computational simulation of this model reveals necessary conditions to achieve the desired result of the regulation of these practices.

Page generated in 0.114 seconds