• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 49
  • 49
  • 18
  • 1
  • Tagged with
  • 119
  • 78
  • 24
  • 21
  • 20
  • 20
  • 18
  • 15
  • 15
  • 15
  • 15
  • 14
  • 14
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Systèmes neuromorphiques temps réel : contribution à l’intégration de réseaux de neurones biologiquement réalistes avec fonctions de plasticité

Belhadj-Mohamed, Bilel 22 July 2010 (has links)
Cette thèse s’intègre dans le cadre du projet Européen FACETS. Pour ce projet, des systèmes matériels mixtes analogique-numérique effectuant des simulations en temps réel des réseaux de neurones doivent être développés. Le but est d’aider à la compréhension des phénomènes d’apprentissage dans le néocortex. Des circuits intégrés spécifiques analogiques ont préalablement été conçus par l’équipe pour simuler le comportement de plusieurs types de neurones selon le formalisme de Hodgkin-Huxley. La contribution de cette thèse consiste à la conception et la réalisation des circuits numériques permettant de gérer la connectivité entre les cellules au sein du réseau de neurones, suivant les règles de plasticité configurées par l’utilisateur. L’implantation de ces règles est réalisée sur des circuits numériques programmables (FPGA) et est optimisée pour assurer un fonctionnement temps réel pour des réseaux de grande taille. Des nouvelles méthodes de calculs et de communication ont été développées pour satisfaire les contraintes temporelles et spatiales imposées par le degré de réalisme souhaité. Entre autres, un protocole de communication basé sur la technique anneau à jeton a été conçu pour assurer le dialogue entre plusieurs FPGAs situés dans un système multicarte tout en garantissant l’aspect temps-réel des simulations. Les systèmes ainsi développés seront exploités par les laboratoires partenaires, neurobiologistes ou informaticiens. / This work has been supported by the European FACETS project. Within this project, we contribute in developing hardware mixed-signal devices for real-time spiking neural network simulation. These devices may potentially contribute to an improved understanding of learning phenomena in the neo-cortex. Neuron behaviours are reproduced using analog integrated circuits which implement Hodgkin-Huxley based models. In this work, we propose a digital architecture aiming to connect many neuron circuits together, forming a network. The inter-neuron connections are reconfigurable and can be ruled by a plasticity model. The architecture is mapped onto a commercial programmable circuit (FPGA). Many methods are developed to optimize the utilisation of hardware resources as well as to meet real-time constraints. In particular, a token-passing communication protocol has been designed and developed to guarantee real-time aspects of the dialogue between several FPGAs in a multiboard system allowing the integration of a large number of neurons. The global system is able to run neural simulations in biological real-time with high degree of realism, and then can be used by neurobiologists and computer scientists to carry on neural experiments.
72

Modélisation et prédiction de la dynamique moléculaire de la maladie de Huntington par la théorie des graphes au travers des modèles et des espèces, et priorisation de cibles thérapeutiques / Huntington's disease, gene network, transcriptomics analysis, computational biology, spectral graph theory, neurodegenerative mechanisms

Parmentier, Frédéric 17 September 2015 (has links)
La maladie de Huntington est une maladie neurodégénérative héréditaire qui est devenue un modèle d'étude pour comprendre la physiopathologie des maladies du cerveau associées à la production de protéines mal conformées et à la neurodégénérescence. Bien que plusieurs mécanismes aient été mis en avant pour cette maladie, dont plusieurs seraient aussi impliqués dans des pathologies plus fréquentes comme la maladie d’Alzheimer ou la maladie de Parkinson, nous ne savons toujours pas quels sont les mécanismes ou les profils moléculaires qui déterminent fondamentalement la dynamique des processus de dysfonction et de dégénérescence neuronale dans cette maladie. De même, nous ne savons toujours pas comment le cerveau peut résister aussi longtemps à la production de protéines mal conformées, ce qui suggère en fait que ces protéines ne présentent qu’une toxicité modérée ou que le cerveau dispose d'une capacité de compensation et de résilience considérable. L'hypothèse de mon travail de thèse est que l'intégration de données génomiques et transcriptomiques au travers des modèles qui récapitulent différentes phases biologiques de la maladie de Huntington peut permettre de répondre à ces questions. Dans cette optique, l'utilisation des réseaux de gènes et la mise en application de concepts issus de la théorie des graphes sont particulièrement bien adaptés à l'intégration de données hétérogènes, au travers des modèles et au travers des espèces. Les résultats de mon travail suggèrent que l'altération précoce (avant les symptômes, avant la mort cellulaire) et éventuellement dès le développement cérébral) des grandes voies de développement et de maintenance neuronale, puis la persistance voire l'aggravation de ces effets, sont à la base des processus physiopathologiques qui conduisent à la dysfonction puis à la mort neuronale. Ces résultats permettent aussi de prioriser des gènes et de générer des hypothèses fortes sur les cibles thérapeutiques les plus intéressantes à étudier d'un point de vue expérimental. En conclusion, mes recherches ont un impact à la fois fondamental et translationnel sur l'étude de la maladie de Huntington, permettant de dégager des méthodes d'analyse et des hypothèses qui pourraient avoir valeur thérapeutique pour les maladies neurodégénératives en général. / Huntington’s disease is a hereditary neurodegenerative disease that has become a model to understand physiopathological mechanisms associated to misfolded proteins that ocurs in brain diseases. Despite exciting findings that have uncover pathological mechanisms occurring in this disease and that might also be relevant to Alzheimer’s disease and Parkinson’s disease, we still do not know yet which are the mechanisms and molecular profiles that rule the dynamic of neurodegenerative processes in Huntington’s disease. Also, we do not understand clearly how the brain resist over such a long time to misfolded proteins, which suggest that the toxicity of these proteins is mild, and that the brain have exceptional compensation capacities. My work is based on the hypothesis that integration of ‘omics’ data from models that depicts various stages of the disease might be able to give us clues to answer these questions. Within this framework, the use of network biology and graph theory concepts seems particularly well suited to help us integrate heterogeneous data across models and species. So far, the outcome of my work suggest that early, pre-symptomatic alterations of signaling pathways and cellular maintenance processes, and persistency and worthening of these phenomenon are at the basis of physiopathological processes that lead to neuronal dysfunction and death. These results might allow to prioritize targets and formulate new hypotheses that are interesting to further study and test experimentally. To conclude, this work shall have a fundamental and translational impact to the field of Huntington’s disease, by pinpointing methods and hypotheses that could be valuable in a therapeutic perspective.
73

Lanthanide-based SMMs : from molecular properties to surface grafting exploiting multi-level ab initio techniques / Molécules aimants à base de lanthanides : des propriétes moléculaires au greffage en surface, en utilisant des méthodes ab initio multi-niveaux

Fernandez Garcia, Guglielmo 20 December 2017 (has links)
Cette thèse de doctorat a été réalisée en cotutelle entre les Universités de Rennes 1 en France et de Florence en Italie. L’objectif de ce travail est tout d’abord de rationaliser les propriétés inter- et intramoléculaires de molécules-aimants (Single Molecule Magnet – SMM) à base d’ions lanthanides (“partie moléculaire”) et puis leur évolution une fois absorbé sur surface (''partie sur surface''). Ces deux aspects ont été examinés dans un cadre théorique et computationnel, en utilisant différentes techniques multi-niveaux, de periodic Density Functional Theory (pDFT) en utilisant une approche post-Hartree-Fock, en fonction de la variable expérimentale d’intérêt. Les molécules-aimants sont d'un intérêt particulier pour le design de nouveaux matériaux magnétiques dans la science des surfaces (comme la spintronique), mais elles permettent également une connaissance des propriétés électroniques et magnétiques approfondie est également nécessaire. / The Ph.D. project was a joint agreement between two universities: Université de Rennes 1 in France and Università di Firenze in Italy. The project aimed to shed light on the rationalization of the inter- and intramolecular properties of novel lanthanide-based Single Molecule Magnets, SMMs, (“molecular part”) and their evolution once adsorbed on surface (“surface part”). Both aspects are examined within a theoretical and computational framework, with different multi-level techniques ranging from periodic Density Functional Theory (pDFT) to post-Hartree-Focks approaches, depending on the experimental observable of interest. SMMs are, indeed, at the cutting-edge in the design of novel magnetic materials in surface science (as spintronics or memory storage devices), but for their exploitation a deep understanding of their electronic and magnetic properties is needed.
74

Modélisation multi-échelles de réseaux biologiques pour l’ingénierie métabolique d'un châssis biotechnologique / Multi-scales modeling of biological networks for the metabolic engineering of a biotechnological chassis

Trebulle, Pauline 10 October 2019 (has links)
Le métabolisme définit l’ensemble des réactions biochimiques au sein d’un organisme, lui permettant de survivre et de s’adapter dans différents environnements. La régulation de ces réactions requiert un processus complexe impliquant de nombreux effecteurs interagissant ensemble à différentes échelles.Développer des modèles de ces réseaux de régulation est ainsi une étape indispensable pour mieux comprendre les mécanismes précis régissant les systèmes vivants et permettre, à terme, la conception de systèmes synthétiques, autorégulés et adaptatifs, à l'échelle du génome. Dans le cadre de ces travaux interdisciplinaires, nous proposons d’utiliser une approche itérative d’inférence de réseau et d’interrogation afin de guider l’ingénierie du métabolisme de la levure d’intérêt industriel Yarrowia lipolytica.À partir de données transcriptomiques, le premier réseau de régulation de l’adaptation à la limitation en azote et de la production de lipides a été inféré pour cette levure. L’interrogation de ce réseau a ensuite permis de mettre en avant et valider expérimentalement l’impact de régulateurs sur l'accumulation lipidique.Afin d’explorer davantage les liens entre régulation et métabolisme, une nouvelle méthode, CoRegFlux, a été proposée pour la prédiction de phénotype métabolique à partir des profils d’activités des régulateurs dans les conditions étudiées.Ce package R, disponible sur la plateforme Bioconductor, a ensuite été utilisé pour mieux comprendre l’adaptation à la limitation en azote et identifier des phénotypes d’intérêts en vue de l’ingénierie de cette levure, notamment pour la production de lipides et de violacéine.Ainsi, par une approche itérative, ces travaux apportent de nouvelles connaissances sur les interactions entre la régulation et le métabolisme chez Y. lipolytica, l’identification de motifs de régulation chez cette levure et contribue au développement de méthodes intégratives pour la conception de souches assistée par ordinateur. / Metabolism defines the set of biochemical reactions within an organism, allowing it to survive and adapt to different environments. Regulating these reactions requires complex processes involving many effectors interacting together at different scales.Developing models of these regulatory networks is therefore an essential step in better understanding the precise mechanisms governing living systems and ultimately enabling the design of synthetic, self-regulating and adaptive systems at the genome level. As part of this interdisciplinary work, we propose to use an iterative network inference and interrogation approach to guide the engineering of the metabolism of the yeast of industrial interest Yarrowia lipolytica.Based on transcriptomic data, the first network for the regulation of adaptation to nitrogen limitation and lipid production in this yeast was inferred.The interrogation of this network has then allowed to to highlight and experimentally validate the impact of several regulators on lipid accumulation. In order to further explore the relationships between regulation and metabolism, a new method, CoRegFlux, has been proposed for the prediction of metabolic phenotype based on the influence profiles of regulators in the studied conditions. This R package, available on the Bioconductor platform, was then used to better understand adaptation to nitrogen limitation and to identify phenotypes of interest for strain engineering, particularly for the production of lipids and amino acid derivatives such as violacein.Thus, through an iterative approach, this work provides new insights into the interactions between regulation and metabolism in Y. lipolytica, conserved regulatory module in this yeast and contributes to the development of innovative integrative methods for computer-assisted strain design.
75

Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives

Martel, Yannick 11 1900 (has links)
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori. / The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
76

Evaluation of the performance of photocatalytic systems for the treatment of indoor air in medical environments / Evaluation de la performance des systèmes photocatalytiques pour le traitement de l'air intérieur en milieu médical

Whyte, Henrietta Essie 07 December 2018 (has links)
La photocatalyse est une technologie d’oxydation avancée qui peut être utilisée pour améliorer la qualité de l'air dans les environnements intérieurs et pourrait être mise en œuvre dans les milieux médicaux. Dans les hôpitaux, les salles d'opération sont très exigeantes en matière de qualité de l'air intérieur et nécessitent des systèmes qui minimisent les concentrations des polluants générés par les différentes activités. Dans ce travail, le devenir de deux polluants spécifiques des blocs opératoires, l’acrylonitrile (produit chimique trouvé dans la fumée chirurgicale) et l'isoflurane (gaz anesthésique) lorsqu'ils passent dans un dispositif de traitement d’air photocatalytique est étudié. Tout d'abord, une évaluation paramétrique de la dégradation de l'isoflurane et de l'acrylonitrile en étudiant l'influence de la vitesse de l'air, de l'intensité lumineuse, de la géométrie du média photocatalytique, de la concentration initiale en polluants, de la présence de co-polluants chimiques, de la présence de particules et l’humidité relative sur leur efficacité de dégradation est réalisée. En second lieu, l’innocuité de l’utilisation de ce procédé pour la dégradation de l’isoflurane et de l’acrylonitrile par l’identification des éventuels intermédiaires formés au cours de leur dégradation est étudiée. Les expériences sont menées dans un réacteur dynamique en boucle fermée conçu pour étudier les polluants à faibles concentrations. Enfin, pour mieux comprendre comment le changement de géométrie du média photocatalytique influence l'efficacité de la dégradation, des simulations avec ANSYS14.5 sont effectuées et discutées au regard des résultats expérimentaux. / Photocatalytic oxidation (PCO) is an advanced air cleaning technology that is used asa means to improve air quality in indoor environments and could potentially be used inthe operating rooms (OR). In hospitals, operating rooms (ORs) are very demanding interms of the indoor air quality (IAQ) and require systems that minimize the concentrations of pollutants. In this work, the fate of two OR pollutants acrylonitrile (chemical found insurgical smoke) and isoflurane (anesthetic gas) when they go through a PCO device was investigated. Firstly, a parametric evaluation on the degradation of isoflurane and acrylonitrile by studying the influence of air velocity, light intensity, the change in media geometry, initial pollutant concentration, presence of chemical co-pollutants, presence of particles (bioaerosols) and relative humidity on their degradation efficiencies is performed. Secondly the safety of the use of PCO for the degradation of isoflurane and acrylonitrile through the identification of possible intermediates formed during their degradation is evaluated. The experiments were conducted in a closed loop reactor which has been designed to study low concentration air pollutants and has also been recently modeled. Finally, to better understand how the change in media geometry influenced the degradation efficiency, simulations with ANSYS 14.5 were performed and discussed.
77

On Computational Stylistics : mining Literary Texts for the Extraction of Characterizing Stylistic Patterns / De la stylistique computationnelle : fouille de textes littéraires pour l'extraction de motifs stylistiques caractérisants

Boukhaled, Mohamed Amine 13 September 2016 (has links)
Notre thèse se situe dans le domaine interdisciplinaire de la stylistique computationnelle, à savoir l'application des méthodes statistiques et computationnelles à l'étude du style littéraire. Historiquement, la plupart des travaux effectués en stylistique computationnelle se sont concentrés sur les aspects lexicaux. Dans notre thèse, l’accent est mis sur l'aspect syntaxique du style qui est beaucoup plus difficile à analyser étant donné sa nature abstraite. Comme contribution principale, dans cette thèse, nous travaillons sur une approche à l'étude stylistique computationnelle de textes classiques de littérature française d'un point de vue herméneutique, où découvrir des traits linguistiques intéressants se fait sans aucune connaissance préalable. Plus concrètement, nous nous concentrons sur le développement et l'extraction des motifs morphosyntaxiques. Suivant la ligne de pensée herméneutique, nous proposons un processus de découverte de connaissances pour la caractérisation stylistique accentué sur la dimension syntaxique du style et permettant d'extraire des motifs pertinents à partir d'un texte donné. Ce processus proposé consiste en deux étapes principales, une étape d'extraction de motifs séquentiels suivi de l'application de certaines mesures d'intérêt. En particulier, l'extraction de tous les motifs syntaxiques possibles d'une longueur donnée est proposée comme un moyen particulièrement utile pour extraire des caractéristiques intéressantes dans un scénario exploratoire. Nous proposons, évaluons et présentons des résultats sur les trois mesures d'intérêt proposées, basée chacune sur un raisonnement théorique linguistique et statistique différent. / The present thesis locates itself in the interdisciplinary field of computational stylistics, namely the application of statistical and computational methods to the study of literary style. Historically, most of the work done in computational stylistics has been focused on lexical aspects especially in the early decades of the discipline. However, in this thesis, our focus is put on the syntactic aspect of style which is quite much harder to capture and to analyze given its abstract nature. As main contribution, we work on an approach to the computational stylistic study of classic French literary texts based on a hermeneutic point of view, in which discovering interesting linguistic patterns is done without any prior knowledge. More concretely, we focus on the development and the extraction of complex yet computationally feasible stylistic features that are linguistically motivated, namely morpho-syntactic patterns. Following the hermeneutic line of thought, we propose a knowledge discovery process for the stylistic characterization with an emphasis on the syntactic dimension of style by extracting relevant patterns from a given text. This knowledge discovery process consists of two main steps, a sequential pattern mining step followed by the application of some interestingness measures. In particular, the extraction of all possible syntactic patterns of a given length is proposed as a particularly useful way to extract interesting features in an exploratory scenario. We propose, carry out an experimental evaluation and report results on three proposed interestingness measures, each of which is based on a different theoretical linguistic and statistical backgrounds.
78

Formation and Characterization of Reduced Metal Complexes in the Gas Phase / Formation et caractérisation de complexes métalliques réduits en phase gazeuse

Katari, Madanakrishna 24 November 2016 (has links)
La caractérisation complète d’intermédiaires réactionnels intervenants dans des procédés de catalyse homogène est une tâche ardue en raison de leur réactivité et de leur faible concentration. Ceci est particulièrement vrai pour les espèces radicalaires telles que les complexes organométalliques réduits, qui sont des intermédiaires en photocatalyse ou lorsque ces complexes possèdent des ligands non-innocents. Par conséquent, leur structure électronique est encore mal comprise, sachant que l'électron ajouté peut être situé sur différents sites de la molécule.Dans ce contexte, nous avons développé une méthode d'analyse pour étudier en phase gazeuse des complexes organométalliques radicalaires. Des complexes organométalliques multichargés du zinc et du ruthénium avec des ligands bidentes de type bipyridine ou tridente de type bis(imino)pyridine ont d’abord été obtenus et isolés en phase gazeuse. Ils sont ensuite réduits avec les méthodes d’activation par un électron spécifiques à la spectrométrie de masse, la dissociation par capture ou transfert d’électron (ECD/ETD), permettant de former des espèces métalliques radicalaires monochargées. Celles-ci sont enfin isolés et leur spectre infrarouge est obtenu à l’aide de la spectroscopie d’action basée sur la dissociation induite par l’absorption de plusieurs photons dans l’infrarouge (IRMPD). Les méthodes DFT fournissent un complément pour modéliser la structure électronique et le spectre IR de ces espèces.Les challenges à relever pour développer ce nouvel outil d'analyse étaient de deux ordres. Tout d'abord, nous devions être en mesure d'obtenir les complexes souhaités en phase gazeuse. Ceci nous a conduit à examiner de multiples paramètres, tels que la nature des ligands ou l’énergie interne déposée lors de l’étape de réduction. Le deuxième défi portait sur l'utilisation des méthodes de modélisation. Nous avons montré l’absence de fiabilité des méthodes standards de modélisation pour décrire à la fois la structure électronique et le spectre infrarouge des complexes réduits. Les données expérimentales obtenues durant ce travail ont donc été utilisées comme références pour identifier les fonctionnelles DFT les plus appropriées pour l’étude de ces complexes radicalaires. / The complete characterization of reaction intermediates in homogeneous catalytic processes is often a difficult task owing to their reactivity and low concentration. This is particularly true for radical species such as reduced organometallic complexes, which are intermediates in photocatalysis, or when these complexes included non-innocent ligands. Consequently, their electronic structure in the ground state is still poorly understood, knowing that the added electron can be located on different sites of the molecule.In this contect, we developed an analytical method to study radical organometallic complexes in the gas phase. We started with formation of suitable multi-charged zinc organometallic complexes in the gas phase from mixture of zinc metal cation and bipyridine-type bidentate or bis(imino)pyridine tridentate ligands. Multicharged ruthenium complexes with similar ligands have also been studied. Under ideal circumstances these complexes were isolated and reduced in the gas phase to form monocationic metal species. Electron activated methods such as electron capture dissociation (ECD) and electron transferred dissociation (ETD) techniques, available in FT-ICR mass spectrometers, have been used to that end. The resulting Zn and Ru radical cation complexes are then isolated in the gas phase and probed via infrared multi photon dissociation (IRMPD) action spectroscopy. In support, DFT theoretical calculations were performed to model their electronic structure and IR spectra.Two main issues were faced during the development of this new analytical tool. First, we had to be able to obtain the desired complexes in the gas phase. This has lead to monitor various parameters, such as the nature of the ligands or the internal energy provided by the reduction step. The second challenge dealt with the use of modeling methods. We have shown that standard modelling tools lack the accuracy to predict both electronic structure and spectral signatures of reduced complexes. The experimental data gathered in this work have therefore been used as benchmarks for the identification of DFT functionals that are most appropriate for the study of these radical complexes.
79

Theoretical study of some statistical procedures applied to complex data / Etude théorique de quelques procédures statistiques pour le traitement de données complexes

Cottet, Vincent R. 17 November 2017 (has links)
La partie principale de cette thèse s'intéresse à développer les aspects théoriques et algorithmiques pour trois procédures statistiques distinctes. Le premier problème abordé est la complétion de matrices binaires. Nous proposons un estimateur basé sur une approximation variationnelle pseudo-bayésienne en utilisant une fonction de perte différente de celles utilisées auparavant. Nous pouvons calculer des bornes non asymptotiques sur le risque intégré. L'estimateur proposé est beaucoup plus rapide à calculer qu'une estimation de type MCMC et nous montrons sur des exemples qu'il est efficace en pratique. Le deuxième problème abordé est l'étude des propriétés théoriques du minimiseur du risque empirique pénalisé pour des fonctions de perte lipschitziennes. Nous pouvons ensuite appliquer les résultats principaux sur la régression logistique avec la pénalisation SLOPE ainsi que sur la complétion de matrice. Le troisième chapitre développe une approximation de type Expectation-Propagation quand la vraisemblance n'est pas explicite. On utilise alors l'approximation ABC dans un second temps. Cette procédure peut s'appliquer à beaucoup de modèles et est beaucoup plus précise et rapide. Elle est appliquée à titre d'exemple sur un modèle d'extrêmes spatiaux. / The main part of this thesis aims at studying the theoretical and algorithmic aspects of three distinct statistical procedures. The first problem is the binary matrix completion. We propose an estimator based on a variational approximation of a pseudo-Bayesian estimator. We use a different loss function of the ones used in the literature. We are able to compute non asymptotic risk bounds. It is much faster to compute the estimator than a MCMC method and we show on examples that it is efficient in practice. In a second part we study the theoretical properties of the regularized empirical risk minimizer for Lipschitz loss functions. We are therefore able to apply it on the logistic regression with the SLOPE regularization and on the matrix completion as well. The third chapter develops an Expectation-Propagation approximation when the likelihood is not explicit. We then use an ABC approximation in a second stage. This procedure may be applied to many models and is more precise and faster than the classic ABC approximation. It is used in a spatial extremes model.
80

Apprentissage de stratégies de calcul adaptatives pour les réseaux neuronaux profonds

Kamanda, Aton 07 1900 (has links)
La théorie du processus dual stipule que la cognition humaine fonctionne selon deux modes distincts : l’un pour le traitement rapide, habituel et associatif, appelé communément "système 1" et le second, ayant un traitement plus lent, délibéré et contrôlé, que l’on nomme "système 2". Cette distinction indique une caractéristique sous-jacente importante de la cognition humaine : la possibilité de passer de manière adaptative à différentes stratégies de calcul selon la situation. Cette capacité est étudiée depuis longtemps dans différents domaines et de nombreux bénéfices hypothétiques semblent y être liés. Cependant, les réseaux neuronaux profonds sont souvent construits sans cette capacité à gérer leurs ressources calculatoires de manière optimale. Cette limitation des modèles actuels est d’autant plus préoccupante que de plus en plus de travaux récents semblent montrer une relation linéaire entre la capacité de calcul utilisé et les performances du modèle lors de la phase d’évaluation. Pour résoudre ce problème, ce mémoire propose différentes approches et étudie leurs impacts sur les modèles, tout d’abord, nous étudions un agent d’apprentissage par renforcement profond qui est capable d’allouer plus de calcul aux situations plus difficiles. Notre approche permet à l’agent d’adapter ses ressources computationnelles en fonction des exigences de la situation dans laquelle il se trouve, ce qui permet en plus d’améliorer le temps de calcul, améliore le transfert entre des tâches connexes et la capacité de généralisation. L’idée centrale commune à toutes nos approches est basée sur les théories du coût de l’effort venant de la littérature sur le contrôle cognitif qui stipule qu’en rendant l’utilisation de ressource cognitive couteuse pour l’agent et en lui laissant la possibilité de les allouer lors de ses décisions il va lui-même apprendre à déployer sa capacité de calcul de façon optimale. Ensuite, nous étudions des variations de la méthode sur une tâche référence d’apprentissage profond afin d’analyser précisément le comportement du modèle et quels sont précisément les bénéfices d’adopter une telle approche. Nous créons aussi notre propre tâche "Stroop MNIST" inspiré par le test de Stroop utilisé en psychologie afin de valider certaines hypothèses sur le comportement des réseaux neuronaux employant notre méthode. Nous finissons par mettre en lumière les liens forts qui existent entre apprentissage dual et les méthodes de distillation des connaissances. Notre approche a la particularité d’économiser des ressources computationnelles lors de la phase d’inférence. Enfin, dans la partie finale, nous concluons en mettant en lumière les contributions du mémoire, nous détaillons aussi des travaux futurs, nous approchons le problème avec les modèles basés sur l’énergie, en apprenant un paysage d’énergie lors de l’entrainement, le modèle peut ensuite lors de l’inférence employer une capacité de calcul dépendant de la difficulté de l’exemple auquel il fait face plutôt qu’une simple propagation avant fixe ayant systématiquement le même coût calculatoire. Bien qu’ayant eu des résultats expérimentaux infructueux, nous analysons les promesses que peuvent tenir une telle approche et nous émettons des hypothèses sur les améliorations potentielles à effectuer. Nous espérons, avec nos contributions, ouvrir la voie vers des algorithmes faisant un meilleur usage de leurs ressources computationnelles et devenant par conséquent plus efficace en termes de coût et de performance, ainsi que permettre une compréhension plus intime des liens qui existent entre certaines méthodes en apprentissage machine et la théorie du processus dual. / The dual-process theory states that human cognition operates in two distinct modes: one for rapid, habitual and associative processing, commonly referred to as "system 1", and the second, with slower, deliberate and controlled processing, which we call "system 2". This distinction points to an important underlying feature of human cognition: the ability to switch adaptively to different computational strategies depending on the situation. This ability has long been studied in various fields, and many hypothetical benefits seem to be linked to it. However, deep neural networks are often built without this ability to optimally manage their computational resources. This limitation of current models is all the more worrying as more and more recent work seems to show a linear relationship between the computational capacity used and model performance during the evaluation phase. To solve this problem, this thesis proposes different approaches and studies their impact on models. First, we study a deep reinforcement learning agent that is able to allocate more computation to more difficult situations. Our approach allows the agent to adapt its computational resources according to the demands of the situation in which it finds itself, which in addition to improving computation time, enhances transfer between related tasks and generalization capacity. The central idea common to all our approaches is based on cost-of-effort theories from the cognitive control literature, which stipulate that by making the use of cognitive resources costly for the agent, and allowing it to allocate them when making decisions, it will itself learn to deploy its computational capacity optimally. We then study variations of the method on a reference deep learning task, to analyze precisely how the model behaves and what the benefits of adopting such an approach are. We also create our own task "Stroop MNIST" inspired by the Stroop test used in psychology to validate certain hypotheses about the behavior of neural networks employing our method. We end by highlighting the strong links between dual learning and knowledge distillation methods. Finally, we approach the problem with energy-based models, by learning an energy landscape during training, the model can then during inference employ a computational capacity dependent on the difficulty of the example it is dealing with rather than a simple fixed forward propagation having systematically the same computational cost. Despite unsuccessful experimental results, we analyze the promise of such an approach and speculate on potential improvements. With our contributions, we hope to pave the way for algorithms that make better use of their computational resources, and thus become more efficient in terms of cost and performance, as well as providing a more intimate understanding of the links that exist between certain machine learning methods and dual process theory.

Page generated in 0.1165 seconds