• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 1
  • Tagged with
  • 6
  • 6
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèles Continus. Calculs. Algorithmique Distribuée.

Bournez, Olivier 07 December 2006 (has links) (PDF)
Les systèmes dynamiques continus permettent de modéliser de nombreux<br />systèmes physiques, biologiques, ou issus de l'informatique<br />distribuée. Nous nous intéressons à leur pouvoir de modélisation, et à<br />leurs propriétés en tant que systèmes de calculs, et plus généralement<br />aux propriétés calculatoires des modèles continus.<br /><br />Les deux premiers chapitres ne visent pas à produire des résultats<br />nouveaux, mais à motiver ce travail, et à le mettre en<br />perspectives. Le chapitre 3 constitue un survol. Les chapitres 4, 5 et<br />l'annexe A présentent un panorama de quelques-uns de nos résultats<br />personnels en relations avec cette problématique.<br /><br />Plus précisément, le chapitre 1 présente les systèmes dynamiques, avec<br />un point de vue classique et mathématique. Il vise d'une part à<br />souligner la richesse, et la subtilité des comportements possibles des<br />systèmes dynamiques continus, et d'autre part à mettre en évidence que<br />différents dispositifs sont intrinsèquement continus, et utilisables<br />comme tels pour réaliser des calculs. En outre nous insistons sur la<br />puissance de modélisation d'une classe de systèmes dynamiques, que<br />nous nommons les problèmes de Cauchy polynomiaux.<br /><br />Les exemples du chapitre 2, issus de la bioinformatique, des modèles<br />de la biologie des populations, de la virologie biologique et de la<br />virologie informatique, et de l'algorithmique distribuée, se<br />distinguent de ceux du chapitre 1 par le fait qu'ils mettent<br />explicitement en jeu une certaine notion de concurrence entre agents.<br />Nous présentons la théorie des jeux, et ses modèles, en nous<br />focalisant sur certains de ses modèles du dynamisme. Ces modèles<br />continus deviennent naturels pour parler d'algorithmique distribuée,<br />en particulier dès que l'on a affaire à des systèmes de grandes<br />tailles, ou dont on ne contrôle pas les interactions. Nous pointons<br />quelques modèles de l'algorithmique distribuée qui intègrent ces<br />considérations, et le potentiel de l'utilisation des systèmes continus<br />pour l'algorithmique distribuée.<br /><br />Le chapitre 3 constitue un survol de la théorie des calculs pour les<br />modèles à temps continu. La puissance des modèles de calculs à temps<br />et espace discrets est relativement bien comprise grâce à la thèse de<br />Church, qui postule que tous les modèles raisonnables et suffisamment<br />puissants ont la même puissance, celle des machines de Turing. On peut<br />aussi considérer des modèles où le temps est continu. Certaines<br />grandes classes de modèles ont été considérées dans la<br />littérature. Nous les reprenons dans ce chapitre, en présentant un<br />panorama de ce qui est connu sur leurs propriétés calculatoires.<br /><br />Le chapitre 4 présente un résumé de quelques-uns de nos résultats<br />personnels à propos de la comparaison de la puissance de plusieurs<br />modèles à temps continu, en relations avec la thèse de Emmanuel<br />Hainry. Claude Shannon a introduit en 1941 le GPAC comme un modèle des<br />dispositifs de calculs analogiques. Les résultats de Shannon ont<br />longtemps été utilisés pour argumenter que ce modèle était plus faible<br />que l'analyse récursive, et donc que les machines analogiques sont<br />prouvablement plus faibles que les machines digitales. Avec Manuel<br />Campagnolo, Daniel Graça, et Emmanuel Hainry, nous avons prouvé<br />récemment que le GPAC et l'analyse récursive calculent en fait les<br />mêmes fonctions. Ce résultat prend toute sa perspective si l'on<br />comprend que les fonctions calculées par le GPAC correspondent aux<br />problèmes de Cauchy polynomiaux, dont le pouvoir de modélisation est<br />discuté dans le chapitre 1.<br /><br />D'autre part, nous avons montré qu'il était possible de caractériser<br />algébriquement les fonctions élémentairement calculables et<br />calculables au sens de l'analyse récursive. Cela signifie d'une part<br />qu'il est possible de les caractériser en termes d'une sous-classe des<br />fonctions R-récursives à la Moore, ce qui étend les résultats de<br />Campagnolo, Costa, Moore, de la calculabilité discrète à l'analyse<br />récursive, mais aussi d'autre part, qu'il est possible de caractériser<br />ces fonctions de façon purement continue, par l'analyse, sans<br />référence à de la calculabilité.<br /><br />Dans le chapitre 5, nous reprenons certains de nos résultats à propos<br />de caractérisations logiques de classes de complexité dans le modèle<br />de Blum Shub et Smale, en relations avec la thèse de Paulin Jacobé de<br />Naurois. Le modèle de Blum Shub et Smale constitue un modèle de calcul<br />à temps discret et à espace continu. Le modèle, défini initialement<br />pour parler de complexité algébrique de problèmes sur le corps des<br />réels, ou plus généralement sur un anneau, a été par la suite été<br />étendu par Poizat en un modèle de calculs sur une structure logique<br />arbitraire. Avec Paulin Jacobé de Naurois, Felipe Cucker et Jean-Yves<br />Marion, nous avons caractérisé syntaxiquement les classes de<br />complexité majeures dans ce modèle sur une structure arbitraire, à la<br />Bellantoni et Cook 1992.<br /><br />Le chapitre 6 est consacré à une conclusion, dans laquelle nous<br />reprenons plusieurs questions et perspectives qui nous semblent<br />intéressantes.<br /><br />Dans l'annexe A, nous discutons un point de vue sur les<br />hypercalculs. La question de l'existence de systèmes capables de<br />réaliser des hypercalculs, c'est-à-dire d'effectuer des calculs<br />exploitables qui ne seraient pas réalisables par aucune machine de<br />Turing, fait encore couler de l'encre et des controverses. Nous avons<br />été invité à exprimer notre point de vue dans un numéro spécial sur le<br />sujet, que nous reprenons en annexe A. Nous y rappelons plusieurs<br />mauvaises compréhensions fréquentes de la thèse de Church, et nous<br />présentons un panorama de plusieurs classes de systèmes mathématiques,<br />avec la caractérisation de leur puissance.
2

Identification par modèle non entier pour la poursuite robuste de trajectoire par platitude

25 November 2010 (has links)
Les études menées permettent de prendre en main un système depuis l'identification jusqu'à la commande robuste des systèmes non entiers. Les principes de la platitude permettent de parvenir à la planification de trajectoire à condition de connaître le modèle du système, d'où l'intérêt de l'identification des paramètres du système. Les principaux travaux de cette thèse concernent l'identification de système par modèles non entiers, la génération et la poursuite robuste de trajectoire par l'application des principes de la platitude aux systèmes non entiers. Le chapitre 1 rappelle les définitions et propriétés de l'opérateur non entier ainsi que les diverses méthodes de représentation d'un système non entier. Le théorème de stabilité est également remémoré. Les algèbres sur les polynômes non entiers et sur les matrices polynômiales non entières sont introduites pour l'extension de la platitude aux systèmes non entiers. Le chapitre 2 porte sur l'identification par modèle non entier. Après un état de l'art sur les méthodes d'identification par modèle non entier, deux contextes sont étudiés : en présence de bruit blanc et en présence de bruit coloré. Dans chaque cas, deux estimateurs optimaux (sur la variance et le biais) sont proposés : l'un, en supposant une structure du modèle connue et d'ordres de dérivation fixés, et l'autre en combinant des techniques de programmation non linéaire qui optimise à la fois les coefficients et les ordres de dérivation. Le chapitre 3 établit l'extension des principes de la platitude aux systèmes non entiers. La platitude des systèmes non entiers linéaires en proposant différentes approches telles que les fonctions de transfert et la pseudo-représentation d'état par matrices polynômiales est étudiée. La robustesse du suivi de trajectoire est abordée par la commande CRONE. Des exemples de simulations illustrent les développements théoriques de la platitude au travers de la diffusion thermique sur un barreau métallique. Enfin, le chapitre 4 est consacré à la validation des contributions en identification, en planification de trajectoire et en poursuite robuste sur un système non entier réel : un barreau métallique est soumis à un flux de chaleur.
3

Mécanismes d'endommagement et comportements mécaniques d'un composite cimentaire fibré multi-échelles sous sollicitations sévères : fatigue, choc, corrosion

Parant, Edouard 03 December 2003 (has links) (PDF)
Ce travail porte sur l'étude du comportement mécanique et des mécanismes d'endommagement d'un composite cimentaire fibré multi-échelles soumis à des sollicitations sévères. Les sollicitations mécaniques retenues sont : la fatigue, le choc et le fluage en ambiance agressive.<br />A partir de l'analyse des mécanismes de fissuration des matrices cimentaires, le principe de renfort multi-échelles conduit à l'utilisation de trois dimensions de fibres métalliques afin d'intervenir à chaque étape du processus de fissuration. La matrice cimentaire est ultra-compacte et résistante (résistance en compression > 200 MPa) et la fraction volumique du renfort atteint 11 %. Le composite formulé est mis en uvre dans des dalles minces qui se veulent représentatives des applications structurelles envisagées. Les dalles constituent les corps d'épreuve pour les trois études.<br />La caractérisation mécanique du composite sous chargement statique (compression, traction et flexion) montre que le renfort multi-échelles se caractérise par la mise en action graduelle et continue des différentes échelles de fibres, et ce jusqu'au pic d'effort. Une détermination de la résistance en traction uniaxiale (> 20 MPa) à partir d'essais de flexion 4 points sur dalles minces en utilisant une approche inverse est validée. Il est montré que le matériau étudié est élasto-plastique avec écrouissage positif en traction.<br />Les essais dynamiques mettent en lumière une grande sensibilité du composite aux effets de vitesses. Le renfort multi-échelles, et tout particulièrement les micro-fibres, amplifient les phénomènes visqueux dans la matrice cimentaire en y améliorant le transfert des efforts. Le gain absolu de résistance en traction est estimé par approche inverse à 1.5 MPa/u.log. Ces résultats sont retrouvés lors de simulations avec un modèle élasto-visco-plastique.<br />Le comportement en fatigue est limité par le faible élancement des méso-fibres. Leur déchaussement rapide empêche l'arrêt de la coalescence des micro-fissures. Une corrélation forte existe entre la durée de vie en fatigue et l'état d'endommagement initial (lors d'un premier chargement statique). Une courbe de Wöhler corrigée est reconstruite connaissant le comportement statique caractéristique et l'état initial de déformation des corps d'épreuve.<br />Sous sollicitation de service, la fissuration fine et diffuse induite par l'efficacité du renfort multi-échelles n'est pas préjudiciable en environnement agressif. Une cicatrisation presque totale est observée en présence d'eau sur des corps d'épreuve pré-endommagés par fatigue et maintenus chargés en solution saline.
4

Identification par modèle non entier pour la poursuite robuste de trajectoire par platitude

Victor, Stéphane 25 November 2010 (has links)
Les études menées permettent de prendre en main un système depuis l’identification jusqu’à la commande robuste des systèmes non entiers. Les principes de la platitude permettent de parvenir à la planification de trajectoire à condition de connaître le modèle du système, d’où l’intérêt de l’identification des paramètres du système. Les principaux travaux de cette thèse concernent l’identification de système par modèles non entiers, la génération et la poursuite robuste de trajectoire par l’application des principes de la platitude aux systèmes non entiers.Le chapitre 1 rappelle les définitions et propriétés de l’opérateur non entier ainsi que les diverses méthodes de représentation d’un système non entier. Le théorème de stabilité est également remémoré. Les algèbres sur les polynômes non entiers et sur les matrices polynômiales non entières sont introduites pour l’extension de la platitude aux systèmes non entiers.Le chapitre 2 porte sur l’identification par modèle non entier. Après un état de l’art sur les méthodes d’identification par modèle non entier, deux contextes sont étudiés : en présence de bruit blanc et en présence de bruit coloré. Dans chaque cas, deux estimateurs optimaux (sur la variance et le biais) sont propos´es : l’un, en supposant une structure du modèle connue et d’ordres de dérivation fixés, et l’autre en combinant des techniques de programmation non linéaire qui optimise à la fois les coefficients et les ordres de dérivation.Le chapitre 3 établit l’extension des principes de la platitude aux systèmes non entiers.La platitude des systèmes non entiers linéaires en proposant différentes approches telles que les fonctions de transfert et la pseudo-représentation d’état par matrices polynômiales est étudiée.La robustesse du suivi de trajectoire est abordée par la commande CRONE. Des exemples de simulations illustrent les développements théoriques de la platitude au travers de la diffusion thermique sur un barreau métallique.Enfin, le chapitre 4 est consacré à la validation des contributions en identification, en planification de trajectoire et en poursuite robuste sur un système non entier réel : un barreau métallique est soumis à un flux de chaleur. / The general theme of the work enables to handle a system, from identification to robust control. Flatness principles tackle path planning unless knowing the system model, hence the system parameter identification necessity. The principal contribution of this thesis deal with system identification by non integer models and with robust path tracking by the use of flatness principles for fractional models.Chapter 1 recalls the definitions and properties of a fractional operator and also the various representation methods of a fractional system. The stability theorem is also brought to mind. Fractional polynomial and fractional polynomial matrice algebras are introduced for the extension of flatness principles for fractional systems.Chapter 2 is about non integer model identification. After a state of the art on system identification by non integer model. Two contexts are considered : in presence of white noise and of colored noise. In each situation, two optimal (in variance and bias sense) estimators are put forward : one, when considering a known model structure with fixed differentiating orders, and another one by combining nonlinear programming technics for the optimization of coefficients and differentiating orders.Chapter 3 establishes the extension of flatness principles to fractional systems. Flatness of linear fractional systems are studied while considering different approaches such as transfer functions or pseudo-state-space representations with polynomial matrices. Path tracking robustness is ensured with CRONE control. Simulation examples display theoretical developments on flatness through thermal diffusion on a metallic rod. Finally, Chapter 4 is devoted to validate the contributions to system identification, to trajectory planning and to robust path tracking on a real fractional system : a metallic rod submitted to a heat flux.
5

Apprentissage discriminant des modèles continus en traduction automatique / Discriminative Training Procedure for Continuous-Space Translation Models

Do, Quoc khanh 31 March 2016 (has links)
Durant ces dernières années, les architectures de réseaux de neurones (RN) ont été appliquées avec succès à de nombreuses applications en Traitement Automatique de Langues (TAL), comme par exemple en Reconnaissance Automatique de la Parole (RAP) ainsi qu'en Traduction Automatique (TA).Pour la tâche de modélisation statique de la langue, ces modèles considèrent les unités linguistiques (c'est-à-dire des mots et des segments) à travers leurs projections dans un espace continu (multi-dimensionnel), et la distribution de probabilité à estimer est une fonction de ces projections.Ainsi connus sous le nom de "modèles continus" (MC), la particularité de ces derniers se trouve dans l'exploitation de la représentation continue qui peut être considérée comme une solution au problème de données creuses rencontré lors de l'utilisation des modèles discrets conventionnels.Dans le cadre de la TA, ces techniques ont été appliquées dans les modèles de langue neuronaux (MLN) utilisés dans les systèmes de TA, et dans les modèles continus de traduction (MCT).L'utilisation de ces modèles se sont traduit par d'importantes et significatives améliorations des performances des systèmes de TA. Ils sont néanmoins très coûteux lors des phrases d'apprentissage et d'inférence, notamment pour les systèmes ayant un grand vocabulaire.Afin de surmonter ce problème, l'architecture SOUL (pour "Structured Output Layer" en anglais) et l'algorithme NCE (pour "Noise Contrastive Estimation", ou l'estimation contrastive bruitée) ont été proposés: le premier modifie la structure standard de la couche de sortie, alors que le second cherche à approximer l'estimation du maximum de vraisemblance (MV) par une méthode d’échantillonnage.Toutes ces approches partagent le même critère d'estimation qui est la log-vraisemblance; pourtant son utilisation mène à une incohérence entre la fonction objectif définie pour l'estimation des modèles, et la manière dont ces modèles seront utilisés dans les systèmes de TA.Cette dissertation vise à concevoir de nouvelles procédures d'entraînement des MC, afin de surmonter ces problèmes.Les contributions principales se trouvent dans l'investigation et l'évaluation des méthodes d'entraînement efficaces pour MC qui visent à: (i) réduire le temps total de l'entraînement, et (ii) améliorer l'efficacité de ces modèles lors de leur utilisation dans les systèmes de TA.D'un côté, le coût d'entraînement et d'inférence peut être réduit (en utilisant l'architecture SOUL ou l'algorithme NCE), ou la convergence peut être accélérée.La dissertation présente une analyse empirique de ces approches pour des tâches de traduction automatique à grande échelle.D'un autre côté, nous proposons un cadre d'apprentissage discriminant qui optimise la performance du système entier ayant incorporé un modèle continu.Les résultats expérimentaux montrent que ce cadre d'entraînement est efficace pour l'apprentissage ainsi que pour l'adaptation des MC au sein des systèmes de TA, ce qui ouvre de nouvelles perspectives prometteuses. / Over the past few years, neural network (NN) architectures have been successfully applied to many Natural Language Processing (NLP) applications, such as Automatic Speech Recognition (ASR) and Statistical Machine Translation (SMT).For the language modeling task, these models consider linguistic units (i.e words and phrases) through their projections into a continuous (multi-dimensional) space, and the estimated distribution is a function of these projections. Also qualified continuous-space models (CSMs), their peculiarity hence lies in this exploitation of a continuous representation that can be seen as an attempt to address the sparsity issue of the conventional discrete models. In the context of SMT, these echniques have been applied on neural network-based language models (NNLMs) included in SMT systems, and oncontinuous-space translation models (CSTMs). These models have led to significant and consistent gains in the SMT performance, but are also considered as very expensive in training and inference, especially for systems involving large vocabularies. To overcome this issue, Structured Output Layer (SOUL) and Noise Contrastive Estimation (NCE) have been proposed; the former modifies the standard structure on vocabulary words, while the latter approximates the maximum-likelihood estimation (MLE) by a sampling method. All these approaches share the same estimation criterion which is the MLE ; however using this procedure results in an inconsistency between theobjective function defined for parameter stimation and the way models are used in the SMT application. The work presented in this dissertation aims to design new performance-oriented and global training procedures for CSMs to overcome these issues. The main contributions lie in the investigation and evaluation of efficient training methods for (large-vocabulary) CSMs which aim~:(a) to reduce the total training cost, and (b) to improve the efficiency of these models when used within the SMT application. On the one hand, the training and inference cost can be reduced (using the SOUL structure or the NCE algorithm), or by reducing the number of iterations via a faster convergence. This thesis provides an empirical analysis of these solutions on different large-scale SMT tasks. On the other hand, we propose a discriminative training framework which optimizes the performance of the whole system containing the CSM as a component model. The experimental results show that this framework is efficient to both train and adapt CSM within SMT systems, opening promising research perspectives.
6

Simulation du remodelage structurel des oreillettes : dissociation endo-épicardique, optimisation multi-paramètre des conductivités et morphologie des potentiels extracellulaires

Irakoze, Éric 12 1900 (has links)
La fibrillation auriculaire (FA) est le type d’arythmie cardiaque le plus fréquent. Cependant, ses mécanismes sont encore mal compris et le développement de stratégies thérapeutiques efficaces reste un défi. Des recherches ont montré que les mécanismes de remodelage structurel, notamment la dissociation électrique endocardique-épicardique, jouent un rôle potentiellement important dans l'initiation, la complexité et le maintien de la FA. En ce sens, les potentiels extracellulaires sont des outils non invasifs largement utilisés dans le diagnostic et la compréhension de cette arythmie ainsi que dans le guidage des interventions par cathéter. L'objectif principal de cette thèse était de développer des modèles informatiques des oreillettes et d’étudier dans ces modèles comment les potentiels extracellulaires et les cartes d'activation à haute résolution peuvent être exploités pour caractériser les mécanismes de dissociation endocardique-épicardique en tant que substrat de la FA. Dans un premier temps, en utilisant un modèle de tissu auriculaire, nous avons montré que la dissociation endo-épicardique (délai endo-épicardique et couplage transmural) affecte l'asymétrie des électrogrammes unipolaires à travers l'orientation des sources de courant dipolaire dans le tissu auriculaire. Ce résultat a été par la suite confirmé par l’analyse morphologique des composantes de l’onde P dans un modèle anatomique des oreillettes. Nous avons en outre montré que l’épaisseur de la paroi auriculaire ainsi que le couplage transmural étaient des déterminants importants de ce délai, et que ce dernier peut induire des altérations significatives de la morphologie l’onde P même lorsque les cartes d’activation sont similaires et que les ondes P ont la même durée. Dans un second temps, nous avons exploré les effets tridimensionnels de la dissociation endo-épicardique et validé une technique de détection de percée d’ondes (breakthroughs) basée sur l’analyse des cartes d'activation à haute résolution et le suivi des ondes, en utilisant un modèle électro-anatomique de découplage endo-épicardique local. Nous avons utilisé cet outil pour la caractérisation de la dissociation endo-épicardique. Un critère de validité en a été dérivé, ce qui faciliterait la comparaison des taux de percée avec les données cliniques et la validation des outils d'analyse des signaux cartographiques lors de la caractérisation de la dissociation endo-épicardique. Enfin, nous avons développé un outil d'optimisation multi-paramètre qui rend possible l’étude des limites des modèles continus homogénéisés dans l'étude des mécanismes de dissociation endo-épicardique et aide dans le choix des modèles (continu homogénéisé ou discret détaillé). L’outil permet d’estimer le profil régulier de conductivité qui reproduit le mieux les propriétés de conduction cardiaque d'un modèle discret donné. Les résultats ont montré l'efficacité de cet outil pour reproduire des cartes d'activation dans le modèle homogénéisé même en présence de fibrose sévère. Ultimement, ce travail pose les bases du développement de nouveaux modèles informatiques pouvant aider à l’interprétation des signaux électriques dans des tissus cardiaques remodelés où la présence de micro-hétérogénéités exhibe les limites des modèles homogénéisés. / Atrial fibrillation (AF) is the most common type of cardiac arrhythmia. However, its mechanisms are still poorly understood and the development of effective therapeutic strategies remains a challenge. Research studies have shown that the mechanisms of structural remodeling, including endocardial-epicardial electrical dissociation, play a potentially important role in the initiation, complexity, and maintenance of AF. In this sense, extracellular potentials are non-invasive tools widely used in the diagnosis and understanding of this arrhythmia as well as in the guidance of catheter interventions. The main objective of this thesis was to develop computer models of the atria and to study in these models how extracellular potentials and high resolution activation maps can be exploited to characterize the mechanisms of endocardial-epicardial dissociation as substrate of AF. First, using an atrial tissue model, we showed that endo-epicardial dissociation (endo-epicardial delay and transmural coupling) alters the asymmetry of unipolar electrograms through the orientation of dipolar current sources in the atrial tissue. This result was later confirmed by morphological analysis of the P-wave components in an anatomical model of the atria. We further showed that atrial wall thickness as well as transmural coupling were important determinants of this delay, and that the latter can induce significant alterations in P-wave morphology even when activation maps are similar and P-waves have the same duration. Secondly, we explored the three-dimensional effects of endo-epicardial dissociation and validated a breakthrough wave detection technique based on the analysis of high-resolution activation maps and wave tracking, using an electro-anatomical model of local endo-epicardial decoupling. We used this tool for the characterization of endo-epicardial dissociation. A validity criterion was derived, which would facilitate the comparison of breakthrough rates with clinical data and the validation of mapping signals analysis tools for characterizing endo-epicardial dissociation. Finally, we developed a multi-parameter optimization tool that makes it possible to study the limits of homogenized continuous models in the study of endo-epicardial dissociation mechanisms and to help in the choice of models (homogenized continuous or detailed discrete). The tool enabled the estimation of the regular conductivity profile that best reproduces the cardiac conduction properties of a given discrete model. The results showed the effectiveness of this tool in reproducing activation maps in the homogenized model even in the presence of severe fibrosis. Ultimately, this work lays the foundations for the development of new computer models that can help in the interpretation of electrical signals in remodeled heart tissues where the presence of micro-heterogeneities exhibits the limits of homogenized models.

Page generated in 0.0487 seconds