• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2046
  • 972
  • 289
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3279
  • 1468
  • 668
  • 664
  • 573
  • 552
  • 371
  • 317
  • 293
  • 275
  • 275
  • 248
  • 223
  • 214
  • 212
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Acquisition et modélisation de données articulatoires dans un contexte multimodal / Acquiring and modelling multimodal articulatory data

Aron, Michaël 12 November 2009 (has links)
La connaissance des positions et des mouvements des articulateurs (lèvres, palais, langue...) du conduit vocal lors de la phonation est un enjeu crucial pour l’étude de la parole. Puisqu’il n’existe pas encore de système permettant l’acquisition de ces positions et de ces mouvements, ce travail de thèse s’intéresse à la fusion de plusieurs modalités d’imagerie et de capteurs de localisation pour l’acquisition des positions des articulateurs dans l’espace et dans le temps. Nous décrivons un ensemble de protocoles et de méthodes pour obtenir et fusionner automatiquement un important volume de données échographiques (imageant en 2D la dynamique de la langue), stéréoscopiques (imageant en 3D la dynamique des lèvres), de capteurs électromagnétiques (capturant des points 3D de la langue et du visage), et d’Imagerie par Résonance Magnétique (IRM) pour acquérir en 3D l’ensemble des articulateurs en position statique. Nos contributions concernent plus particulièrement la synchronisation temporelle, le recalage spatial des données et l’extraction automatique des formes à partir des données (suivi de la langue dans les images échographiques). Nous évaluons la précision sur chaque donnée extraite, ainsi que sur l’ensemble des données fusionnées. Nous les validons enfin sur un modèle articulatoire existant. Ces travaux permettent l’obtention de données bien fondées pour la mise en place et l’étude de modèles articulatoires pour des applications en parole. / There is no single technique that will allow all relevant behaviour of the speech articulators (lips, tongue, palate...) to be spatially ant temporally acquired. Thus, this thesis investigates the fusion of multimodal articulatory data. A framework is described in order to acquire and fuse automatically an important database of articulatory data. This includes: 2D Ultrasound (US) data to recover the dynamic of the tongue, stereovision data to recover the 3D dynamic of the lips, electromagnetic sensors that provide 3D position of points on the face and the tongue, and 3D Magnetic Resonance Imaging (MRI) that depict the vocal tract for various sustained articulations. We investigate the problems of the temporal synchronization and the spatial registration between all these modalities, and also the extraction of the shape articulators from the data (tongue tracking in US images). We evaluate the uncertainty of our system by quantifying the spatial and temporal inaccuracies of the components of the system, both individually and in combination. Finally, the fused data are evaluated on an existing articulatory model to assess their quality for an application in speech production.
42

Simulation-inversion des diagraphies

Vandamme, Thibaud 12 November 2018 (has links) (PDF)
L’évaluation des formations géologiques consiste en l’analyse et la synthèse de données de différentes sources, de différentes échelles (microscopique à kilométrique) et acquises à des dates très variables. Le processus conventionnel de caractérisation des formations relève alors de l’interprétation physique spécialisée de chacune de ces sources de données et leur mise en cohérence par des processus de synthèse essentiellement d’ordre statistique (corrélation, apprentissage, up-scaling…). Il s’avère cependant qu’une source de données présente un caractère central : les diagraphies. Ces mesures physiques de différentes natures (nucléaires, acoustiques, électromagnétiques…) sont réalisées le long de la paroi d’un puits à l’aide de différentes sondes. Elles sont sensibles aux propriétés in situ des roches, et ce, sur une gamme d’échelle centimétrique à métrique intermédiaire aux carottes et données de test de production. De par leur profondeur d’investigation, les données diagraphiques sont particulièrement sensibles au phénomène d’invasion de boue se produisant lors du forage dans l’abord puits. Traditionnellement, l’invasion est modélisée de façon frustre au moment de l’interprétation diagraphiques par un simple effet piston. Ce modèle simple permet d’honorer le bilan de volume mais ne prend aucunement en compte la physique réelle d’invasion et prive, de fait, les diagraphies de toute portée dynamique. Des essais de modélisation de l’historique d’invasion couplés aux données diagraphiques ont déjà été élaborés par différents laboratoires et une abondante littérature sur le sujet est disponible. Les limitations majeures de ces approches résident dans le caractère sous déterminé des problèmes inverses issus de ces modèles physiques et dans le fait que la donnée diagraphique est réalisée en général sur un intervalle de temps inadaptée au regard du développement de l’invasion. Nous proposons une approche différente qui s’attèle non pas à décrire la physique de l’écoulement mais celle de l’équilibre radial des fluides dans le domaine envahi lorsque les diagraphies sont acquises. Nous montrons qu’en introduisant quelques contraintes pétrophysiques supplémentaires, il est possible d’inverser efficacement la distribution des propriétés dynamiques pour chaque faciès géologique. L’inversion prend en compte le phénomène d’invasion radial dans la zone à eau ainsi que l’équilibre capillaire vertical caractérisant le profil de saturation dans le réservoir pour chaque facies. A chaque profondeur du puits, sont ainsi obtenues perméabilités, pressions capillaires et facteurs de cimentation avec leurs incertitudes ainsi que les lois pétrophysiques propres à chaque faciès. Cette méthode a été appliquée à deux puits réels. En guise de validation, les résultats d’inversion ont été comparés aux mesures laboratoire faites sur carotte. De plus, les perméabilités inversées ont été comparées aux transitoires de pression de mini-tests. La cohérence des résultats montre que, d’une part, les hypothèses de base du modèle sont validées et que, d’autre part, l’approche fournit une estimation fiable de grandeurs dynamiques à toute échelle pour chaque faciès réservoir, et ce, dès l’acquisition des données diagraphiques. L’approche d’inversion proposée a permis de lever une limitation majeure des précédentes tentatives de prédiction des propriétés dynamiques par les diagraphies en reconsidérant la problématique non pas sous l’angle d’une modélisation phénoménologique exacte mais en l’abordant de manière globale à l’échelle d’une chaîne d’étude complète. Cette approche permet de fait une mise en cohérence très précoce des données, d’identifier les faciès d’intérêt et de qualifier les besoins véritables en données. Cet outil s’avère très puissant pour qualifier et caractériser les hétérogénéités pétrophysiques des formations et aider ainsi à résoudre le problème de mise à l’échelle des grandeurs dynamiques
43

Algorithmes d'approximation à mémoire limitée pour le traitement de grands graphes : le problème du Vertex Cover / Approximation algorithms with low memory capacities for large graphs processing : the Vertex Cover problem

Campigotto, Romain 06 December 2011 (has links)
Nous nous sommes intéressés à un problème d'optimisation sur des graphes (le problème du Vertex Cover) dans un contexte bien particulier : celui des grandes instances de données. Nous avons défini un modèle de traitement se basant sur trois contraintes (en relation avec la quantité de mémoire limitée, par rapport à la grande masse de données à traiter) et qui reprenait des propriétés issus de plusieurs modèles existants. Nous avons étudié plusieurs algorithmes adaptés à ce modèle. Nous avons analysé, tout d'abord de façon théorique, la qualité de leurs solutions ainsi que leurs complexités. Nous avons ensuite mené une étude expérimentale sur de gros graphes. De manière générale, les travaux menés durant cette thèse peuvent fournir des indicateurs pour choisir le ou les algorithmes qui conviennent le mieux pour traiter le problème du vertex cover sur de gros graphes. Choisir un algorithme (qui plus est d'approximation) qui soit à la fois performant (en terme de qualité de solution et de complexité) et qui satisfasse les contraintes du modèle que l'on considère est délicat. en effet, les algorithmes les plus performants ne sont pas toujours les mieux adaptés. dans les travaux que nous avons réalisés, nous sommes parvenus à la conclusion qu'il est préférable de choisir au départ l'algorithme qui est le mieux adapté plutôt que de choisir celui qui est le plus performant. / We are interested to an optimization problem on graphs (the Vertex Cover problem) in a very specific context : the huge instances of data. We defined a treatment model based on three constraints (in connection with the limited amount of memory compared to the huge amount of data to be processed) and that reproduces properties from several existing models. We studied several algorithms adapted to this model. We examined, first theoretically, their solutions quality and their complexities. We then conducted an experimental study on large graphs. In general, the work made during this thesis may provide indicators for select algorithms that are best suited to resolve the Vertex Cover problem on large graphs. Choose an algorithm (which is approximated) that is both efficient (in terms of quality of solution and complexity) and satisfies the constraints model whether we consider is tricky. in fact, the most efficient algorithms are not always the best adapted. In the work we have done, we reached the conclusion that, at the beginning, it is best to choose the best suited algorithm rather than the more efficient.
44

Contribution à l'étude et à la réalisation de systèmes de communication inter puces à très haut débit en gamme millimétrique / Contribution to the study and implementation of a high data rate inter chip communication system in millimeter wave frequency range

Foulon, Samuel 24 May 2013 (has links)
Les fréquences de fonctionnement des transistors des dernières technologies silicium supérieures à 200GHz favorisent les recherches de systèmes de communication travaillant à des fréquences de plus en plus élevées. Cette montée en fréquence permet le transfert de données multi-gigabits et la conception de systèmes compacts. Un système de communication puce à puce sans fil multi-gigabits à 140GHz a été conçu afin d’améliorer voire supplanter les interconnexions filaires inter-puces dont les débits de données sont limitées. Il peut également être utilisé pour améliorer la testabilité des puces sur wafer en rendant possible le test sans contact. Les architectures de communication à annulation de bruit de phase de type self-hétérodyne et self-homodyne, étudiées durant ces travaux de recherche, sont basées sur l’émission du signal porteur en plus du signal modulé, simplifiant ainsi la génération de fréquence des parties émettrice et réceptrice. En effet, en gamme de fréquences millimétriques, les topologies nécessitant un système de récupération de la fréquence porteuse ou de synchronisation de fréquence sont complexes et énergivores. Une modulation tout ou rien (OOK) a de ce fait été retenue pour la réalisation du démonstrateur. La chaîne d’émission/réception ainsi que les antennes a été implémenté en technologie BiCMOS SiGe:C 0.13µm. La surface totale du circuit avec les antennes est de 0.31mm². Un transfert de données jusqu’à 14Gbps a été réalisé à une distance de 0.6mm avec une efficacité énergétique de 5.7pJ/bit. A partir du circuit réalisé, une démonstration à 140GHz en modulation QPSK self-hétérodyne a également été effectuée. L’EVM est de 27% à 10Gbps. / The transistors operating frequencies are well above 200GHz in the last silicon technology nodes. These performances have encouraged the research of the communication systems operating at millimeter wave frequencies. Such performances allow higher and higher multi-gigabit data rate and also more compact communication systems with on Silicon integrated antennas.The objective of this research work was to design a multi-gigabit wireless chip to chip communication system at 140GHz. Such a short-range communication system could be designed to improve or replace the inter-chip interconnects where data rates are limited. Secondly this communication system could also be used to improve the testability of on wafer dies by performing contactless test. The communication system with phase noise cancelation topology specifically self-heterodyne and self-homodyne, studied during the research work, are based on the carrier signal emission in addition to the modulated signal simplifies the frequency synthesis of the emitter and receiver parts. Millimeter wave frequency communication systems are conventionally based on carrier frequency recovering system that is complex and consumes a lot of energy. An On-Off Keying (OOK) modulation has been selected and all the parts of the transceiver have been designed in 0.13μm SiGe:C BiCMOS technology. The silicon area of the circuit is 0.31mm² including the antennas. This transceiver achieves a data rate up to 14Gbps at a distance of 0.6mm with an energy efficiency of 5.7pJ/bit. Moreover a self-heterodyne QPSK demonstration at 140GHz was performed with an EVM of 27% to 10Gbps.
45

Vers l'OLAP sémantique pour l'analyse en ligne des données complexes

Loudcher, Sabine 29 June 2011 (has links) (PDF)
L'analyse en ligne OLAP permet une navigation interactive dans les données, une visualisation rapide de l'information et une exploration de la structure multidimensionnelle des données. Une des limites est de se restreindre à des aspects exploratoires et navigationnels. De plus, avec l'avènement des données complexes (données multi-format et/ou multi-structure et/ou multi-source et/ou multi-modale et/ou multi-version), l'analyse en ligne doit s'adapter à la nature spécifique de ces données tout en gardant l'esprit de l'OLAP. Les opérateurs OLAP sont définis pour des données classiques et sont souvent inadaptés quand il s'agit de données complexes par exemple composées de textes, images, son ou vidéos. Les limites de l'OLAP ainsi que la spécificité des données complexes nécessitent une évolution ou adaptation de l'OLAP. Il devient nécessaire de : (1) enrichir les possibilités de l'analyse OLAP en la dotant de nouvelles possibilités ; (2) créer une analyse en ligne adaptée aux données complexes ; (3) faire évoluer l'OLAP vers une analyse sémantique des données. Dans cette vaste problématique, nous choisissons de traiter les questions d'agrégation et visualisation des données complexes, de réorganisation du cube pour identifier des régions d'analyse intéressantes, et d'étendre l'OLAP à des possibilités d'explication et de prédiction. Pour toutes ces questions, nous essayons également de tenir compte de la sémantique véhiculée par les données. Pour apporter des premières solutions, nous orientons vers une combinaison des principes de l'OLAP, de la fouille de données et de la recherche d'information. Afin d'introduire une analyse explicative dans l'OLAP, nous faisons une recherche guidée de règles d'association dans le cube. Cela nous conduit à modifier la définition du support et de la confiance d'une règle. Les arbres de régression nous permettent de proposer à l'utilisateur de faire de la prédiction dans le cube et d'avoir ainsi une démarche de type What If Analysis. Pour l'analyse des données complexes, deux méthodes factorielles (AFC et ACM) rendent possible la visualisation des faits dans un cube et la détection de régions intéressantes en réorganisant les dimensions du cube. Nous proposons également une agrégation sémantique des faits et une nouvelle hiérarchie de dimension construite automatiquement grâce aux principes d'une méthode de classification (CAH). Nos propositions sont une première démonstration de la faisabilité de combiner l'OLAP à d'autres techniques comme la fouille de données et la recherche d'information pour faire significativement évoluer l'analyse en ligne et s'adapter aux données complexes. L'OLAP a commencé à s'adapter à leur structure et à leur spécificité (XOLAP - XML OLAP, SOLAP - spatial OLAP). Mais il faut aller au delà et nous pensons qu'un des défis est d'extraire et d'analyser (en ligne) la sémantique contenue dans les données complexes. Ce point constitue un véritable verrou scientifique mais qui est que partiellement abordé par la communauté scientifique. Il faudrait également identifier tous les problèmes posés par les données complexes et ce quels que soient leur nature, contexte ou spécificités. Nous voulons poursuivre nos travaux dans cette voie et faire évoluer l'OLAP vers une nouvelle génération d'analyse en ligne : l'OLAP sémantique. Les problèmes majeurs à traiter seront comment : (1) modéliser toutes les formes de données complexes, leur sémantique et leurs liens ; (2) analyser en ligne les données complexes ; (3) Intégrer les connaissances de l'utilisateur dans le processus de l'analyse ?
46

The mobile agent technology application in the distributed data

Lu, Weijia January 2005 (has links) (PDF)
Along with the development of the economy and technology, the network has become more important in people's work and life than before. More and more people take advantage of network to improve the quality of their work and life. The network applications are based on the database visiting, and the database visiting is almost based on the Distributed database. The Distributed data service can be widely used in the corporation and many important fields. More technology and solutions are proposed, including the Mobile Agent technology. Mobile Agent is a code segment that can migration in the network, carrying the task code, using network and computers' resource, cooperating with other MAs, finishing one or more designated tasks. Compared with other mobile code, the MA technology can use less network resource, carry less information, and operate with higher efficiency. Using the technology to solve distributed problems is a hot research topic currently. In this paper, we first review the current research status in the Mobile Agent and distributed data service fields. After that, based on the current issues in the Distributed data service fields, we propose a complete solution using the Mobile Agent technology. Last, with the proposed solution, we construct a complete distributed data service model. In our solution, the traditional Distributed data-retrieving procedure is investigated and enhanced with the Mobile Agent technology to achieve high efficiency. The Mobile Agent related technology, such as MA communication, MA security, and MA cooperation technology are also used to improve the model 's efficiency and reduce the network's cost. We have used a project management system as a sub-model. Compared with the traditional approaches, the model works more efficiently with larger number of stations and large amount of the data-request. Finally, detailed analyzing of one instance is presented to show the characteristic of the model.
47

Évaluation de l'impact de la méthode d'assimilation utilisée sur la phase de démarrage d'un modèle atmosphérique

Chikhar, Kamel 12 1900 (has links) (PDF)
Des lacunes dans la représentation des processus physiques par un modèle atmosphérique peuvent avoir un impact sur le réalisme du climat simulé ainsi que sur sa variabilité. Il a été observé assez souvent que les climats simulés par les modèles diffèrent largement de celui réellement observé dû à la présence de biais. La qualité de la représentation des processus physiques peut être évaluée par l'équilibre entre ces processus dans les premiers instants d'une intégration utilisant comme conditions initiales une analyse. Cette dernière est réputée bien équilibrée car représentant l'état réel de l'atmosphère. Des déséquilibres entre ces processus sont un signe de défaillances du modèle quant à leur représentation. Des diagnostics sont donc nécessaires pour vérifier si les ajustements dans les paramétrisations des différents processus physiques et dynamiques tendent vers un état de l'atmosphère proche des observations. Les diagnostics utilisés sont ceux proposés par Rodwell et Palmer (2007). Ils sont basés sur les tendances systématiques initiales d'un modèle lorsque des analyses sont utilisées comme conditions initiales. Ces tendances déterminées pour les premiers instants de l'intégration sont équivalentes à l'incrément d'analyse moyen obtenu par un ensemble de cycles d'assimilation. Ce dernier, moyenné temporellement devrait être nul. Par conséquent, ces diagnostics peuvent apporter des informations très utiles sur la cohérence des processus physiques pendant que le modèle tend à retourner vers sa propre climatologie lors des premiers instants de l'intégration. D'autre part, il est bien connu que les analyses, elles-mêmes, engendrent des problèmes de spin-up et requièrent entre autres l'utilisation d'une initialisation aux modes normaux ou l'application d'un filtre digital pour supprimer les ondes de gravité artificielles. Dans leur étude, Gauthier et Thépaut (2001) ont montré que les analyses 4D-Var produisent des conditions initiales mieux équilibrées et ne nécessitent pas l'application de contraintes pour maintenir cet équilibre. Dans cette étude, en utilisant un modèle global très similaire à celui utilisé pour produire les analyses, il a été montré que la différence de l'impact sur les diagnostics des tendances initiales était significative dans les tropiques selon qu'on utilise des analyses 3D-Var ou 4D-Var. Cet impact est surtout observé dans l'activité convective de la zone de convergence inter-tropicale (ZCIT). On notera qu'une analyse vise à se rapprocher des observations sous la contrainte de demeurer près d'une ébauche obtenue d'une prévision à courte échéance produite par un modèle de prévision numérique. Ce dernier constitue une composante primordiale dans le système d'assimilation. D'autres expériences utilisant des systèmes d'assimilation différents ont montré, à travers ces diagnostics, que le modèle était très sensible aux conditions initiales utilisées. Finalement, ces diagnostics ont été évalués pour le modèle régional canadien du climat (MRCC) intégré sur la région de l'Amérique du nord avec les mêmes paramétrages que ceux utilisés dans le modèle global. Ces intégrations sont effectuées en utilisant des conditions initiales et aux bords provenant de deux systèmes d'assimilation différents. Les résultats ont montré de nettes différences indiquant que le modèle est mieux équilibré lorsque l'analyse et les conditions aux bords proviennent du système d'assimilation dans lequel le modèle utilisé est similaire à celui employé dans l'intégration. ______________________________________________________________________________
48

Modèle linéaire généralisé hiérarchique Gamma-Poisson pour le contrôle de qualité en microbiologie / Poisson-Gamma hierarchical generalized linear model for quality control in microbiology

Loingeville, Florence 22 January 2016 (has links)
Dans cette thèse, nous proposons une méthode d'analyse de variance pour des données discrètes issues du contrôle de qualité en microbiologie. Nous étudions tout d'abord la méthode d'analyse de variance actuellement utilisée, ses avantages, inconvénients, et limites. Nous proposons une première modélisation du problème par un modèle linéaire à deux facteurs fixes imbriqués. Nous utilisons la méthode d'analyse de déviance pour développer des tests de significativité des facteurs, qui s'avèrent efficaces sur des données d'essais interlaboratoires en microbiologie. Nous présentons ensuite une modélisation à facteurs aléatoires. Le caractère aléatoire des facteurs permet de caractériser la surdispersion des résultats de dénombrement en microbiologie, ce qui constitue l'un des objectifs principaux de ce travail. Le modèle développé correspond à un Modèle Linéaire Généralisé Hiérarchique Gamma-Poisson à trois facteurs aléatoires. Nous proposons alors une méthode d'estimation des effets fixes et aléatoires, ainsi que des paramètres de dispersion associés aux facteurs. Nous présentons des applications pratiques de cette méthode à des données d'essais interlaboratoires en microbiologie, qui prouvent l’ajustement du modèle aux données réelles. Nous proposons également une méthode de test de la significativité des facteurs, ainsi qu'une nouvelle méthode d'évaluation de la performance analytique des laboratoires participants à un essai. Nous présentons enfin une distribution presque-exacte du produit de variables aléatoires indépendantes de loi Gamma Généralisées, permettant d’effectuer des tests de détection de résultats de dénombrement aberrants. / In this thesis, we propose an analysis of variance method for discrete data from quality control in microbiology. To identify the issues of this work, we start by studying the analysis of variance method currently used in microbiology, its benefits, drawbacks, and limits. We propose a first model to respond the problem, corresponding to a linear model with two nested fixed factors. We use the analyse of deviance method to develop significance tests, that proved to be efficient on data sets of proficiency testings in microbiology. We then introduce a new model involving random factors. The randomness of the factors allow to assess and to caracterize the overdispersion observed in results of counts from proficiency testings in microbiology, that is one of the main objectives of this work. The new model corresponds to a Gamma-Poisson Hierarchical Generalized Linear Model with three random factors. We propose a method based on this model to estimate dispersion parameters, fixed, and random effects. We show practical applications of this method to data sets of proficiency testings in microbiology, that prove the goodness of fit of the model to real data. We also develop significance tests of the random factors from this new model, and a new method to assess the performance of the laboratories taking part in a proficiency testing. We finally introduce a near-exact distribution for the product of independent generalized Gamma random variables, in order to characterize the intensity of the Poisson distribution of the model. This approximation, developped from a factorization of the characteristic function, is very precise and can be used to detect outliers.
49

Normalisation et apprentissage de transductions d'arbres en mots / Normalization and learning of tree to words transductions

Laurence, Grégoire 04 June 2014 (has links)
Le stockage et la gestion de données sont des questions centrales en informatique. La structuration sous forme d'arbres est devenue la norme (XML, JSON). Pour en assurer la pérennité et l'échange efficace des données, il est nécessaire d'identifier de nouveaux mécanismes de transformations automatisables. Nous nous concentrons sur l'étude de transformations d'arbres en mots représentées par des machines à états finies. Nous définissons les transducteurs séquentiels d'arbres en mots ne pouvant utiliser qu'une et unique fois chaque nœud de l'arbre d'entrée pour décider de la production. En réduisant le problème d'équivalence des transducteurs séquentiels à celui des morphismes appliqués à des grammaires algébriques (Plandowski, 95), nous prouvons qu'il est décidable en temps polynomial. Cette thèse introduit la notion de transducteur travailleur, forme normalisée de transducteurs séquentiels, cherchant à produire la sortie le «plus tôt possible» dans la transduction. A l'aide d'un algorithme de normalisation et de minimisation, nous prouvons qu'il existe un représentant canonique, unique transducteur travailleur minimal, pour chaque transduction de notre classe. La décision de l’existence d’un transducteur séquentiel représentant un échantillon, i.e. paires d'entrées et sorties d'une transformation, est prouvée NP-difficile. Nous proposons un algorithme d'apprentissage produisant à partir d'un échantillon le transducteur canonique le représentant, ou échouant, le tout en restant polynomial. Cet algorithme se base sur des techniques d'inférence grammaticales et sur l'adaptation du théorème de Myhill-Nerode. / Storage, management and sharing of data are central issues in computer science. Structuring data in trees has become a standard (XML, JSON). To ensure preservation and quick exchange of data, one must identify new mechanisms to automatize such transformations. We focus on the study of tree to words transformations represented by finite state machines. We define sequential tree to words transducers, that use each node of the input tree exactly once to produce an output. Using reduction to the equivalence problem of morphisms applied to context-free grammars (Plandowski, 95), we prove that equivalence of sequential transducers is decidable in polynomial time. We introduce the concept of earliest transducer, sequential transducers normal form, which aim to produce output "as soon as possible" during the transduction. Using normalization and minimization algorithms, we prove the existence of a canonical transducer, unique, minimal and earliest, for each transduction of our class. Deciding the existence of a transducer representing a sample, i.e. pairs of input and output of a transformation, is proved NP-hard. Thus, we propose a learning algorithm that generate a canonical transducer from a sample, or fail, while remaining polynomial. This algorithm is based on grammatical inference techniques and the adaptation of a Myhill-Nerode theorem.
50

Méthode de projection des données pour le diagnostic des systèmes linéaires et bilinéaires / Data-projection method for diagnosis of linear and bilinear systems

Hakem, Assia 27 June 2014 (has links)
Dans cette thèse nous nous sommes intéressés à la détection, la localisation et l'estimation de défauts (capteurs, actionneurs et défauts internes) dans les systèmes modélisés sous forme d'état linéaire et bilinéaire. La méthode que nous proposons, (appelée MPD pour Méthode par Projection des Données), nécessite de connaître la structure du modèle comportemental mais ne nécessite pas de connaître les valeurs des paramètres de ce modèle. Les résidus sont générés par des techniques de projection matricielle en utilisant uniquement les données d'entrées et de sorties mesurées. Cette méthode peut être directement implantée sur des applications de même type sans que les paramètres de chaque système soient identifiés. Cette méthode pourrait donc être très utile pour tester des systèmes en fin de chaîne de fabrication ou pour être implantée sur un parc (groupe) de machines identiques. Elle pourrait être aussi utile pour des systèmes à paramètres difficilement identifiables. Les défauts internes (supposés abrupts et invariants, c'est-à-dire correspondant à un biais constant sur les paramètres) entraînent des dynamiques différentes qui correspondent à des modes de fonctionnement défaillant. Le problème de diagnostic se ramène alors à un problème d'estimation des instants de commutation et de reconnaissance du mode actif à chaque instant. / In this thesis we are interested in detecting, isolating and estimating faults (sensors, actuators and internal faults) in systems modeled as linear and bilinear systems. The method we propose (called MPD Data Projection Method), requires knowledge of the behavioral model structure but does not need to know the parameter values of this model. Residuals are generated by matrix projection techniques using only the input-output measured data. This method can be directly implemented on applications of the same type without the parameter identifications of each system. This method could be very useful for testing systems at the end of the production line or to be located on a park (group) of identical machines. It could also be useful for systems with parameters difficult to identify. Internal faults (assumed abrupt and invariants, that is to say corresponding to a constant bias parameters) lead to different dynamics corresponding to modes of faulty operation. The diagnostic problem then reduces to a problem of estimation of the switching times and recognition of the active mode at each time instant.

Page generated in 0.0508 seconds