• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 53
  • 39
  • 10
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 117
  • 15
  • 15
  • 14
  • 13
  • 13
  • 11
  • 11
  • 11
  • 11
  • 11
  • 10
  • 10
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Sémantická anotace a dotazování nad RDF daty / Semantic annotation and querying RDF data

Kýpeť, Jakub January 2015 (has links)
Title: Semantic annotation and querying RDF data Author: Jakub Kýpeť Department: Department of Software Engineering Supervisor: Prof. RNDr. Peter Vojtáš, DrSc. Abstract: The presented thesis in detail describes a design and an implementation of self-sustained server application, that allows us to create and manage semantic annotations for various web pages. In the first part it describes the manual annotations and the human interface we have build for them. In the second part it also describes our implementation for a web crawler and an automatic annotation system utilizing this crawler. The last part of the thesis analyzes the testing of this automated system that has been performed using several e- commerce websites with different domains. Keywords: semantic annotation, querying RDF data, user interface, web crawl- ing, automatization
92

Phylogeny and evolution of a highly diversified catfish subfamily : the Loricariinae (Siluriformes, Loricariidae) / Phylogénie et évolution d’une sous-famille très diversifiée de poissons-chats : les Loricariinae (Siluriformes, Loricariidae)

Covain, Raphaël 15 September 2011 (has links)
Les Loricariinae appartiennent à la famille des poissons-chats néotropicaux cuirassés Loricariidae, la famille de poissons-chats la plus riche en espèce au monde, et se caractérisent par un pédoncule caudal long et aplati et par l’absence de nageoire adipeuse. Préalablement aux études évolutives réalisées, une phylogénie exhaustive et robuste a été établie sur la base de données mitochondriales et nucléaires. Cette phylogénie a ensuite été utilisée dans des analyses multivariées et multi-tableaux afin de révéler les principales tendances évolutives de la sous-famille. La phylogénie obtenue indique que la tribu Harttiini forme un groupe paraphylétique et est restreinte à trois genres, et que dans la tribu Loricariini, deux sous-tribus soeurs se distinguent, les Farlowellina et les Loricariina, chacune présentant des patterns évolutifs complexes. Plusieurs nouveaux taxa ont aussi été mis en évidence et décrits. En utilisant la phylogénie comme outil exploratoire, nous avons démontré : (1) avec l’analyse de co-inertie que les caractères diagnostiques fournis pour définir les différents genres étaient sous dépendance phylogénétique ; (2) avec l’analyse de co-inertie multiple que les forces évolutives sous-jacentes dirigeant leur diversification incluaient des composantes intraphénotypiques (morphologie et génétique) et extraphénotypique (écologie et distribution) ; (3) avec l’analyse RLQ que des évènements de co-dispersion entre espèces codistribuées avaient eu lieu et étaient responsables de la distribution actuelle des espèces ; et (4) avec l’analyse de patterns multi-échelles que la co-évolution des traits liés aux caractéristiques de la bouche était liée à des fonctions reproductrices responsables d’une évolution tertiaire de cet organe. / The Loricariinae belong to the Neotropical mailed catfish family Loricariidae, the mostspeciose catfish family in the world, and are united by a long and flattened caudal peduncle and the absence of an adipose fin. Despite numerous works conducted on this group, no phylogeny is presently available. Prior to conduct evolutionary studies, an exhaustive and robust phylogeny was reconstructed using mitochondrial and nuclear data. Then, this phylogeny was used in multivariate and multi-table analyses to reveal the main evolutionary trends of the subfamily. The resulting phylogeny indicated that the Harttiini tribe, as classically defined, formed a paraphyletic assemblage and was restricted to three genera, and within the Loricariini tribe, two sister subtribes were distinguished, Farlowellina and Loricariina, both displaying complex evolutionary patterns. In addition several new taxa were highlighted and described. Subsequently using this phylogeny as exploratory tool, we demonstrated: (1) using co-inertia analysis that the diagnostic features provided to define the different genera were phylogenetically dependent; (2) using multiple co-inertia analysis that the underlying evolutionary forces shaping their diversification included intraphenotypic (morphology and genetics) and extraphenotypic (ecology and distribution) components; (3) using the RLQ analysis that co-dispersion events occurred between co-distributed species responsible for the current fish distribution; and (4) using the multi-scale pattern analysis that the co-evolution in traits related to the mouth characteristics was linked to reproductive functions responsible for a tertiary evolution of this organ.
93

Échantillonnages Monte Carlo et quasi-Monte Carlo pour l'estimation des indices de Sobol' : application à un modèle transport-urbanisme / Monte Carlo and quasi-Monte Carlo sampling methods for the estimation of Sobol' indices : application to a LUTI model

Gilquin, Laurent 17 October 2016 (has links)
Le développement et l'utilisation de modèles intégrés transport-urbanisme sont devenus une norme pour représenter les interactions entre l'usage des sols et le transport de biens et d'individus sur un territoire. Ces modèles sont souvent utilisés comme outils d'aide à la décision pour des politiques de planification urbaine.Les modèles transport-urbanisme, et plus généralement les modèles mathématiques, sont pour la majorité conçus à partir de codes numériques complexes. Ces codes impliquent très souvent des paramètres dont l'incertitude est peu connue et peut potentiellement avoir un impact important sur les variables de sortie du modèle.Les méthodes d'analyse de sensibilité globales sont des outils performants permettant d'étudier l'influence des paramètres d'un modèle sur ses sorties. En particulier, les méthodes basées sur le calcul des indices de sensibilité de Sobol' fournissent la possibilité de quantifier l'influence de chaque paramètre mais également d'identifier l'existence d'interactions entre ces paramètres.Dans cette thèse, nous privilégions la méthode dite à base de plans d'expériences répliqués encore appelée méthode répliquée. Cette méthode a l'avantage de ne requérir qu'un nombre relativement faible d'évaluations du modèle pour calculer les indices de Sobol' d'ordre un et deux.Cette thèse se focalise sur des extensions de la méthode répliquée pour faire face à des contraintes issues de notre application sur le modèle transport-urbanisme Tranus, comme la présence de corrélation entre paramètres et la prise en compte de sorties multivariées.Nos travaux proposent également une approche récursive pour l'estimation séquentielle des indices de Sobol'. L'approche récursive repose à la fois sur la construction itérative d'hypercubes latins et de tableaux orthogonaux stratifiés et sur la définition d'un nouveau critère d'arrêt. Cette approche offre une meilleure précision sur l'estimation des indices tout en permettant de recycler des premiers jeux d'évaluations du modèle. Nous proposons aussi de combiner une telle approche avec un échantillonnage quasi-Monte Carlo.Nous présentons également une application de nos contributions pour le calage du modèle de transport-urbanisme Tranus. / Land Use and Transportation Integrated (LUTI) models have become a norm for representing the interactions between land use and the transportation of goods and people in a territory. These models are mainly used to evaluate alternative planning scenarios, simulating their impact on land cover and travel demand.LUTI models and other mathematical models used in various fields are most of the time based on complex computer codes. These codes often involve poorly-known inputs whose uncertainty can have significant effects on the model outputs.Global sensitivity analysis methods are useful tools to study the influence of the model inputs on its outputs. Among the large number of available approaches, the variance based method introduced by Sobol' allows to calculate sensitivity indices called Sobol' indices. These indices quantify the influence of each model input on the outputs and can detect existing interactions between inputs.In this framework, we favor a particular method based on replicated designs of experiments called replication method. This method appears to be the most suitable for our application and is advantageous as it requires a relatively small number of model evaluations to estimate first-order or second-order Sobol' indices.This thesis focuses on extensions of the replication method to face constraints arising in our application on the LUTI model Tranus, such as the presence of dependency among the model inputs, as far as multivariate outputs.Aside from that, we propose a recursive approach to sequentially estimate Sobol' indices. The recursive approach is based on the iterative construction of stratified designs, latin hypercubes and orthogonal arrays, and on the definition of a new stopping criterion. With this approach, more accurate Sobol' estimates are obtained while recycling previous sets of model evaluations. We also propose to combine such an approach with quasi-Monte Carlo sampling.An application of our contributions on the LUTI model Tranus is presented.
94

Machines et langages pour traiter les ensembles de données (Textes, tableaux, fichiers)

Rohmer, Jean 18 December 1980 (has links) (PDF)
.
95

Approches PLS linéaires et non linéaires pour la modélisation de multi-tableaux. Théorie et applications

Vivien, Myrtille 03 December 2002 (has links) (PDF)
Ce travail concerne les analyses multi-tableaux de données et plus particulièrement la régression. Présentées sous forme d'un recueil, nous exposons un grand nombre de méthodes peu connues pour la majorité, pour l'analyse des multi-tableaux.<br /><br />Notre travail se compose de trois parties. La première partie, contenant sept chapitres, expose les méthodes de modélisation linéaires. Elles sont classées par type d'analyse (conjointe ou régression) et par domaine d'application (cube ou multi-tableaux). Nous en introduisons plusieurs nouvelles de type PLS, basées sur l'optimisation d'un critère sous contraintes par étape, pour analyser simultanément un (ACIMO) ou plusieurs (ACIMOG1,2, 3) ensembles de tableaux, pour modéliser un ensemble de tableaux par un autre (ACIMO-PLS, ACIMOG-PLS1,2 3, REMUB) et appliquons l'ACIMO à l'intrastructure de STATIS pour en améliorer les trajectoires. De plus, nous proposons une généralisation de la méthode STATIS au cas de deux ensembles de tableaux (DO-ACT), aussi basée sur l'optimisation d'un critère sous contraintes. <br /><br />Un chapitre est consacré à ce qui touche la pratique de ces méthodes, dans lequel nous abordons la question du choix de blocs explicatifs importants dans les modèles de régression multi-tableaux, qui n'a encore jamais été abordée. Nous proposons plusieurs critères pour répondre à cela.<br /><br />La seconde partie, moins importante en taille, concerne la modélisation non-linéaire en régression multi-tableaux. Après une revue des méthodes de régression PLS non-linéaire pour deux tableaux, nous introduisons deux méthodes (SARMUB1 et 2) pour la régression non-linéaire des multi-tableaux, basées sur la recherche de transformations splines des prédicteurs optimales. Enfin, nos méthodes, programmées en S-Plus, ayant pour but principal d'être appliquées, nous proposons dans la troisième partie les résultats de plusieurs applications dans divers domaines, tels que la chimiométrie, l'analyse sensorielle, l'écologie ...
96

La cohérence conceptuelle d’étudiants collégiaux en mécanique newtonienne et en métrologie

Périard, Martin 12 1900 (has links)
Cette thèse porte sur l’évaluation de la cohérence du réseau conceptuel démontré par des étudiants de niveau collégial inscrits en sciences de la nature. L’évaluation de cette cohérence s’est basée sur l’analyse des tableaux de Burt issus des réponses à des questionnaires à choix multiples, sur l’étude détaillée des indices de discrimination spécifique qui seront décrits plus en détail dans le corps de l’ouvrage et sur l’analyse de séquences vidéos d’étudiants effectuant une expérimentation en contexte réel. Au terme de ce projet, quatre grands axes de recherche ont été exploré. 1) Quelle est la cohérence conceptuelle démontrée en physique newtonienne ? 2) Est-ce que la maîtrise du calcul d’incertitude est corrélée au développement de la pensée logique ou à la maîtrise des mathématiques ? 3) Quelle est la cohérence conceptuelle démontrée dans la quantification de l’incertitude expérimentale ? 4) Quelles sont les procédures concrètement mise en place par des étudiants pour quantifier l’incertitude expérimentale dans un contexte de laboratoire semi-dirigé ? Les principales conclusions qui ressortent pour chacun des axes peuvent se formuler ainsi. 1) Les conceptions erronées les plus répandues ne sont pas solidement ancrées dans un réseau conceptuel rigide. Par exemple, un étudiant réussissant une question sur la troisième loi de Newton (sujet le moins bien réussi du Force Concept Inventory) montre une probabilité à peine supérieure de réussir une autre question sur ce même sujet que les autres participants. De nombreux couples de questions révèlent un indice de discrimination spécifique négatif indiquant une faible cohérence conceptuelle en prétest et une cohérence conceptuelle légèrement améliorée en post-test. 2) Si une petite proportion des étudiants ont montré des carences marquées pour les questions reliées au contrôle des variables et à celles traitant de la relation entre la forme graphique de données expérimentales et un modèle mathématique, la majorité des étudiants peuvent être considérés comme maîtrisant adéquatement ces deux sujets. Toutefois, presque tous les étudiants démontrent une absence de maîtrise des principes sous-jacent à la quantification de l’incertitude expérimentale et de la propagation des incertitudes (ci-après appelé métrologie). Aucune corrélation statistiquement significative n’a été observée entre ces trois domaines, laissant entendre qu’il s’agit d’habiletés cognitives largement indépendantes. Le tableau de Burt a pu mettre en lumière une plus grande cohérence conceptuelle entre les questions de contrôle des variables que n’aurait pu le laisser supposer la matrice des coefficients de corrélation de Pearson. En métrologie, des questions équivalentes n’ont pas fait ressortir une cohérence conceptuelle clairement démontrée. 3) L’analyse d’un questionnaire entièrement dédié à la métrologie laisse entrevoir des conceptions erronées issues des apprentissages effectués dans les cours antérieurs (obstacles didactiques), des conceptions erronées basées sur des modèles intuitifs et une absence de compréhension globale des concepts métrologiques bien que certains concepts paraissent en voie d’acquisition. 4) Lorsque les étudiants sont laissés à eux-mêmes, les mêmes difficultés identifiées par l’analyse du questionnaire du point 3) reviennent ce qui corrobore les résultats obtenus. Cependant, nous avons pu observer d’autres comportements reliés à la mesure en laboratoire qui n’auraient pas pu être évalués par le questionnaire à choix multiples. Des entretiens d’explicitations tenus immédiatement après chaque séance ont permis aux participants de détailler certains aspects de leur méthodologie métrologique, notamment, l’emploi de procédures de répétitions de mesures expérimentales, leurs stratégies pour quantifier l’incertitude et les raisons sous-tendant l’estimation numérique des incertitudes de lecture. L’emploi des algorithmes de propagation des incertitudes a été adéquat dans l’ensemble. De nombreuses conceptions erronées en métrologie semblent résister fortement à l’apprentissage. Notons, entre autres, l’assignation de la résolution d’un appareil de mesure à affichage numérique comme valeur de l’incertitude et l’absence de procédures d’empilement pour diminuer l’incertitude. La conception que la précision d’une valeur numérique ne peut être inférieure à la tolérance d’un appareil semble fermement ancrée. / This thesis evaluates the coherence of the conceptual network demonstrated by college students in life and applied sciences. This evaluation was based on the analysis of Burt tables issuing from multiple choice questionnaires, on the creation and careful examination of a novel tool, the matrix of specific discrimination coefficients, which will be described in the main text, and on the qualitative analysis of actual laboratory work of students doing an experimentation. At the completion of this project, four research axis have been explored. 1) What is the conceptual coherence demonstrated in Newtonian mechanics? 2) Is the mastery of uncertainty quantification related to the development of logical thinking or to mathematical competency? 3) What is the conceptual coherence demonstrated in the quantification of experimental uncertainty? 4) What are the concrete procedures utilized by students to quantify experimental uncertainty in a semi-directed laboratory context? The main conclusions that emerged from each axis of research can be summerized as follow. 1) The most prevalent erroneous conceptions are not solidly set in a rigid conceptual network. For example, a student successful in a question about Newton’s third law (the most difficult subject of the Force Concept Inventory) is just slightly more likely to succeed in another related question than the other participants. Many pairs of questions displays a negative specific discrimination coefficient demonstrating a weak conceptual coherence in pre-test and a somewhat ameliorated conceptual coherence in post-test. 2) If a small proportion of students has demonstrated marked deficiencies in questions related with control of variable and in those related to the relationship between the graphical display of experimental data and a mathematical model, the majority of students can be considered as adequately mastering those subjects. However, almost every student demonstrated a lack of mastery of concepts underlying the quantification of experimental uncertainty and the propagation of uncertainty (heretofore referred to as metrology). No statistically significant correlation has been observed between the three main topics suggesting that they are largely independent cognitive abilities. Burt table has demonstrated a greater degree of conceptual coherence between control of variables questions than suggested by Pearson correlation coefficients. Equivalent question in the topic of metrology did not permit to demonstrate a clear conceptual coherence. 3) Analysis of a questionnaire entirely devoted to metrology has shown erroneous conceptions caused by prior learning (didactical obstacles), erroneous conceptions based on intuitive models and a lack of global comprehension of metrological concepts although some appear to be almost acquired. 4) When doing real experiments in semi-directed laboratory, students demonstrated the same difficulty identified in the questionnaire of 3) which could interpreted as corroborating previously obtaine results. However, many unanticipated behaviors related to measurement were observed that could not have been anticipated solely by analyzing answers in the multiple-choice questionnaire. Interviews immediately following each semi-directed laboratory permitted the participants to detail certain aspects of their metrological methodology. Most notably, the use of repeated measurement strategies, their « spontaneous » strategies to quantify uncertainty, and their explanation of numerical estimates of reading uncertainties. Overall, uncertainty propagation algorithms were adequately employed. Many erroneous metrological conceptions seem to resist strongly to be modified by learning. Among others, assignation of the resolution of a digital scale as the uncertainty value and the lack of stacking strategies to diminish uncertainty. The conception that a numerical value cannot be more precise than the tolerance of an instrument seems firmly set.
97

L'ekphrasis dans "À la recherche du temps perdu" : "écrire, lire et voir la peinture" / The ekphrasis in 'In search of lost time' : "writing, reading and viewing painting"

Gonçalves, Jediel 17 December 2016 (has links)
En intégrant la peinture dans son écriture, Proust propose un équivalent visible de l’écriture. La peinture fait sortir du livre l’image visible et la met à la portée du lecteur. Grâce à la peinture, l’écriture sort du cadre des mots pour avoir une existence visuelle. Au lieu de dire ce qu’il « voit », Proust fait voir ce qu’il dit. L’art pictural constitue ici le point de départ à un mouvement de libération de l’imagination. L’écriture trouve dans la peinture l’énergie pour de nouvelles conquêtes sur l’inédit, de même que la peinture accède à une mobilité vivante à travers l’écrit. C’est précisément dans l’animation réciproque des deux arts que se joue la relation entre littérature et peinture chez Proust : lorsque le texte-tableau cesse d’être vu, l’écrit le remet en mouvement pour restituer sa complexité. Les réflexions évoquées dans l’expérience de cette recherche auront le but de montrer comment la littérature et la peinture (se) fondent (dans) la création verbale et comment elles aboutissent à la naissance d’une image mentale qui prend la forme d’une peinture. Dans cette étude, nous cherchons à approfondir diverses formes de mise en scène de l’image littéraire, ainsi qu’à montrer le processus dialectique de différents effets, l’effet figuratif et l’effet qui « fait tableau ». / By integrating painting in his writing, Proust offers a visible equivalent of writing. The paintings bring out of the book some visible images and put them within the eyes of the reader. Through painting, writing goes beyond the ‘scope’ of words and absorbs a visual existence. Instead of saying what he “sees”, Proust prefers showing what he says.The pictorial art is here the starting point to the imagination liberation movement. Writing learns from the paintings the energy to conquer a new form, and painting can access to a vivid mobility through writing. It is precisely in these reciprocal animations between arts that Proust intends to stablish the relationship literature-painting: when the text-picture ceases to be seen, writing re-introduces it into the movement and restores its complexity.The considerations discussed during this research aim to investigate how the relationship between literature and painting is based on a verbal creation and how these arts deliver a mental image that takes the form of a painting. In this study, we seek to concentrate on various aspects of ‘staging’ of the literary image, and to investigate dialectical process of different, figurative and painting-producing effects.
98

Approche métabolomique pour l'étude de l'évolution adaptative de Pseudomonas aeruginosa au cours des infections pulmonaires chroniques dans la mucoviscidose / A metabolomics approach to study within-host adaptation of Pseudomonas aeruginosa during cystic fibrosis chronic lung infections

Moyne, Oriane 29 March 2019 (has links)
L’infection pulmonaire chronique à Pseudomonas aeruginosa (P. a.) est considérée comme la principalecause de morbidité et de mortalité liée à la mucoviscidose. Au cours de cette infection persistante, labactérie s'adapte à l’environnement pulmonaire caractéristique de ces patients et évolue avec son hôtependant des décennies. Cette évolution adaptative est portée par les phénotypes, avec notamment unediminution de la virulence et une augmentation de la résistance aux antibiotiques au cours du temps. Bienque plusieurs études aient tenté d’évaluer les mécanismes génétiques de cette évolution, il demeureaujourd’hui difficile d’expliquer les relations entre les mutations accumulées dans le génome bactérien etl’expression de phénotypes cliniquement pertinents, ou encore de corréler ces mutations avec l’état desanté du patient.Nous proposons dans ce travail d’étudier les mécanismes sous-tendant cette évolution adaptative à unniveau d’observation post-génomique : la métabolomique. Dernière-née des disciplines –omiques, lamétabolomique permet la prise de vue instantanée du métabolisme, et offre une vision au plus proche duphénotype. Pour cela, nous avons constitué une banque de lignées clonales évolutives de P. a. prélevéesau cours de l’infection pulmonaire chronique chez des patients atteints de mucoviscidose. Cette banque aensuite été caractérisée aux plans clinique, phénotypique et métabolomique. L’intégration de ces différentsniveaux d’information par des méthodes statistiques multi-tableaux nous a permis de mettre en évidencedes voies métaboliques impliquées dans la patho-adaptation de P. a. à son hôte.Nos résultats permettent de faire émerger de nouvelles hypothèses pour le développement d’outilsthérapeutiques et diagnostiques visant à améliorer la prise en charge de ces infections particulièrementrésistantes aux antibiotiques. De plus, nos travaux démontrent l’intérêt de la métabolomique pour l’étudede l’évolution adaptative bactérienne en conditions naturelles. / Chronic lung infection with Pseudomonas aeruginosa (P. a.) is considered as the leading cause of cysticfibrosis (CF) morbidity and mortality. During this persistent infection, the bacterium adapts to the typical lungenvironment of these patients and evolves within its host for decades. This adaptive evolution is driven byphenotypes, including a decrease in virulence and an increase in antibiotic resistance over time. Althoughseveral studies have attempted to elucidate the genetic mechanisms of this evolution, it remains difficulttoday to explain the relationships between the accumulated genomic mutations and the expression ofclinically relevant phenotypes, or to correlate these mutations with the patient’s health status.In this work, we propose to study the mechanisms underlying this adaptive evolution at a post-genomicobservation level: metabolomics. Metabolomics, the newest of the -omics disciplines, provides an instantview of the metabolic activities, and furnishes a vision as close as possible to the phenotype. To this end,we constructed a bank of evolutive clonal P. a. lineages sampled during chronic lung infection in patientswith CF. This bank was then clinically, phenotypically and metabolomically characterized. Integration ofthese different levels of information by multi-block statistical methods has allowed us to highlight metabolicpathways involved in within-host patho-adaptation of P. a. .Our results rise new hypotheses for the development of therapeutic and diagnostic tools with the aim ofimproving the management of these infections particularly resistant to antibiotics. In addition, our workdemonstrates the interest of metabolomics to study bacterial adaptive evolution under natural conditions.
99

Modèle de forêts enracinées sur des cycles et modèle de perles via les dimères / Cycle-rooted-spanning-forest model and bead model via dimers

Sun, Wangru 07 February 2018 (has links)
Le modèle de dimères, également connu sous le nom de modèle de couplage parfait, est un modèle probabiliste introduit à l'origine dans la mécanique statistique. Une configuration de dimères d'un graphe est un sous-ensemble des arêtes tel que chaque sommet est incident à exactement une arête. Un poids est attribué à chaque arête et la probabilité d'une configuration est proportionnelle au produit des poids des arêtes présentes. Dans cette thèse, nous étudions principalement deux modèles qui sont liés au modèle de dimères, et plus particulièrement leur comportements limites. Le premier est le modèle des forêts couvrantes enracinées sur des cycles (CRSF) sur le tore, qui sont en bijection avec les configurations de dimères via la bijection de Temperley. Dans la limite quand la taille du tore tend vers l'infini, la mesure sur les CRSF converge vers une mesure de Gibbs ergodique sur le plan tout entier. Nous étudions la connectivité de l'objet limite, prouvons qu'elle est déterminée par le changement de hauteur moyen de la mesure de Gibbs ergodique et donnons un diagramme de phase. Le second est le modèle de perles, un processus ponctuel sur $\mathbb{Z}\times\mathbb{R}$ qui peut être considéré comme une limite à l'échelle du modèle de dimères sur un réseau hexagonal. Nous formulons et prouvons un principe variationnel similaire à celui du modèle dimère \cite{CKP01}, qui indique qu'à la limite de l'échelle, la fonction de hauteur normalisée d'une configuration de perles converge en probabilité vers une surface $h_0$ qui maximise une certaine fonctionnelle qui s'appelle "entropie". Nous prouvons également que la forme limite $h_0$ est une limite de l'échelle des formes limites de modèles de dimères. Il existe une correspondance entre configurations de perles et (skew) tableaux de Young standard, qui préserve la mesure uniforme sur les deux ensembles. Le principe variationnel du modèle de perles implique une forme limite d'un tableau de Young standard aléatoire. Ce résultat généralise celui de \cite{PR}. Nous dérivons également l'existence d'une courbe arctique d'un processus ponctuel discret qui encode les tableaux standard, defini dans \cite{Rom}. / The dimer model, also known as the perfect matching model, is a probabilistic model originally introduced in statistical mechanics. A dimer configuration of a graph is a subset of the edges such that every vertex is incident to exactly one edge of the subset. A weight is assigned to every edge, and the probability of a configuration is proportional to the product of the weights of the edges present. In this thesis we mainly study two related models and in particular their limiting behavior. The first one is the model of cycle-rooted-spanning-forests (CRSF) on tori, which is in bijection with toroidal dimer configurations via Temperley's bijection. This gives rise to a measure on CRSF. In the limit that the size of torus tends to infinity, the CRSF measure tends to an ergodic Gibbs measure on the whole plane. We study the connectivity property of the limiting object, prove that it is determined by the average height change of the limiting ergodic Gibbs measure and give a phase diagram. The second one is the bead model, a random point field on $\mathbb{Z}\times\mathbb{R}$ which can be viewed as a scaling limit of dimer model on a hexagon lattice. We formulate and prove a variational principle similar to that of the dimer model \cite{CKP01}, which states that in the scaling limit, the normalized height function of a uniformly chosen random bead configuration lies in an arbitrarily small neighborhood of a surface $h_0$ that maximizes some functional which we call as entropy. We also prove that the limit shape $h_0$ is a scaling limit of the limit shapes of a properly chosen sequence of dimer models. There is a map form bead configurations to standard tableaux of a (skew) Young diagram, and the map is measure preserving if both sides take uniform measures. The variational principle of the bead model yields the existence of the limit shape of a random standard Young tableau, which generalizes the result of \cite{PR}. We derive also the existence of an arctic curve of a discrete point process that encodes the standard tableaux, raised in \cite{Rom}.
100

Détection de tableaux dans des documents : une étude de TableBank

Yockell, Eugénie 04 1900 (has links)
L’extraction d’information dans des documents est une nécessité, particulièrement dans notre ère actuelle où il est commun d’employer un téléphone portable pour photographier des documents ou des factures. On trouve aussi une utilisation répandue de documents PDF qui nécessite de traiter une imposante quantité de documents digitaux. Par leur nature, les données des documents PDF sont complexes à extraire, nécessitant d’être analysés comme des images. Dans cette recherche, on se concentre sur une information particulière à prélever: des tableaux. En effet, les tableaux retrouvés dans les docu- ments représentent une entité significative, car ils contiennent des informations décisives. L’utilisation de modèles neuronaux pour performer des extractions automatiques permet considérablement d’économiser du temps et des efforts. Dans ce mémoire, on définit les métriques, les modèles et les ensembles de données utilisés pour la tâche de détection de tableaux. On se concentre notamment sur l’étude des ensembles de données TableBank et PubLayNet, en soulignant les problèmes d’an- notations présents dans l’ensemble TableBank. On relève que différentes combinaisons d’ensembles d’entraînement avec TableBank et PubLayNet semblent améliorer les perfor- mances du modèle Faster R-CNN, ainsi que des méthodes d’augmentations de données. On compare aussi le modèle de Faster R-CNN avec le modèle CascadeTabNet pour la détection de tableaux où ce premier demeure supérieur. D’autre part, on soulève un enjeu qui est peu discuté dans la tâche de détection d’objets, soit qu’il existe une trop grande quantité de métriques. Cette problématique rend la comparaison de modèles ardue. On génère ainsi les résultats de modèles selon plusieurs métriques afin de démontrer qu’elles conduisent généralement vers différents modèles gagnants, soit le modèle ayant les meilleures performances. On recommande aussi les métriques les plus pertinentes à observer pour la détection de tableaux, c’est-à- dire APmedium/APmedium, Pascal AP85 ou COCO AP85 et la métrique de TableBank. / Extracting information from documents is a necessity, especially in today’s age where it is common to use a cell phone to photograph documents or invoices. There is also the widespread use of PDF documents that requires processing a large amount of digital documents. Due to their nature, the data in PDF documents are complex to retrieve, needing to be analyzed as images. In this research, we focus on a particular information to be extracted: tables. Indeed, the tables found in documents represent a significant entity, as they contain decisive information. The use of neural networks to perform automatic retrieval saves time and effort. In this research, the metrics, models and datasets used for the table detection task are defined. In particular, we focus on the study of the TableBank and PubLayNet datasets, highlighting the problems of annotations present in the TableBank set. We point out that different combinations of training sets using TableBank and PubLayNet appear to improve the performance of the Faster R-CNN model, as well as data augmentation methods. We also compare the Faster R-CNN model with the CascadeTabNet model for table detection where the former remains superior. In addition, we raise an issue that is not often discussed in the object detection task, namely that there are too many metrics. This problem makes model comparison difficult. We therefore generate results from models with several metrics in order to demonstrate the influence of these metrics in defining the best performing model. We also recommend the most relevant metrics to observe for table detection, APmedium/APmedium, Pascal AP85 or COCO AP85 and the TableBank metric.

Page generated in 0.0409 seconds