• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 74
  • 23
  • 6
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 116
  • 52
  • 25
  • 19
  • 16
  • 16
  • 15
  • 14
  • 14
  • 12
  • 12
  • 12
  • 11
  • 11
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Les verbes à complément attributif en français et en arabe et leurs traductions / The verbs with attributive complement in french and in arabic and their translations

Al Yafi, Hanadi 21 October 2011 (has links)
La présente thèse relève à la fois de la linguistique et de la traduction. La traduction fait apparaître les similitudes et les différences sémantiques et syntaxiques entre les systèmes langagiers de la langue de départ et la langue d’arrivée. La traduction des verbes à compléments attributifs exige une connaissance approfondie de leur grammaire et de la syntaxe de leurs constructions. Une étude descriptive séparée de chaque langue présente un schéma syntaxique de ces verbes en français et en arabe. Cette thèse examine dans la dernière partie le cas du verbe kāna, verbe très important et de haute fréquence parmi les verbes à compléments attributifs étudiés. L’analyse portait sur le texte coranique. Une approche comparative montre que les équivalents de « kāna + préposition » trouvés dans la traduction de Blachère ne correspondent pas aux équivalents donnés par les dictionnaires et qu’il était impossible de traduire un verbe en se contentant de recourir à ces derniers, qui ne nous donnent pas toujours un équivalent parfait du verbe étudié et ne recouvrent pas tous les contextes possibles. En tant qu’exposant temporel ou verbe d’état, le verbe kāna doit être traduit d’après des indices contextuels (les marqueurs de la négation, modalités, préposition, …). Cette analyse indique clairement que le contexte immédiat et médiat du verbe joue un rôle primordial dans sa traduction comme on peut le voir avec le verbe kāna illustré par des exemples tirés du texte coranique. / This thesis pertains to both linguistics and translation studies. Translating from one language to another presents semantic and syntactic similarities and differences between Arabic and French. The translation of verbs with attributive complement demands a very good understanding of the grammar and of the syntactic constructions of the phrases containing these verbs. Separate studies of Arabic and French show a syntactical pattern of their verbs with attributive complement. This thesis also analyzes the use of the extremely important verb, kāna, the most frequently used between the Arabic verbs with an attribute studied in the corpus. We analysed its uses in the Coran. A close comparison shows that the equivalents of " kāna + preposition " that Blachère gives in his translation do not match with those found in dictionaries. In fact, translating this verb only with the definitions found in dictionaries is impossible. A dictionary as a single source will never be sufficient in the realm of translation. As a temporal exponent or a state verb, kāna must be translated by using contextual clues including (negation marker, modality, prepositions, …). This analysis clearly indicates that both direct and indirect contexts of a verb play an essential role in its translation. The verb, kāna, with its examples from the Coran documents this principle.
82

Méthodes de detection robustes avec apprentissage de dictionnaires. Applications à des données hyperspectrales / Detection tests for worst-case scenarios with optimized dictionaries. Applications to hyperspectral data

Raja Suleiman, Raja Fazliza 16 December 2014 (has links)
Le travail dans cette thèse porte sur le problème de détection «one among many» où l’on doit distinguer entre un bruit sous H0 et une parmi L alternatives connues sous H1. Ce travail se concentre sur l’étude et la mise en œuvre de méthodes de détection robustes de dimension réduite utilisant des dictionnaires optimisés. Ces méthodes de détection sont associées au test de Rapport de Vraisemblance Généralisé. Les approches proposées sont principalement évaluées sur des données hyperspectrales. Dans la première partie, plusieurs sujets techniques associés à cette thèse sont présentés. La deuxième partie met en évidence les aspects théoriques et algorithmiques des méthodes proposées. Deux inconvénients liés à un grand nombre d’alternatives se posent. Dans ce cadre, nous proposons des techniques d’apprentissage de dictionnaire basées sur un critère robuste qui cherche à minimiser la perte de puissance dans le pire des cas (type minimax). Dans le cas où l’on cherche un dictionnaire à K = 1 atome, nous montrons que la solution exacte peut être obtenue. Ensuite, nous proposons dans le cas K > 1 trois algorithmes d’apprentissage minimax. Finalement, la troisième partie de ce manuscrit présente plusieurs applications. L’application principale concerne les données astrophysiques hyperspectrales de l’instrument Multi Unit Spectroscopic Explorer. Les résultats numériques montrent que les méthodes proposées sont robustes et que le cas K > 1 permet d’augmenter les performances de détection minimax par rapport au cas K = 1. D’autres applications possibles telles que l’apprentissage minimax de visages et la reconnaissance de chiffres manuscrits dans le pire cas sont présentées. / This Ph.D dissertation deals with a "one among many" detection problem, where one has to discriminate between pure noise under H0 and one among L known alternatives under H1. This work focuses on the study and implementation of robust reduced dimension detection tests using optimized dictionaries. These detection methods are associated with the Generalized Likelihood Ratio test. The proposed approaches are principally assessed on hyperspectral data. In the first part, several technical topics associated to the framework of this dissertation are presented. The second part highlights the theoretical and algorithmic aspects of the proposed methods. Two issues linked to the large number of alternatives arise in this framework. In this context, we propose dictionary learning techniques based on a robust criterion that seeks to minimize the maximum power loss (type minimax). In the case where the learned dictionary has K = 1 column, we show that the exact solution can be obtained. Then, we propose in the case K > 1 three minimax learning algorithms. Finally, the third part of this manuscript presents several applications. The principal application regards astrophysical hyperspectral data of the Multi Unit Spectroscopic Explorer instrument. Numerical results show that the proposed algorithms are robust and in the case K > 1 they allow to increase the minimax detection performances over the K = 1 case. Other possible applications such as worst-case recognition of faces and handwritten digits are presented.
83

Divergences et convergences dans la terminologie médicale vétérinaire pour les vertébrés domestiques entre le roumain et le français / Divergences and convergences in the veterinary medical terminology for domestic vertebrates between Romanian and French

Barna, Corina 18 December 2014 (has links)
L’objet de cette thèse est de préparer un dictionnaire de médecine vétérinaire français-roumain et roumain-français. A cette fin, dans une première étape, nous avons étudié les méthodes employées au fil du temps par les maîtres de la terminologie. Nos méthodes de travail ont été offertes par nos collègues plus expérimentés et par les normes ISO de terminologie. Ainsi, nos recherches se sont constituées dans un essai de modélisation du travail terminologique, au cours de la recherche des meilleures méthodes. Dans une deuxième étape, nous avons constitué un corpus de recherche, en se basant sur les méthodes de la linguistique de corpus. Nous avons constitué un corpus de 2193 thèses de doctorat vétérinaires VeThèses des 11 années (1998-2008) des quatre écoles vétérinaires françaises, des thèses disponibles en format numérique, autour du thème des vertébrés domestiques. L’étape de dépouillement terminologique a compris aussi un essai de systématisation des termes. Les résultats de ce travail sur le corpus se sont constitués dans une nomenclature et la base de données VeTerm. / The purpose of this thesis is to prepare a French-Romanian / Romanian-French dictionary of veterinary medicine. In order to achieve this purpose, a first step was to study the methods used over time by the masters of the language. Our work methods have been offered by our more experienced colleagues and the ISO terminology norms. Thus, our research consisted in an essay to modeling the terminology work, on the way to find the best methods. In a second step, we established a research corpus, based on the methods of corpus linguistics. We have assembled a corpus of 2193 veterinary theses from 11 years (1998-2008) of the four French veterinary schools - VeThèses, on the theme of domestic vertebrates, theses available in digitized format. The term extraction step includes an essay to systematize the terms. The results of this work on the corpus formed a nomenclature and the VeTerm database. We plan to continue the researches in the direction of creating an ontology of the veterinary field, in order to create a dictionary of veterinary medicine that covers this field as best possible.
84

[en] DESCRIPTION AND FORMALIZATION OF COMPOUND WORD IN BRAZILIAN PORTUGUESE FOR AN ELECTRONIC DICTIONARY / [fr] DESCRIPTION ET FORMALISATION DE MOTS COMPOSÉS DU BRÉSILIEN EN VUE DE L´ÉLABORATION D´UN DICTIONNAIRE ÉLECTRONIQUE / [pt] DESCRIÇÃO E FORMALIZAÇÃO DE PALAVRAS COMPOSTAS DO PORTUGUÊS DO BRASIL PARA ELABORAÇÃO DE UM DICIONÁRIO ELETRÔNICO

AUCIONE DAS DORES SMARSARO 10 September 2004 (has links)
[pt] Neste trabalho estudam-se os nomes com a estrutura NdeN que podem ser descritos como nomes compostos por justaposição. São observadas 1.500 seqüências de palavras, com o objetivo de contribuir na descrição formal do léxico do português do Brasil e de definir os critérios de identificação de um nome composto com essa estrutura. O critério geral está baseado no conceito da nãocomposicionalidade semântica. Os testes são feitos a partir das propriedades sintáticas e semânticas que há na relação entre os elementos que constituem o grupo nominal, mostrando as distinções entre um grupo nominal livre e um grupo nominal composto. Entre as propriedades, podem ser destacadas: o bloqueio distribucional, a inseparabilidade, a inserção lexical, o apagamento de N2, a substituição de N2 e as variações em gênero e número. Essa descrição mostra-se útil na medida em que um conjunto de regras e critérios de delimitação de unidades lexicais foi definido, constituindo uma base para a incorporação de novos itens ao léxico. Por fim, as propriedades das entradas incorporadas receberam uma representação formal, resultando na criação de um dicionário eletrônico utilizável em processos eletrônicos. / [en] This paper is a study of the NofN structure nouns, which may be described as compound nouns by juxtaposition. 1500 word sequences are observed, aiming at contributing to the formal description of the Brazilian Portuguese lexicon, and defining the identification criteria of a compound noun with such a structure. The general criterion is based on the concept of semantic non- compositionality. The tests are made from the syntactic and semantic properties existing in the relationship between the elements that constitute the nominal group, showing the differences between a free nominal group and a compound nominal group. Among such properties, the following can be pointed out: distributional blockage, inseparability, lexical insertion, N2 erasing, N2 substitution, and gender and number variations. Such description proves to be useful in the sense that a set of lexical units delimitation rules and criteria has been defined, constituting a basis for the incorporation of new items to the lexicon. Finally, the incorporated entries` properties received a formal representation, which resulted in the creation of an electronic dictionary that can be used in electronic processes. / [fr] On étudie dans ce travail les noms formés par la structure NdeN qui caractérise un nom composé par juxtaposition. On a observé 1.500 séquences de mots, pour définir les critères d`identification d`un nom composé par cette structure. Le critère general est fondé sur le concept de la non compositionalité sémantique. Les tests ont été faits à partir des propriétés syntaxiques et sémantiques qu`il y a dans la relation existante entre les éléments qui constituent le groupe nominal, en démontrant les distinctions entre un groupe nominal libre et un groupe nominal composé. Parmi ces propriétés, on peut remarquer le bloquement distributionnel, l`inséparabilité, l`insertion lexical, l`effacement de N2, le remplacement de N2 et les variations en genre et en nombre. En examinant ces propriétés, on a pu observer qu`il y a des irrégularités dans la formation de ce procès. Cette description devient utile dans la mesure que cette reconnaissance peut être formulée et qu`un ensemble de règles et de critères de délimitation d`unités lexicales peut être defini, et que, par là, on peut aboutir à l`incorporation de nouveaux items lexicaux. Au bout, en tenant compte de la possibilité de formalisation, les mots composés peuvent être processés automatiquement dans les diccionnaires électroniques.
85

Représentations pour la détection d’anomalies : Application aux données vibratoires des moteurs d’avions / Representations for anomaly detection : Application to aircraft engines’ vibration data

Abdel Sayed, Mina 03 July 2018 (has links)
Les mesures de vibrations sont l’une des données les plus pertinentes pour détecter des anomalies sur les moteurs. Les vibrations sont acquises sur banc d’essai en phase d’accélération et de décélération pour assurer la fiabilité du moteur à la sortie de la chaine de production. Ces données temporelles sont converties en spectrogrammes pour permettre aux experts d’effectuer une analyse visuelle de ces données et de détecter les différentes signatures atypiques. Les sources vibratoires correspondent à des raies sur les spectrogrammes. Dans cette thèse, nous avons mis en place un outil d’aide à la décision automatique pour analyser les spectrogrammes et détecter tout type de signatures atypiques, ces signatures ne proviennent pas nécessairement d’un endommagement du moteur. En premier lieu, nous avons construit une base de données numérique de spectrogrammes annotés. Il est important de noter que les signatures inusuelles sont variables en forme, intensité et position et se trouvent dans un faible nombre de données. Par conséquent, pour détecter ces signatures, nous caractérisons les comportements normaux des spectrogrammes, de manière analogue aux méthodes de détection de nouveautés, en représentant les patchs des spectrogrammes sur des dictionnaires comme les curvelets et la Non-negative matrix factorization (NMF), ainsi qu’en estimant la distribution de chaque point du spectrogramme à partir de données normales dépendamment ou non de leur voisinage. La détection des points atypiques est réalisée par comparaison des données tests au modèle de normalité estimé sur des données d’apprentissage normales. La détection des points atypiques permet la détection des signatures inusuelles composées par ces points. / Vibration measurements are one of the most relevant data for detecting anomalies in engines. Vibrations are recorded on a test bench during acceleration and deceleration phases to ensure the reliability of every flight engine at the end of the production line. These temporal signals are converted into spectrograms for experts to perform visual analysis of these data and detect any unusual signature. Vibratory signatures correspond to lines on the spectrograms. In this thesis, we have developed a decision support system to automatically analyze these spectrograms and detect any type of unusual signatures, these signatures are not necessarily originated from a damage in the engine. Firstly, we have built a numerical spectrograms database with annotated zones, it is important to note that data containing these unusual signatures are sparse and that these signatures are quite variable in shape, intensity and position. Consequently, to detect them, like in the novelty detection process, we characterize the normal behavior of the spectrograms by representing patches of the spectrograms in dictionaries such as the curvelets and the Non-negative matrix factorization (NMF) and by estimating the distribution of every points of the spectrograms with normal data depending or not of the neighborhood. The detection of the unusual points is performed by comparing test data to the model of normality estimated on learning normal data. The detection of the unusual points allows the detection of the unusual signatures composed by these points.
86

Représentations Convolutives Parcimonieuses -- application aux signaux physiologiques et interpétabilité de l'apprentissage profond / Convolutional Sparse Representations -- application to physiological signals and interpretability for Deep Learning

Moreau, Thomas 19 December 2017 (has links)
Les représentations convolutives extraient des motifs récurrents qui aident à comprendre la structure locale dans un jeu de signaux. Elles sont adaptées pour l’analyse des signaux physiologiques, qui nécessite des visualisations mettant en avant les informations pertinentes. Ces représentations sont aussi liées aux modèles d’apprentissage profond. Dans ce manuscrit, nous décrivons des avancées algorithmiques et théoriques autour de ces modèles. Nous montrons d’abord que l’Analyse du Spectre Singulier permet de calculer efficacement une représentation convolutive. Cette représentation est dense et nous décrivons une procédure automatisée pour la rendre plus interprétable. Nous proposons ensuite un algorithme asynchrone, pour accélérer le codage parcimonieux convolutif. Notre algorithme présente une accélération super-linéaire. Dans une seconde partie, nous analysons les liens entre représentations et réseaux de neurones. Nous proposons une étape d’apprentissage supplémentaire, appelée post-entraînement, qui permet d’améliorer les performances du réseau entraîné, en s’assurant que la dernière couche soit optimale. Puis nous étudions les mécanismes qui rendent possible l’accélération du codage parcimonieux avec des réseaux de neurones. Nous montrons que cela est lié à une factorisation de la matrice de Gram du dictionnaire. Finalement, nous illustrons l’intérêt de l’utilisation des représentations convolutives pour les signaux physiologiques. L’apprentissage de dictionnaire convolutif est utilisé pour résumer des signaux de marche et le mouvement du regard est soustrait de signaux oculométriques avec l’Analyse du Spectre Singulier. / Convolutional representations extract recurrent patterns which lead to the discovery of local structures in a set of signals. They are well suited to analyze physiological signals which requires interpretable representations in order to understand the relevant information. Moreover, these representations can be linked to deep learning models, as a way to bring interpretability intheir internal representations. In this disserta tion, we describe recent advances on both computational and theoretical aspects of these models.First, we show that the Singular Spectrum Analysis can be used to compute convolutional representations. This representation is dense and we describe an automatized procedure to improve its interpretability. Also, we propose an asynchronous algorithm, called DICOD, based on greedy coordinate descent, to solve convolutional sparse coding for long signals. Our algorithm has super-linear acceleration.In a second part, we focus on the link between representations and neural networks. An extra training step for deep learning, called post-training, is introduced to boost the performances of the trained network by making sure the last layer is optimal. Then, we study the mechanisms which allow to accelerate sparse coding algorithms with neural networks. We show that it is linked to afactorization of the Gram matrix of the dictionary.Finally, we illustrate the relevance of convolutional representations for physiological signals. Convolutional dictionary learning is used to summarize human walk signals and Singular Spectrum Analysis is used to remove the gaze movement in young infant’s oculometric recordings.
87

The forgotten encyclopedia : the Maurists' dictionary of arts, crafts, and sciences, the unrealized rival of the Encyclopédie of Diderot and d'Alembert

Holmberg, Linn January 2014 (has links)
In mid-eighteenth century Paris, two Benedictine monks from the Congregation of Saint-Maur – also known as the Maurists – started compiling a universal dictionary of arts, crafts, and sciences. The project was initiated simultaneously with what would become one of the most famous literary enterprises in Western intellectual history: the Encyclopédie of Diderot and d’Alembert. The latter started as an augmented translation of Ephraim Chambers’s Cyclopaedia, but it was constructed with another French dictionary as its ideological counterpart: the Jesuits’ Dictionnaire de Trévoux. While the Encyclopédie eventually turned into a controversial but successful best-seller, considered as the most important medium of Enlightenment thought, the Benedictines never finished or published their work. After a decade, the manuscripts were put aside in the monastery library, and were soon forgotten. For about two hundred and sixty years, the Maurists’ dictionary material has largely escaped the attention of researchers, and its history of production has been unknown.      This dissertation examines the history and characteristics of the Maurists’ enterprise. The manuscripts are compared to the Encyclopédie and the Dictionnaire de Trévoux, and the project situated within its monastic environment of production, the history of the encyclopedic dictionary, and the Enlightenment culture. The study has an interdisciplinary character and combines perspectives of History of Science and Ideas, History of Monasticism, History of Encyclopedism, and History of the Book. The research procedure is distinguished by a microhistorical approach, where the studied materials are analyzed in a detailed manner, and the research process included in the narrative.       The dissertation shows that the Maurists early found themselves in a rival situation with the embryonic Encyclopédie, and that the two projects had several common denominators that distinguished them from the predecessors within the genre. At the same time, the Maurists were making a dictionary unique in the eighteenth century, which assumed a third position in relation to the works of the encyclopédistes and the Jesuits. The study provides new perspectives on the Encyclopédie of Diderot and d’Alembert, the intellectual activities of the Congregation of Saint-Maur, as well as the editor in charge of the Maurist dictionary: Dom Antoine-Joseph Pernety, otherwise known for his alchemical writings.
88

Élaboration d’un modèle d’article de dictionnaire de collocations du lexique scientifique transdisciplinaire pour l’aide à la rédaction de textes scientifiques

Pouliot, Karine 05 1900 (has links)
Cette recherche constitue une première étape dans l’élaboration d’un dictionnaire de collocations du lexique scientifique transdisciplinaire (LST), conçu pour aider des étudiants ou des chercheurs dans la rédaction de discours scientifiques ou universitaires, quel que soit leur domaine d’études. Elle a permis de concevoir deux modèles originaux d’articles de dictionnaire donnant accès aux collocations de termes nominaux et verbaux caractéristiques du LST. Les modèles d’articles sont ensuite appliqués à la description d’un échantillon de termes nominaux : analyse, caractéristique, figure, hypothèse, rapport et résultat; et verbaux : décrire et étudier. Les articles conçus dans ce mémoire offrent un accès convivial aux collocations du LST en situation de rédaction. Ils ont l’avantage de proposer une organisation cohérente de ce lexique sur les plans syntaxique et sémantique. En outre, ils permettent de présenter les termes du LST dans des contextes variés, ce qui peut contribuer au développement de la compétence lexicale. / This research is the first step in the development of a collocations dictionary of “lexique scientifique transdisciplinaire” (LST), which is similar to the academic vocabulary, a collocations dictionary conceived to help students or researchers in scientific or academic writing, regardless of their field. In this research, we first developed two original models of dictionary articles which provide access to collocations of nouns and verbs characteristic of LST. Secondly, the models are used to describe a sample of nominal terms: analyse, caractéristique, figure, hypothèse, rapport, and résultat; and verbal terms: décrire, and étudier. The models developed in this thesis offer a convenient access to LST collocations in writing context. The advantage of these models is to propose a coherent organization of the lexicon in syntactic and semantic terms. In addition, they are made to present the LST terms in different contexts, which may contribute to the development of lexical competence.
89

L’intégration des ressources de Sésamath au collège : un moteur pour le développement du travail collectif des enseignants de mathématiques en Algérie / The integration of MathenPoche in college, an instrument for the development of the collaborative work of mathematics teachers in Algeria?

Sayah, Karima 27 November 2018 (has links)
Ce travail de recherche se situe à un moment particulier de réforme du système éducatif algérien. Il prend sa source dans les difficultés suscitées par la mise en œuvre de cette réforme, du point de vue, pour l’enseignement des mathématiques, de l’approche par les compétences et de l’intégration des TICe. Il questionne le potentiel des ressources de Sésamath, une association française d’enseignants, pour soutenir le travail des professeurs confrontés à cette réforme.Ancrée dans l’approche documentaire du didactique, la thèse a suivi plus particulièrement trois professeurs d’un collège, à la fois dans leurs classes régulières et dans un atelier de mathématiques, laboratoire d’intégration des ressources de Sésamath.Elle considère particulièrement les systèmes de ressources des enseignants en analysant leur structure et leur évolution, dans la perspective d’une modélisation de ces systèmes. Elle exploite la notion de schème, et notamment d’invariants opératoires, pour décrire l’évolution des connaissances des professeurs.Elle montre comment l’intégration des ressources de Sésamath, dans un milieu arabophone, conduit à développer un travail collectif de sélection, d’adaptation, de traduction et de mise en œuvre de ses ressources. Elle montre comment l’intégration des activités de Sésamath basées sur la résolution de problèmes a soutenu les enseignants dans leur travail de mise en œuvre de la réforme. Elle met en évidence l’intérêt de ces interactions pour l’évolution des connaissances et le développement professionnel des enseignants impliqués.L’étude ouvre des pistes, aussi bien pour la formation des enseignants que pour la modélisation de leur système de ressources / This research is situated at a particular moment of reform of the Algerian educational system. It originates from the difficulties of implementing this reform from a point of view, for mathematics education, of the competency-based approach and the integration of ICT. It questions the potential of the resources of Sésamath, a French association of teachers, for supporting the work of teachers facing this reform.Anchored in the documentary approach to didactics, the PhD followed in particular three teachers from a college, both in their regular classes and in a mathematics workshop, the Sésamath resource integration laboratory.It particularly considers teacher resource systems by analyzing their structure and evolution, aiming to modelling these systems. It exploits the notion of scheme, and especially operational invariants, to describe the evolution of teachers' knowledge.It shows how the integration of Sésamath's resources, in an Arabic-speaking environment, leads to developing a collective work of selection, adaptation, translation and implementation of these resources. It shows how the integration of problem-based Sésamath activities has supported teachers in their work for implementing the reform. It highlights the value of these interactions for the evolution of knowledge and professional development of the teachers involved.The study opens ways, both for teacher training and for modelling their resource system
90

Sparse representations over learned dictionary for document analysis / Présentations parcimonieuses sur dictionnaire d'apprentissage pour l'analyse de documents

Do, Thanh Ha 04 April 2014 (has links)
Dans cette thèse, nous nous concentrons sur comment les représentations parcimonieuses peuvent aider à augmenter les performances pour réduire le bruit, extraire des régions de texte, reconnaissance des formes et localiser des symboles dans des documents graphiques. Pour ce faire, tout d'abord, nous donnons une synthèse des représentations parcimonieuses et ses applications en traitement d'images. Ensuite, nous présentons notre motivation pour l'utilisation de dictionnaires d'apprentissage avec des algorithmes efficaces pour les construire. Après avoir décrit l'idée générale des représentations parcimonieuses et du dictionnaire d'apprentissage, nous présentons nos contributions dans le domaine de la reconnaissance de symboles et du traitement des documents en les comparants aux travaux de l'état de l'art. Ces contributions s'emploient à répondre aux questions suivantes: La première question est comment nous pouvons supprimer le bruit des images où il n'existe aucune hypothèse sur le modèle de bruit sous-jacent à ces images ? La deuxième question est comment les représentations parcimonieuses sur le dictionnaire d'apprentissage peuvent être adaptées pour séparer le texte du graphique dans des documents? La troisième question est comment nous pouvons appliquer la représentation parcimonieuse à reconnaissance de symboles? Nous complétons cette thèse en proposant une approche de localisation de symboles dans les documents graphiques qui utilise les représentations parcimonieuses pour coder un vocabulaire visuel / In this thesis, we focus on how sparse representations can help to increase the performance of noise removal, text region extraction, pattern recognition and spotting symbols in graphical documents. To do that, first of all, we give a survey of sparse representations and its applications in image processing. Then, we present the motivation of building learning dictionary and efficient algorithms for constructing a learning dictionary. After describing the general idea of sparse representations and learned dictionary, we bring some contributions in the field of symbol recognition and document processing that achieve better performances compared to the state-of-the-art. These contributions begin by finding the answers to the following questions. The first question is how we can remove the noise of a document when we have no assumptions about the model of noise found in these images? The second question is how sparse representations over learned dictionary can separate the text/graphic parts in the graphical document? The third question is how we can apply the sparse representation for symbol recognition? We complete this thesis by proposing an approach of spotting symbols that use sparse representations for the coding of a visual vocabulary

Page generated in 0.0634 seconds