• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 7
  • 5
  • 4
  • Tagged with
  • 47
  • 16
  • 13
  • 13
  • 11
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Etude sémantique et traductologique de verbes arabes dans les dictionnaires bilingues le Larousse (arabe-français) et le H. Wehr (arabe-anglais) /

Franjié, Lynne. Dichy, Joseph January 2003 (has links)
Reproduction de : Thèse de doctorat : Lexicologie, Terminologie multilingue, Traduction : Lyon 2 : 2003. / Titre provenant de l'écran-titre. Bibliogr. Index.
12

Technologie und Enzyklopädismus im Übergang vom 18. zum 19. Jahrhundert : Johann Georg Krünitz (1728-1796) und seine Oeconomisch-technologische Encyklopädie /

Fröhner, Annette. January 1900 (has links)
Diss--Mannheim, 1994. / Bibliogr. p. 465-491. Index.
13

La réductin des dictionnaires bilingues (français-anglais) au XVIIe siècle : l'exemple du Short Dictionary (1684) de Guy Miège

Larochelle, Karène January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
14

La réduction des dictionnaires bilingues (français-anglais) au XVIIe siècle : l'exemple du Short Dictionary (1684) de Guy Miège

Larochelle, Karène January 2008 (has links)
No description available.
15

Les dictionnaires bilingues francais-chinois (1605-1912) : histoire, caractéristiques et typologie / The French ↔ Chinese bilingual dictionaries (1605-1912) : history, characteristics and typology

Shen, Feifei 30 June 2017 (has links)
Notre thèse porte sur l’histoire culturelle des dictionnaires bilingues français ↔ chinois. Notre but est d’examiner l’histoire des dictionnaires à travers les éditeurs, les lexicographes et les imprimeurs afin de trouver des caractéristiques du corpus sélectionné et d’établir une typologie des dictionnaires inventoriés. Cette étude apporte des éléments aux futurs travaux sur la lexicographie bilingue française et chinoise. Notre travail est divisé en deux parties : étude historique et étude métalexicographique. Dans l’analyse historique, un rappel de l’histoire de la Chine est donné dans un premier temps pour établir un panorama du contexte d’étude. Les chapitres suivants traitent de questions concernant l’apparition des dictionnaires bilingues en Chine et leur développement, les éditeurs et les imprimeurs, les lexicographes. Dans la partie métalexicographique, l’accent est mis sur les paratextes, les macrostructures, les nomenclatures et les microstructures. Notre recherche a porté sur l’ensemble des études lexicographiques bilingues françaises et chinoises. / Our thesis deals with the cultural history of the French ↔ Chinese bilingual dictionaries. Our aim is to examine the history of dictionaries through their publishers, lexicographers and printers in order to find characteristics of the selected corpus and to establish a typology of the inventoried dictionaries. This study provides ideas for future work on French and Chinese bilingual lexicography. Our work is divided into two parts : historical study and metalexicographical study. In the historical analysis, a reminder of the chinese history is given at the outset to expose a panorama of the study’s context. The following chapters deal with questions concerning the emergence of bilingual dictionaries in China and their development, publishers and printers, and lexicographers. In the metalexicographic part, emphasis is placed on paratexts, macrostructures, nomenclatures and microstructures. Our research has contributed to the study of French and Chinese bilingual lexicographic.
16

Cardiac motion estimation in ultrasound images using a sparse representation and dictionary learning / Estimation du mouvement cardiaque en imagerie ultrasonore par représentation parcimonieuse et apprentissage de dictionnaire

Ouzir, Nora 16 October 2018 (has links)
Les maladies cardiovasculaires sont de nos jours un problème de santé majeur. L'amélioration des méthodes liées au diagnostic de ces maladies représente donc un réel enjeu en cardiologie. Le coeur étant un organe en perpétuel mouvement, l'analyse du mouvement cardiaque est un élément clé pour le diagnostic. Par conséquent, les méthodes dédiées à l'estimation du mouvement cardiaque à partir d'images médicales, plus particulièrement en échocardiographie, font l'objet de nombreux travaux de recherches. Cependant, plusieurs difficultés liées à la complexité du mouvement du coeur ainsi qu'à la qualité des images échographiques restent à surmonter afin d'améliorer la qualité et la précision des estimations. Dans le domaine du traitement d'images, les méthodes basées sur l'apprentissage suscitent de plus en plus d'intérêt. Plus particulièrement, les représentations parcimonieuses et l'apprentissage de dictionnaires ont démontré leur efficacité pour la régularisation de divers problèmes inverses. Cette thèse a ainsi pour but d'explorer l'apport de ces méthodes, qui allient parcimonie et apprentissage, pour l'estimation du mouvement cardiaque. Trois principales contributions sont présentées, chacune traitant différents aspects et problématiques rencontrées dans le cadre de l'estimation du mouvement en échocardiographie. Dans un premier temps, une méthode d'estimation du mouvement cardiaque se basant sur une régularisation parcimonieuse est proposée. Le problème d'estimation du mouvement est formulé dans le cadre d'une minimisation d'énergie, dont le terme d'attache aux données est construit avec l'hypothèse d'un bruit de Rayleigh multiplicatif. Une étape d'apprentissage de dictionnaire permet une régularisation exploitant les propriétés parcimonieuses du mouvement cardiaque, combinée à un terme classique de lissage spatial. Dans un second temps, une méthode robuste de flux optique est présentée. L'objectif de cette approche est de robustifier la méthode d'estimation développée au premier chapitre de manière à la rendre moins sensible aux éléments aberrants. Deux régularisations sont mises en oeuvre, imposant d'une part un lissage spatial et de l'autre la parcimonie des champs de mouvements dans un dictionnaire approprié. Afin d'assurer la robustesse de la méthode vis-à-vis des anomalies, une stratégie de minimisation récursivement pondérée est proposée. Plus précisément, les fonctions employées pour cette pondération sont basées sur la théorie des M-estimateurs. Le dernier travail présenté dans cette thèse, explore une méthode d'estimation du mouvement cardiaque exploitant une régularisation parcimonieuse combinée à un lissage à la fois dans les domaines spatial et temporel. Le problème est formulé dans un cadre général d'estimation de flux optique. La régularisation temporelle proposée impose des trajectoires de mouvement lisses entre images consécutives. De plus, une méthode itérative d'estimation permet d'incorporer les trois termes de régularisations, tout en rendant possible le traitement simultané d'un ensemble d'images. Dans cette thèse, les contributions proposées sont validées en employant des images synthétiques et des simulations réalistes d'images ultrasonores. Ces données avec vérité terrain permettent d'évaluer la précision des approches considérées, et de souligner leur compétitivité par rapport à des méthodes de l'état-del'art. Pour démontrer la faisabilité clinique, des images in vivo de patients sains ou atteints de pathologies sont également considérées pour les deux premières méthodes. Pour la dernière contribution de cette thèse, i.e., exploitant un lissage temporel, une étude préliminaire est menée en utilisant des données de simulation. / Cardiovascular diseases have become a major healthcare issue. Improving the diagnosis and analysis of these diseases have thus become a primary concern in cardiology. The heart is a moving organ that undergoes complex deformations. Therefore, the quantification of cardiac motion from medical images, particularly ultrasound, is a key part of the techniques used for diagnosis in clinical practice. Thus, significant research efforts have been directed toward developing new cardiac motion estimation methods. These methods aim at improving the quality and accuracy of the estimated motions. However, they are still facing many challenges due to the complexity of cardiac motion and the quality of ultrasound images. Recently, learning-based techniques have received a growing interest in the field of image processing. More specifically, sparse representations and dictionary learning strategies have shown their efficiency in regularizing different ill-posed inverse problems. This thesis investigates the benefits that such sparsity and learning-based techniques can bring to cardiac motion estimation. Three main contributions are presented, investigating different aspects and challenges that arise in echocardiography. Firstly, a method for cardiac motion estimation using a sparsity-based regularization is introduced. The motion estimation problem is formulated as an energy minimization, whose data fidelity term is built using the assumption that the images are corrupted by multiplicative Rayleigh noise. In addition to a classical spatial smoothness constraint, the proposed method exploits the sparse properties of the cardiac motion to regularize the solution via an appropriate dictionary learning step. Secondly, a fully robust optical flow method is proposed. The aim of this work is to take into account the limitations of ultrasound imaging and the violations of the regularization constraints. In this work, two regularization terms imposing spatial smoothness and sparsity of the motion field in an appropriate cardiac motion dictionary are also exploited. In order to ensure robustness to outliers, an iteratively re-weighted minimization strategy is proposed using weighting functions based on M-estimators. As a last contribution, we investigate a cardiac motion estimation method using a combination of sparse, spatial and temporal regularizations. The problem is formulated within a general optical flow framework. The proposed temporal regularization enforces smoothness of the motion trajectories between consecutive images. Furthermore, an iterative groupewise motion estimation allows us to incorporate the three regularization terms, while enabling the processing of the image sequence as a whole. Throughout this thesis, the proposed contributions are validated using synthetic and realistic simulated cardiac ultrasound images. These datasets with available groundtruth are used to evaluate the accuracy of the proposed approaches and show their competitiveness with state-of-the-art algorithms. In order to demonstrate clinical feasibility, in vivo sequences of healthy and pathological subjects are considered for the first two methods. A preliminary investigation is conducted for the last contribution, i.e., exploiting temporal smoothness, using simulated data.
17

Le dictionnaire électronique des séquences nominales figées en coréen et de leurs formes fléchies - méthodes et applications

Bae, Sun-Mee 25 September 2002 (has links) (PDF)
Ce travail vise à présenter des méthodes de construction des dictionnaires électroniques de séquences nominales figées du coréen et de leurs formes fléchies, et à justifier leur validité en appliquant notre dictionnaire dans les domaines appliqués de l'analyse automatique de textes coréens. En vue de la reconnaissance des séquences nominales figées par dictionnaire, nous avons classé celles-ci en trois catégories selon les conventions typographiques : noms compacts (NC), noms figés à espacement facultatif (NFF) et noms figés à espacement obligatoire (NFO). Puisque des formes fléchies des séquences nominales figées apparaissent dans les textes coréens, nous avons construit, d'une part, un dictionnaire électronique des NFF à 45000 entrées et d'autre part, un transducteur des séquences de postpositions nominales avec leur segmentation, et enfin fusionné ces deux ensembles de données à partir de codes flexionnels associés à chaque entrée et de la fonctionnalité de flexion d'INTEX. Notre dictionnaire construit d'après ces méthodes a les principaux avantages suivants par rapport aux systèmes préexistants : 1) Le dictionnaire des formes fléchies de NFF permet la reconnaissance automatique de toutes les variantes de NFF liées à l'espacement 2) Le dictionnaire des formes fléchies de NFF permet la segmentation des formes fléchies des NFF en un NFF et une séquence de postpositions nominales 3) Le dictionnaire des séquences de postpositions nominales sous forme de graphes permet leur segmentation en postpositions nominales 4) Le dictionnaire des NFF sert à la segmentation des séquences nominales libres soudées 5) Le dictionnaire des NFF peut être étendu en un dictionnaire bilingue pour la traduction automatique 6) Chaque entrée du dictionnaire de NFF comporte des codes utiles pour les applications dans le traitement automatique : codes indiquant un trait sémantique, le statut de nom prédicatif, le nom tête de chaque entrée, l'origine et la catégorie grammaticale.
18

Représentations redondantes pour les signaux d’électroencéphalographie / Redundant representations for electroencephalography signals

Isaac, Yoann 29 May 2015 (has links)
L’électroencéphalographie permet de mesurer l’activité du cerveau à partir des variations du champ électrique à la surface du crâne. Cette mesure est utilisée pour le diagnostic médical, la compréhension du fonctionnement du cerveau ou dans les systèmes d’interface cerveau-machine. De nombreux travaux se sont attachés au développement de méthodes d’analyse de ces signaux en vue d’en extraire différentes composantes d’intérêt, néanmoins leur traitement pose encore de nombreux problèmes. Cette thèse s’intéresse à la mise en place de méthodes permettant l’obtention de représentations redondantes pour ces signaux. Ces représentations se sont avérées particulièrement efficaces ces dernières années pour la description de nombreuses classes de signaux grâce à leur grande flexibilité. L’obtention de telles représentations pour les mesures EEG présente certaines difficultés du fait d’un faible rapport signal à bruit des composantes recherchées. Nous proposons dans cette thèse de les surmonter en guidant les méthodes considérées vers des représentations physiologiquement plausibles des signaux EEG à l’aide de régularisations. Ces dernières sont construites à partir de connaissances a priori sur les propriétés spatiales et temporelles de ces signaux. Pour chacune d’entre elles, des algorithmes sont proposés afin de résoudre les problèmes d’optimisation associés à l’obtention de ces représentations. L’évaluation des approches proposées sur des signaux EEG souligne l’efficacité des régularisations proposées et l’intérêt des représentations obtenues. / The electroencephalography measures the brain activity by recording variations of the electric field on the surface of the skull. This measurement is usefull in various applications like medical diagnosis, analysis of brain functionning or whithin brain-computer interfaces. Numerous studies have tried to develop methods for analyzing these signals in order to extract various components of interest, however, none of them allows to extract them with sufficient reliabilty. This thesis focuses on the development of approaches considering redundant (overcomoplete) representations for these signals. During the last years, these representations have been shown particularly efficient to describe various classes of signals due to their flexibility. Obtaining such representations for EEG presents some difficuties due to the low signal-to-noise ratio of these signals. We propose in this study to overcome them by guiding the methods considered to physiologically plausible representations thanks to well-suited regularizations. These regularizations are built from prior knowledge about the spatial and temporal properties of these signals. For each regularization, an algorithm is proposed to solve the optimization problem allowing to obtain the targeted representations. The evaluation of the proposed EEG signals approaches highlights their effectiveness in representing them.
19

Contribution à la décomposition de données multimodales avec des applications en apprentisage de dictionnaires et la décomposition de tenseurs de grande taille. / Contribution to multimodal data processing with applications to dictionary learning and large-scale decomposition

Traoré, Abraham 26 November 2019 (has links)
Dans ce travail, on s'intéresse à des outils mathématiques spéciaux appelés tenseurs qui sont formellement définis comme des tableaux multidimensionnels définis sur le produit tensoriel d'espaces vectoriels (chaque espace vectoriel étant muni de son système de coordonnées), le nombre d'espaces vectoriels impliqués dans ce produit étant l'ordre du tenseur. L'intérêt pour les tenseurs est motivé par certains travaux expérimentaux qui ont prouvé, dans divers contextes, que traiter des données multidimensionnelles avec des tenseurs plutôt que des matrices donne un meilleur résultat aussi bien pour des tâches de régression que de classification. Dans le cadre de la thèse, nous nous sommes focalisés sur une décomposition dite de Tucker et avons mis en place une méthode pour l'apprentissage de dictionnaires, une technique pour l'apprentissage en ligne de dictionnaires, une approche pour la décomposition d'un tenseur de grandes tailles et enfin une méthodologie pour la décomposition d'un tenseur qui croît par rapport à tous les modes. De nouveaux résultats théoriques concernant la convergence et la vitesse de convergence sont établis et l'efficacité des algorithmes proposés, reposant soit sur la minimisation alternée, soit sur la descente de gradients par coordonnées, est démontrée sur des problèmes réels / In this work, we are interested in special mathematical tools called tensors, that are multidimensional arrays defined on tensor product of some vector spaces, each of which has its own coordinate system and the number of spaces involved in this product is generally referred to as order. The interest for these tools stem from some empirical works (for a range of applications encompassing both classification and regression) that prove the superiority of tensor processing with respect to matrix decomposition techniques. In this thesis framework, we focused on specific tensor model named Tucker and established new approaches for miscellaneous tasks such as dictionary learning, online dictionary learning, large-scale processing as well as the decomposition of a tensor evolving with respect to each of its modes. New theoretical results are established and the efficiency of the different algorithms, which are based either on alternate minimization or coordinate gradient descent, is proven via real-world problems.
20

Les marques de commerce : étude comparative du Petit Robert et du Petit Larousse illustré

Séfrioui, Yasmina 11 April 2018 (has links)
De nos jours, nous sommes envahis par les marques de commerce. Celles-ci font partie intégrante de notre vocabulaire. D'ailleurs, de nombreuses marques de fabrique trouvent droit de citer dans les dictionnaires généraux monolingues de la langue française, dictionnaires destinés, en principe, aux mots de la langue et non aux noms propres. De ce fait, ce présent travail propose une étude comparative du traitement lexico graphique de ces noms dans deux ouvrages de référence de grande diffusion, à savoir le Petit Robert (PR) et le Petit Larousse Illustré (PLI). Cette analyse comparative comprendra deux volets, un premier diachronique consacré aux PR 1967 et 2001, et un autre synchronique destiné à l'étude du PR 2001 et du PLI 2002. Les marques de commerce se révèlent à nous dans la plupart de nos activités quotidiennes. Elles sont parfois même envahissantes. Ces noms finissent par se fixer dans le vocabulaire et plusieurs d'entre eux trouvent droit de citer dans les dictionnaires généraux monolingues de la langue française. Fondamentalement, ces ouvrages ont pour fonction de décrire les mots ordinaires, c'est-à-dire les noms communs. Or le statut des noms déposés est ambigu. On les considère souvent comme des noms propres. Cela n'empêche pas les lexicographes de les inclure dans leurs dictionnaires. Cette recherche est une étude comparative du traitement lexicographique des noms de marque dans deux ouvrages de référence de grande diffusion, à savoir le Petit Robert (PR) et le Petit Larousse Illustré (PLI). Elle comprend deux volets : le volet diachronique qui consiste à comparer deux éditions du PR, soit le PR 1967 et le PR 2001 ; le volet synchronique qui consiste à comparer deux ouvrages concurrents et contemporains, soit le PR 2001 et le PLI 2002.

Page generated in 0.0901 seconds