1401 |
Apprentissage non-supervisé de la morphologie des langues à l’aide de modèles bayésiens non-paramétriques / Unsupervised learning of natural language morphology using non-parametric bayesian modelsLöser, Kevin 09 July 2019 (has links)
Un problème central contribuant à la grande difficulté du traitement du langage naturel par des méthodes statistiques est celui de la parcimonie des données, à savoir le fait que dans un corpus d'apprentissage donné, la plupart des évènements linguistiques n'ont qu'un nombre d'occurrences assez faible, et que par ailleurs un nombre infini d'évènements permis par une langue n'apparaitront nulle part dans le corpus. Les modèles neuronaux ont déjà contribué à partiellement résoudre le problème de la parcimonie en inférant des représentations continues de mots. Ces représentations continues permettent de structurer le lexique en induisant une notion de similarité sémantique ou syntaxique entre les mots. Toutefois, les modèles neuronaux actuellement les plus répandus n'offrent qu'une solution partielle au problème de la parcimonie, notamment par le fait que ceux-ci nécessitent une représentation distribuée pour chaque mot du vocabulaire, mais sont incapables d'attribuer une représentation à des mots hors vocabulaire. Ce problème est particulièrement marqué dans des langues morphologiquement riches, ou des processus de formation de mots complexes mènent à une prolifération des formes de mots possibles, et à une faible coïncidence entre le lexique observé lors de l’entrainement d’un modèle, et le lexique observé lors de son déploiement. Aujourd'hui, l'anglais n'est plus la langue majoritairement utilisée sur le Web, et concevoir des systèmes de traduction automatique pouvant appréhender des langues dont la morphologie est très éloignée des langues ouest-européennes est un enjeu important. L’objectif de cette thèse est de développer de nouveaux modèles capables d’inférer de manière non-supervisée les processus de formation de mots sous-jacents au lexique observé, afin de pouvoir de pouvoir produire des analyses morphologiques de nouvelles formes de mots non observées lors de l’entraînement. / A crucial issue in statistical natural language processing is the issue of sparsity, namely the fact that in a given learning corpus, most linguistic events have low occurrence frequencies, and that an infinite number of structures allowed by a language will not be observed in the corpus. Neural models have already contributed to solving this issue by inferring continuous word representations. These continuous representations allow to structure the lexicon by inducing semantic or syntactic similarity between words. However, current neural models only partially solve the sparsity issue, due to the fact that they require a vectorial representation for every word in the lexicon, but are unable to infer sensible representations for unseen words. This issue is especially present in morphologically rich languages, where word formation processes yield a proliferation of possible word forms, and little overlap between the lexicon observed during model training, and the lexicon encountered during its use. Today, several languages are used on the Web besides English, and engineering translation systems that can handle morphologies that are very different from western European languages has become a major stake. The goal of this thesis is to develop new statistical models that are able to infer in an unsupervised fashion the word formation processes underlying an observed lexicon, in order to produce morphological analyses of new unseen word forms.
|
1402 |
Explorations in Word Embeddings : graph-based word embedding learning and cross-lingual contextual word embedding learning / Explorations de plongements lexicaux : apprentissage de plongements à base de graphes et apprentissage de plongements contextuels multilinguesZhang, Zheng 18 October 2019 (has links)
Les plongements lexicaux sont un composant standard des architectures modernes de traitement automatique des langues (TAL). Chaque fois qu'une avancée est obtenue dans l'apprentissage de plongements lexicaux, la grande majorité des tâches de traitement automatique des langues, telles que l'étiquetage morphosyntaxique, la reconnaissance d'entités nommées, la recherche de réponses à des questions, ou l'inférence textuelle, peuvent en bénéficier. Ce travail explore la question de l'amélioration de la qualité de plongements lexicaux monolingues appris par des modèles prédictifs et celle de la mise en correspondance entre langues de plongements lexicaux contextuels créés par des modèles préentraînés de représentation de la langue comme ELMo ou BERT.Pour l'apprentissage de plongements lexicaux monolingues, je prends en compte des informations globales au corpus et génère une distribution de bruit différente pour l'échantillonnage d'exemples négatifs dans word2vec. Dans ce but, je précalcule des statistiques de cooccurrence entre mots avec corpus2graph, un paquet Python en source ouverte orienté vers les applications en TAL : il génère efficacement un graphe de cooccurrence à partir d'un grand corpus, et lui applique des algorithmes de graphes tels que les marches aléatoires. Pour la mise en correspondance translingue de plongements lexicaux, je relie les plongements lexicaux contextuels à des plongements de sens de mots. L'algorithme amélioré de création d'ancres que je propose étend également la portée des algorithmes de mise en correspondance de plongements lexicaux du cas non-contextuel au cas des plongements contextuels. / Word embeddings are a standard component of modern natural language processing architectures. Every time there is a breakthrough in word embedding learning, the vast majority of natural language processing tasks, such as POS-tagging, named entity recognition (NER), question answering, natural language inference, can benefit from it. This work addresses the question of how to improve the quality of monolingual word embeddings learned by prediction-based models and how to map contextual word embeddings generated by pretrained language representation models like ELMo or BERT across different languages.For monolingual word embedding learning, I take into account global, corpus-level information and generate a different noise distribution for negative sampling in word2vec. In this purpose I pre-compute word co-occurrence statistics with corpus2graph, an open-source NLP-application-oriented Python package that I developed: it efficiently generates a word co-occurrence network from a large corpus, and applies to it network algorithms such as random walks. For cross-lingual contextual word embedding mapping, I link contextual word embeddings to word sense embeddings. The improved anchor generation algorithm that I propose also expands the scope of word embedding mapping algorithms from context independent to contextual word embeddings.
|
1403 |
Evaluation des capacités de discrimination et de la robustesse des réponses des neurones du système auditif en situation de dégradation acoustique / Discrimination and Robustness Evaluation of Neuronal Responses of the Auditory System in Acoustic Degradation SituationsSouffi, Samira 12 November 2019 (has links)
Ces travaux de recherche ont eu pour objectif d’évaluer les capacités de discrimination des réponses des neurones et leur robustesse dans le bruit à chaque étage du système auditif. Nous avons ainsi quantifié la capacité de discrimination neuronale entre quatre vocalisations cibles conspécifiques masquées par un bruit stationnaire depuis le noyau cochléaire jusqu’au cortex auditif secondaire chez le cobaye anesthésié. La discrimination des vocalisations cibles par les populations neuronales a été fortement diminuée par le bruit dans toutes les structures, mais les populations du colliculus inférieur et du thalamus ont montré de meilleures performances que les populations corticales. La comparaison avec les réponses neuronales obtenues avec les vocalisations vocodées (38, 20 ou 10 bandes de fréquences) a révélé que la réduction des capacités de discrimination neuronale était principalement due à l'atténuation des modulations d'amplitude lente (< 20 Hz). En outre, nous avons quantifié la robustesse des réponses neuronales grâce à une méthode de classification automatique réalisée sur l’ensemble des données obtenues en présence du bruit stationnaire et d’un autre bruit appelé chorus. Cela a mis en évidence cinq catégories de comportements neuronaux (des plus robustes aux plus sensibles) et leurs proportions respectives sur l’ensemble du système auditif ainsi qu’au sein de chaque structure auditive. Cette analyse a montré également qu’il existait des neurones robustes à tous les étages du système auditif, bien qu’une proportion plus importante soit retrouvée au niveau du colliculus inférieur et du thalamus. Par ailleurs, la proportion de neurones robustes est plus faible dans le bruit chorus ce qui laisse suggérer que ce dernier est plus pénalisant que le bruit stationnaire. Il est important de souligner qu’une proportion non négligeable de neurones sous-corticaux et corticaux changent de comportement d’un bruit à l’autre de sorte que le comportement de ces neurones dans un bruit particulier est peu prédictible. Ces résultats démontrent donc que la discrimination neuronale en situation de dégradation acoustique est principalement déterminée par l’altération des modulations lentes d'amplitude à la fois au niveau sous-cortical et cortical et suggèrent que les structures sous-corticales contribuent de façon importante à la perception robuste d’un signal cible dans le bruit. / This research aimed at evaluating the discrimination abilities of neuronal responses and their robustness to noise at each stage of the auditory system, from the cochlear nucleus to the secondary auditory cortex. We quantified the neuronal discrimination performance between four conspecific vocalizations masked by a stationary noise in anesthetized guinea pig. Discrimination of target vocalizations by neuronal populations was significantly reduced by noise in all structures, but collicular and thalamic populations displayed better performance than cortical populations. The comparison with neuronal responses obtained with vocoded vocalizations (using 38, 20 or 10 frequency bands) revealed that the reduction in discrimination performance was mainly due to the attenuation of slow amplitude modulations (<20 Hz). In addition, we quantified the robustness of neuronal responses using an automatic classification method performed on the whole database obtained in presence of stationary noise and of another noise called “chorus” noise. This highlighted five categories of neural behavior (from robustness to sensitivity) and their respective proportions across the auditory system as well as within each auditory structure. This analysis demonstrated that robust neurons do exist at all stages of the auditory system, although a higher proportion was found in the inferior colliculus and thalamus. Moreover, the proportion of robust neurons is lower in the chorus noise, which suggests that the latter is more penalizing than the stationary noise. It is worth to point out that a significant proportion of subcortical and cortical neurons changed category from one background noise to another, so that the behavior of these neurons in a particular noise was unpredictable. These results provide clear evidence that neuronal discrimination in degraded acoustic conditions is mainly determined by alterations of slow amplitude modulations both at the subcortical and cortical level, and suggest that the subcortical structures significantly contribute to the robust perception of a target signal in noise.
|
1404 |
Multi-scale computational rhythm analysis : a framework for sections, downbeats, beats, and microtiming / Analyse numérique multi-échelle du rythme musical : un cadre unifié pour les sections, premiers temps, temps et microtimingFuentes, Magdalena 12 November 2019 (has links)
La modélisation computationnelle du rythme a pour objet l'extraction et le traitement d’informations rythmiques à partir d’un signal audio de musique. Cela s'avère être une tâche extrêmement complexe car, pour traiter un enregistrement audio réel, il faut pouvoir gérer sa complexité acoustique et sémantique à plusieurs niveaux de représentation. Les méthodes d’analyse rythmique existantes se concentrent généralement sur l'un de ces aspects à la fois et n’exploitent pas la richesse de la structure musicale, ce qui compromet la cohérence musicale des estimations automatiques. Dans ce travail, nous proposons de nouvelles approches tirant parti des informations multi-échelles pour l'analyse automatique du rythme. Nos modèles prennent en compte des interdépendances intrinsèques aux signaux audio de musique, en permettant ainsi l’interaction entre différentes échelles de temps et en assurant la cohérence musicale entre elles. En particulier, nous effectuons une analyse systématique des systèmes de l’état de l’art pour la détection des premiers temps, ce qui nous conduit à nous tourner vers des architectures convolutionnelles et récurrentes qui exploitent la modélisation acoustique à court et long terme; nous introduisons un modèle de champ aléatoire conditionnel à saut de chaîne pour la détection des premiers temps. Ce système est conçu pour tirer parti des informations de structure musicale (c'est-à-dire des répétitions de sections musicales) dans un cadre unifié. Nous proposons également un modèle linguistique pour la détection conjointe des temps et du micro-timing dans la musique afro-latino-américaine. Nos méthodes sont systématiquement évaluées sur diverses bases de données, allant de la musique occidentale à des genres plus spécifiques culturellement, et comparés à des systèmes de l’état de l’art, ainsi qu’à des variantes plus simples. Les résultats globaux montrent que nos modèles d’estimation des premiers temps sont aussi performants que ceux de l’état de l'art, tout en étant plus cohérents sur le plan musical. De plus, notre modèle d’estimation conjointe des temps et du microtiming représente une avancée vers des systèmes plus interprétables. Les méthodes présentées ici offrent des alternatives nouvelles et plus holistiques pour l'analyse numérique du rythme, ouvrant des perspectives vers une analyse automatique plus complète de la musique. / Computational rhythm analysis deals with extracting and processing meaningful rhythmical information from musical audio. It proves to be a highly complex task, since dealing with real audio recordings requires the ability to handle its acoustic and semantic complexity at multiple levels of representation. Existing methods for rhythmic analysis typically focus on one of those levels, failing to exploit music’s rich structure and compromising the musical consistency of automatic estimations. In this work, we propose novel approaches for leveraging multi-scale information for computational rhythm analysis. Our models account for interrelated dependencies that musical audio naturally conveys, allowing the interplay between different time scales and accounting for music coherence across them. In particular, we conduct a systematic analysis of downbeat tracking systems, leading to convolutional-recurrent architectures that exploit short and long term acoustic modeling; we introduce a skip-chain conditional random field model for downbeat tracking designed to take advantage of music structure information (i.e. music sections repetitions) in a unified framework; and we propose a language model for joint tracking of beats and micro-timing in Afro-Latin American music. Our methods are systematically evaluated on a diverse group of datasets, ranging from Western music to more culturally specific genres, and compared to state-of-the-art systems and simpler variations. The overall results show that our models for downbeat tracking perform on par with the state of the art, while being more musically consistent. Moreover, our model for the joint estimation of beats and microtiming takes further steps towards more interpretable systems. The methods presented here offer novel and more holistic alternatives for computational rhythm analysis, towards a more comprehensive automatic analysis of music.
|
1405 |
Development and optimization of mechanical polishing process for superconducting accelerating cavities / Développement et optimisation d'un procédé de polissage mécanique pour les cavités accélératrices supraconductricesHryhorenko, Oleksandr 13 December 2019 (has links)
La production de masse de cavités accélératrices supraconductrices en régime radiofréquence (SRF) est un réel défi industriel non seulement du fait du nombre croissant de cavité pour les futurs grands projets mais également de par les besoins en terme de fiabilité, reproductibilité et performances demandées très proches des limites physiques du Niobium. De nos jours, XFEL (DESY) et le LHC (CERN) sont les deux accélérateurs les plus importants utilisant la technologie supraconductrice. Des projets accélérateurs encore plus ambitieux, tels que l’ILC (International Linear Collider) et FCC (Future Circular Collider) sont en cours d’étude. Pour de tels projets, il est encore nécessaire d’améliorer les performances et de réduire les coûts de fabrication et d’opération avant d’engager la phase d’industrialisation.Une voie d’amélioration des performances et de réduction des coûts a été étudiée. Ceci consiste à améliorer les procédés de nettoyage des surfaces. En effet, la pollution et les dommages causés à la structure cristalline durant la fabrication d’une cavité supraconductrice doivent être impérativement retirés afin de garantir des performances optimales. Cette régénération des surfaces est couramment réalisée à l’aide de deux types de polissages chimiques : par BCP (Buffered Chemical Polishing) ou par électro-polissage (EP). Cependant, ces techniques utilisent des acides très concentrés qui entrainent des coûts d’opération très conséquents du fait des problèmes de sécurité. Une voie d’amélioration pouvant rendre possible la construction de telles machines serait de remplacer totalement ou partiellement l’utilisation des acides par des techniques de polissage alternatives.Le polissage mécanique a été étudié durant des décennies et plus spécifiquement les techniques par centrifugation (CBP). Cette technique permet d’atteindre des rugosités de surface bien meilleures et est bien plus efficace pour retirer certains défauts de surface comparé aux procédés chimiques. Cependant, cette technique n’est pas envisageable comme solution alternative à cause des fortes pollutions de surface et des durées de traitement très longues. La première partie de la thèse a consisté à reproduire l’état de l’art, comprendre les limitations réelles de cette technique et essayer d’améliorer le procédé en réduisant la pollution de surface générée par le piégeage des abrasifs en surface ainsi que la durée de traitement (réduction du nombre d’étapes intermédiaires). Il a été conclu que ce procédé ne peut pas être considéré comme alternatif mais complémentaire aux traitements chimiques.La deuxième partie du travail de thèse s’est concentrée sur la méthode de polissage métallographique. Cette dernière ne peut s’appliquer que sur plaques et non sur des géométries complexes, cependant elle retire très efficacement toutes les impuretés et dommages cristallins formés durant la fabrication des tôles de Niobium. Un procédé optimisé à 2 étapes, inspiré des techniques conventionnelles (typiquement 5-6 étapes) a été développé avec succès et optimisé pour les contraintes particulières du Niobium pour les applications SRF. Ce procédé permet non seulement d’obtenir une rugosité de surface incomparable mais préserve également la structure cristalline. Des études complémentaires sont encore requises afin d’améliorer les techniques de formage des tôles ou même caractériser des solutions alternatives permettant des limiter les dégâts en surface et de préserver la qualité du matériau.Finalement, ce travail mené est d’une importance capitale pour le futur des cavités accélératrices supraconductrices, c’est-à-dire l’utilisation de nouveaux matériaux supraconducteurs sous forme de couche mince. La qualité des couches minces de ces matériaux alternatifs dépend très fortement de l’état de surface du substrat (typiquement niobium ou cuivre poly cristallin). / Large-scale production of superconducting radio-frequency (SRF) cavities is an industrial challenge, not only because of the increasing number of unit for future projects but also because of requirements in term of reliability, reproducibility and performances very close to the physical limit of polycrystalline bulk Niobium. Nowadays, XFEL (DESY) and LHC (CERN) are the largest existing accelerators which are based on SRF technology. Even more challenging SRF accelerator projects like ILC (International Linear Collider) and FCC (Future Circular Collider) are being studied. For such large-scale facilities, higher performances, reduction in fabrication and operation costs are required and essential to proceed with industrialization.A pathway to reduce these costs and improve performances has been studied in this work. It consists in optimizing the cleaning process of cavity surfaces. Indeed, pollution and crystal defects on the surface created during fabrication steps of a SRF cavity have to be removed to ensure optimal superconducting performances. In order to get rid of impurities and to recover crystal structure, two polishing techniques are routinely used: the buffered chemical polishing (BCP) and electro-polishing (EP). However, these techniques involve highly concentrated acids, which lead to high operation costs and safety concerns. A way to overcome the aforementioned drawbacks and make the construction of future accelerators possible would be to replace or complement the conventional chemical polishing by alternative polishing techniques.Mechanical polishing has already been applied in SRF-community for decades by using centrifugal barrel polishing (CBP). This technique could provide a better surface roughness and could be more efficient at removing some surface defects compared to EP and BCP. However, this process does not satisfy requirements for large-scale production due to strong surface pollution and an extremely long processing time. The first part of the PhD work consisted in reproducing the state of the art, understanding its limitations and optimizing the recipe by the reduction of the surface pollution (embedded abrasives) and processing time (reduction of intermediate steps). As a conclusion to this first study, CBP could only be a complementary polishing technique to chemical treatments.The second part of the work focused on metallographic flat polishing. This technique cannot be directly applied on enclosed geometries however, it can remove efficiently surface defects (impurities and crystal damages) created during the fabrication of Niobium sheet. A 2-step process, inspired from metallographic techniques (typically 5-6 steps) has been successfully developed and optimized on Niobium for SRF applications. This process provides not only an improved roughness compared to conventional chemical treatments but also preserve the crystal quality underneath the surface, over the field penetration depth. Additional studies have to be now carried out to optimize conventional forming process or characterize alternative techniques to limit surface damages and preserve material quality as much as possible.Last but not least, the work done is of first importance for the future of SRF cavities meaning the use of new superconducting materials as thin films. The quality of thin-films of alternative superconductors depends strongly on the surface state of the substrate, typically polycrystalline bulk Niobium or Copper.
|
1406 |
Repérage automatique de séquences figées / Automatic extraction of fixed sequencesJoseph, Aurélie 18 December 2013 (has links)
Cette thèse vise à proposer un modèle théorique et une méthodologie permettant d’effectuer des analyses linguistiques fines des textes, permettant de rendre compte des éléments utiles des courriers à savoir : le motif/objet du courrier, l’émetteur et le destinataire du courrier. L’approche doit permettre un traitement efficace des verrous technologiques du TAL, et spécialement le problème du figement et plus particulièrement des séquences verbales figées. Il s’agit d’un phénomène extrêmement fréquent dans toutes les langues, présenté comme une des sources de difficultés majeures pour la recherche d’information et la veille dans les documents dits non structurés. La thèse comprendra une partie applicative démontrant l’efficacité de la théorie proposee, et aboutissant à un système de traitement automatique des courriers. Par ailleurs, la démarche méthodologique aboutissant aux ressources linguistiques doit permettre de définir un outil d’apprentissage automatique de ces ressources qui pourra ainsi être appliqué à de nouveaux types de documents. / The aim of this thesis is to propose a theoretic model and a methodology to make fine linguistic text analysis. That can represent elements useful in mails like: message purposes, message addressee or sender. This approach must permit an efficient processing of NLP technology issues, especially in the fixity problematic and mainly on fixed verbal sequences. This phenomenon is extremely recurrent in all languages. It is introduced as a main issue for information retrieval in unstructured documents. This thesis will include an applicative part showing the relevance of the proposed theory and to make a system to automatically process mails. Moreover, the methodology which creating linguistically resources must permit to define an automatic learning resources tool which can be applied on new kind of documents.
|
1407 |
Standardization of textual data for comprehensive job market analysis / Normalisation textuelle pour une analyse exhaustive du marché de l'emploiMalherbe, Emmanuel 18 November 2016 (has links)
Sachant qu'une grande partie des offres d'emplois et des profils candidats est en ligne, le e-recrutement constitue un riche objet d'étude. Ces documents sont des textes non structurés, et le grand nombre ainsi que l'hétérogénéité des sites de recrutement implique une profusion de vocabulaires et nomenclatures. Avec l'objectif de manipuler plus aisément ces données, Multiposting, une entreprise française spécialisée dans les outils de e-recrutement, a soutenu cette thèse, notamment en terme de données, en fournissant des millions de CV numériques et offres d'emplois agrégées de sources publiques.Une difficulté lors de la manipulation de telles données est d'en déduire les concepts sous-jacents, les concepts derrière les mots n'étant compréhensibles que des humains. Déduire de tels attributs structurés à partir de donnée textuelle brute est le problème abordé dans cette thèse, sous le nom de normalisation. Avec l'objectif d'un traitement unifié, la normalisation doit fournir des valeurs dans une nomenclature, de sorte que les attributs résultants forment une représentation structurée unique de l'information. Ce traitement traduit donc chaque document en un language commun, ce qui permet d'agréger l'ensemble des données dans un format exploitable et compréhensible. Plusieurs questions sont cependant soulevées: peut-on exploiter les structures locales des sites web dans l'objectif d'une normalisation finale unifiée? Quelle structure de nomenclature est la plus adaptée à la normalisation, et comment l'exploiter? Est-il possible de construire automatiquement une telle nomenclature de zéro, ou de normaliser sans en avoir une?Pour illustrer le problème de la normalisation, nous allons étudier par exemple la déduction des compétences ou de la catégorie professionelle d'une offre d'emploi, ou encore du niveau d'étude d'un profil de candidat. Un défi du e-recrutement est que les concepts évoluent continuellement, de sorte que la normalisation se doit de suivre les tendances du marché. A la lumière de cela, nous allons proposer un ensemble de modèles d'apprentissage statistique nécessitant le minimum de supervision et facilement adaptables à l'évolution des nomenclatures. Les questions posées ont trouvé des solutions dans le raisonnement à partir de cas, le learning-to-rank semi-supervisé, les modèles à variable latente, ainsi qu'en bénéficiant de l'Open Data et des médias sociaux. Les différents modèles proposés ont été expérimentés sur des données réelles, avant d'être implémentés industriellement. La normalisation résultante est au coeur de SmartSearch, un projet qui fournit une analyse exhaustive du marché de l'emploi. / With so many job adverts and candidate profiles available online, the e-recruitment constitutes a rich object of study. All this information is however textual data, which from a computational point of view is unstructured. The large number and heterogeneity of recruitment websites also means that there is a lot of vocabularies and nomenclatures. One of the difficulties when dealing with this type of raw textual data is being able to grasp the concepts contained in it, which is the problem of standardization that is tackled in this thesis. The aim of standardization is to create a unified process providing values in a nomenclature. A nomenclature is by definition a finite set of meaningful concepts, which means that the attributes resulting from standardization are a structured representation of the information. Several questions are however raised: Are the websites' structured data usable for a unified standardization? What structure of nomenclature is the best suited for standardization, and how to leverage it? Is it possible to automatically build such a nomenclature from scratch, or to manage the standardization process without one? To illustrate the various obstacles of standardization, the examples we are going to study include the inference of the skills or the category of a job advert, or the level of training of a candidate profile. One of the challenges of e-recruitment is that the concepts are continuously evolving, which means that the standardization must be up-to-date with job market trends. In light of this, we will propose a set of machine learning models that require minimal supervision and can easily adapt to the evolution of the nomenclatures. The questions raised found partial answers using Case Based Reasoning, semi-supervised Learning-to-Rank, latent variable models, and leveraging the evolving sources of the semantic web and social media. The different models proposed have been tested on real-world data, before being implemented in a industrial environment. The resulting standardization is at the core of SmartSearch, a project which provides a comprehensive analysis of the job market.
|
1408 |
MIMO signal design, channel estimation, and symbol detection / Systèmes MIMO : conception, estimation du canal, et détectionCheng, ChienChun 12 January 2016 (has links)
Cette thèse aborde plusieurs problèmes fondamentaux des systèmes de communications sans fil avec des antennes multiples, dites systèmes MIMO (multiple input, multiple output). Les contributions se situent aussi bien au niveau des algorithmes de réception qu’au niveau de la génération du signal à l’émission.La plus grande partie de la thèse est dédiée à l’étude des algorithmes de réception. Les points abordés comprennent la modélisation et l’estimation du canal, la détection robuste des symboles, et la suppression des interférences. Un nouveau modèle de canal est proposé dans le chapitre 3 en exploitant les corrélations dans les domaines temporel, fréquentiel et spatial, et en réduisant l’espace des paramètres aux termes dominants. Ce modèle est utilisé pour proposer ensuite un estimateur de canal à faible complexité et aussi un sélecteur de mots de code pour envoyer vers l’émetteur les informations sur l’état du canal. Dans le chapitre 4, la réception robuste est étudiée pour les systèmes MIMO-OFDM sans une connaissance parfaite du canal. Des récepteurs robustes sont proposés pour les cas avec ou sans connaissance statistique du canal. La conception de récepteurs pour les systèmes MIMO-OFDM en présence d’interférence est étudiée dans le chapitre 5 et des récepteurs robustes sont proposés prenant en compte séparément l’interférence causée par les ondes pilotes et celle causée par les symboles d’une part et l’asynchronisme entre le signal et l’interférence d’autre part.Dans la deuxième partie de la thèse (chapitre 6), nous abordons les modulations spatiales qui sont particulièrement adaptées aux systèmes MIMO dans lesquels le nombre de chaines d’émission est inférieur aux nombre d’antennes. Remarquant que l’efficacité spectrale de ces systèmes reste très faible par rapport à la technique de multiplexage spatiale, nous avons développé des modulations spatiales améliorées (ESM, pour Enhanced Spatial Modulation) qui augmentent substantiellement l’efficacité spectrale. Ces modulations sont basées sur l’introduction de modulations secondaires, obtenues par interpolation. La technique ESM gagne plusieurs décibels en rapport signal à bruit lorsque les constellations du signal sont choisies de façon à avoir la même efficacité spectrale que dans les modulations spatiales conventionnelles. / The aim of this thesis is to investigate multiple input multiple output (MIMO) techniques from the reception algorithms, i.e., channel estimation, symbol detection, and interference suppression, to the advanced spatial modulation (SM) transmission schemes, i.e., the signal constellation design for high performance and energy efficiency. In the reception algorithms, the proposed schemes are derived based on the detection theory, i.e., maximum likelihood (ML), linear minimum mean square error (MMSE), successive interference cancellation (SIC), combining with the statistical analysis, i.e., Bayesian linear regression and Bayesian model comparison, in order to deal with the channel uncertainty, i.e., fading, correlations, thermal noise, multiple interference, and the impact of estimation errors.In the transmission schemes, the signal constellations are targeted to find a good trade off between the average transmit energy and the minimum Euclidean distance in the signal space. The proposed schemes, denoted by enhanced SM (ESM), introduce novel modulation/antenna combinations and use them as the information bits for transmission. The number of those combinations is the double or the quadruple of the number of active antenna indices (or index combinations) in conventional SM systems, and this increases the number of bits transmitted per channel use by one or two.The results of simulations show that good system performance can be achieved with the advanced MIMO techniques. Several examples are presented in this thesis to provide insights for the MIMO system designs.
|
1409 |
Quelque progrès en débruitage d'images / Advances in Image DenoisingPierazzo, Nicola 20 September 2016 (has links)
Cette thèse explore les dernières évolutions du débruitage d'images, et elle essaie de développer une vision synthétique des techniques utilisées jusqu'à présent. Elle aboutit à un nouvel algorithme de débruitage d'image évitant les artefacts et avec un meilleur PSNR que tous les algorithmes que nous avons pu évaluer. La première méthode que nous présentons est DA3D, un algorithme de débruitage fréquentiel avec guide, inspiré de DDID. La surprise de cet algorithme, c'est que le débruitage fréquentiel peut battre l'état de l'art sans produire artefacts. Cet algorithme produit des bons résultats non seulement en PSNR, mais aussi (et surtout) en qualité visuelle. DA3D marche particulièrement bien pour améliorer les textures des images et pour enlever les effets de staircasing.DA3D, guidé par un autre algorithme de débruitage améliore presque toujours le résultat de son guide. L'amélioration est particulièrement nette quand le guide est un algorithme à patchs, et alors on combine deux principes différents: auto-similarité suivi de seuillage fréquentiel. Le deuxième résultat présenté est une méthode universelle de débruitage multi-échelle, applicable à tout algorithme. Une analyse qualitative montre en effet que les algorithmes de débruitage à patchs éliminent surtout les hautes fréquences du bruit, à cause de la taille limitée des voisinages traités. Plutôt que d'agrandir ces voisinages nous décomposons l'image en une pyramide basée sur la transformée en cosinus discrète, avec une méthode de recomposition évitant le ringing. Cette méthode traite le bruit à basse fréquence, et améliore la qualité de l'image. Le troisième problème sérieux que nous abordons est l'évaluation des algorithmes de débruitage. Il est bien connu que le PSNR n'est pas un indice suffisant de qualité. Un artefact sur une zone lisse de l'image est bien plus visible qu'une altération en zone texturée. Nous proposons une nouvelle métrique basée sur un Smooth PSNR et un Texture PSNR, pour mesurer les résultats d'un algorithme sur ces deux types des régions. Il apparaît qu'un algorithme de débruitage, pour être considéré acceptable, doit avoir des bons résultats pour les deux métriques. Ces métriques sont finalement utilisées pour comparer les algorithmes de l'état de l'art avec notre algorithme final, qui combine les bénéfices du multi-échelle et du filtrage fréquentiel guidé. Les résultats étant très positifs, nous espérons que la thèse contribue à résoudre un vieux dilemme, pour lequel la méthode DDID avait apporté de précieuses indications : comment choisir entre le seuillage fréquentiel et les méthodes basées sur l'auto-similarité pour le débruitage d'images ? La réponse est qu'il ne faut pas choisir. Cette thèse termine avec quelques perspectives sur la faisabilité du débruitage "externe". Son principe est de débruiter un patch en utilisant une grande base de données externe de patches sans bruit. Un principe bayésien démontré par Levin et Nadler en 2011 implique que le meilleur résultat possible serait atteint avec cette méthode, à condition d'utiliser tous les patches observables. Nous donnons les arguments mathématiques prouvant que l'espace des patches peut être factorisé, ce qui permet de réduire la base de données de patches utilisés d'un facteur au moins 1000. / This thesis explores the last evolutions on image denoising, and attempts to set a new and more coherent background regarding the different techniques involved. In consequence, it also presents a new image denoising algorithm with minimal artifacts and the best PSNR performance known so far.A first result that is presented is DA3D, a frequency-based guided denoising algorithm inspired form DDID [Knaus-Zwicker 2013]. This demonstrates that, contrarily to what was thought, frequency-based denoising can beat state-of-the-art algorithms without presenting artifacts. This algorithm achieves good results not only in terms of PSNR, but also (and especially) with respect to visual quality. DA3D works particularly well on enhancing the textures of the images and removing staircasing effects.DA3D works on top of another denoising algorithm, that is used as a guide, and almost always improve its results. In this way, frequency-based denoising can be applied on top of patch-based denoising algorithms, resulting on a hybrid method that keeps the strengths of both. The second result presented is Multi-Scale Denoising, a framework that allows to apply any denoising algorithm on a multi-scale fashion. A qualitative analysis shows that current denoising algorithms behave better on high-frequency noise. This is due to the relatively small size of patches and search windows currently used. Instead of enlarging those patches, that can cause other sorts of problems, the work proposes to decompose the image on a pyramid, with the aid of the Discrete Cosine Transformation. A quantitative study is performed to recompose this pyramid in order to avoid the appearance of ringing artifacts. This method removes most of the low-frequency noise, and improves both PSNR and visual results for smooth and textured areas.A third main issue addressed in this thesis is the evaluation of denoising algorithms. Experiences indicate that PSNR is not always a good indicator of visual quality for denoising algorithms, since, for example, an artifact on a smooth area can be more noticeable than a subtle change in a texture. A new metric is proposed to improve on this matter. Instead of a single value, a ``Smooth PNSR'' and a ``Texture PSNR'' are presented, to measure the result of an algorithm for those two types of image regions. We claim that a denoising algorithm, in order to be considered acceptable, must at least perform well with respect to both metrics. Following this claim, an analysis of current algorithms is performed, and it is compared with the combined results of the Multi-Scale Framework and DA3D.We found that the optimal solution for image denoising is the application of a frequency shrinkage, applied to regular regions only, while a multiscale patch based method serves as guide. This seems to resolve a long standing question for which DDID gave the first clue: what is the respective role of frequency shrinkage and self-similarity based methods for image denoising? We describe an image denoising algorithm that seems to perform better in quality and PSNR than any other based on the right combination of both denoising principles. In addition, a study on the feasibility of external denoising is carried, where images are denoised by means of a big database of external noiseless patches. This follows a work of Levin and Nadler, in 2011, that claims that state-of-the-art results are achieved with this method if a large enough database is used. In the thesis it is shown that, with some observation, the space of all patches can be factorized, thereby reducing the number of patches needed in order to achieve this result. Finally, secondary results are presented. A brief study of how to apply denoising algorithms on real RAW images is performed. An improved, better performing version of the Non-Local Bayes algorithm is presented, together with a two-step version of DCT Denoising. The latter is interesting for its extreme simplicity and for its speed.
|
1410 |
L’analyse des commentaires de client : Comment obtenir les informations utiles pour l’innovation et l’amélioration de produit / Online review analysis : How to get useful information for innovating and improving products?Hou, Tianjun 04 December 2018 (has links)
Avec le développement du commerceélectronique, les clients ont publié de nombreuxcommentaires de produit sur Internet. Ces donnéessont précieuses pour les concepteurs de produit, carles informations concernant les besoins de client sontidentifiables. L'objectif de cette étude est dedévelopper une approche d'analyse automatique descommentaires utilisateurs permettant d'obtenir desinformations utiles au concepteur pour guiderl'amélioration et l'innovation des produits.L’approche proposée contient deux étapes :structuration des données et analyse des données.Dans la structuration des données, l’auteur proposed’abord une ontologie pour organiser les mots et lesexpressions concernant les besoins de client décrientdans les commentaires. Ensuite, une méthode detraitement du langage naturelle basée des règleslinguistiques est proposé pour structurerautomatiquement les textes de commentaires dansl’ontologie proposée.Dans l’analyse des données, deux méthodes sontproposées pour obtenir des idées d’innovation et desvisions sur le changement de préférence d’utilisateuravec le temps. Dans ces deux méthodes, les modèleset les méthodes traditionnelles comme affordancebasedesign, l’analyse conjointe, et le Kano modelsont étudié et appliqué d’une façon innovante.Pour évaluer la praticabilité de l’approche proposéedans la réalité, les commentaires de client de liseusenumérique Kindle sont analysés. Des pistesd’innovation et des stratégies pour améliorer leproduit sont identifiés et construites. / With the development of e-commerce,consumers have posted large number of onlinereviews on the internet. These user-generated dataare valuable for product designers, as informationconcerning user requirements and preference can beidentified.The objective of this study is to develop an approachto guide product design by analyzing automaticallyonline reviews. The proposed approach consists oftwo steps: data structuration and data analytics.In data structuration, the author firstly proposes anontological model to organize the words andexpressions concerning user requirements in reviewtext. Then, a rule-based natural language processingmethod is proposed to automatically structure reviewtext into the propose ontology.In data analytics, two methods are proposed based onthe structured review data to provide designers ideason innovation and to draw insights on the changes ofuser preference over time. In these two methods,traditional affordance-based design, conjointanalysis, the Kano model are studied andinnovatively applied in the context of big data.To evaluate the practicability of the proposedapproach, the online reviews of Kindle e-readers aredownloaded and analyzed, based on which theinnovation path and the strategies for productimprovement are identified and constructed.
|
Page generated in 0.0681 seconds