• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 11
  • 1
  • Tagged with
  • 40
  • 17
  • 10
  • 10
  • 9
  • 7
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Psychologie cognitive des processus d’attention sélective : fonctionnement, développement normal et dysfonctionnement chez des enfants traités pour une tumeur du cervelet / Cognitive psychology of selective attention processes : functioning, normal development and dysfunction in children treated for a cerebellar tumor

Walker, Marina 27 January 2012 (has links)
L’attention est sollicitée quotidiennement et peut être définie comme l’action de se concentrer sur quelque chose. Dès le plus jeune âge nous développons cette fonction cognitive, indispensable pour nos interactions avec le monde.Dans ce travail, la compréhension du fonctionnement des processus attentionnels est abordée à travers deux questions : comment les processus attentionnels se développent chez l’enfant sain et comment sont-ils atteints chez les enfants traités pour une tumeur du cervelet ? Plus précisément, cette thèse a pour objectif l’étude de la dissociation entre des processus automatiques et contrôlés de l’attention sélective visuelle dans le développement cognitif normal d’une part, et d’autre part dans leur atteinte chez des enfants ayant été traités pour une tumeur du cervelet. En intégrant une approche comportementale et une approche en imagerie fonctionnelle afin de répondre de façon complémentaire à cet objectif, ce travail interdisciplinaire se situe au carrefour de la psychologie, de la neuropsychologie et des neurosciences cognitives.Ce manuscrit comporte deux parties. Dans l’introduction théorique, une revue de la littérature se décomposant en trois chapitres est proposée ; elle porte précisément sur le fonctionnement de l’attention, son développement et ses déficits chez des enfants traités pour une tumeur du cervelet. Dans la partie expérimentale, deux chapitres sont présentées. Le premier chapitre concerne une étude sur la maturation de l’attention chez des enfants de 7 ans à l’âge adulte à travers une approche comportementale et en imagerie fonctionnelle. Le second chapitre étudie à l’aide de cette double approche les déficits attentionnels chez les enfants ayant été traités pour une tumeur du cervelet. Les résultats de nos expériences ont montré qu’entre les processus attentionnels automatiques et contrôlés, il existait une dissociation d’une part dans leur développement à un niveau comportemental et fonctionnel, et d’autre part dans la compensation des réseaux cérébraux sous-tendant une préservation comportementale chez des enfants traités pour une tumeur du cervelet. Ces données suggèrent un fonctionnement distinct de ces processus de par leur développement normal et leur dysfonctionnement en pathologie. / Attention can be defined as the act of focusing on something. We develop this cognitive function necessary to adjust our interactions with the world since birth.The general goal of this research is to understand the functioning of attentional processes through two questions: how attentional processes are developed in healthy children and how they are altered in children treated for a cerebellar tumor. This thesis specifically aims to study the dissociation between automatic and controlled processes of visual selective attention, firstly in normal cognitive development and secondly in their impairment in children treated for a cerebellar tumor. By incorporating in parallel a behavioral approach and an approach in functional imaging, this interdisciplinary work is at the crossroads of cognitive psychology, cognitive neuropsychology and cognitive neurosciences.This manuscript has two parts. The theory part is composed of three chapters: the functioning, the normal development and the deficits of attention in children treated for a cerebellar tumor. The experimental part includes two chapters. The first one concerns the attentional development in participants from seven years old to an adult age, with a behavioral approach using two experimental paradigms and an approach in functional imaging. The second chapter, with the help of this double approach, presents an alteration of attention in children treated for a posterior fossa tumor. The results showed on one side that automatic and controlled attentional processes were dissociated in their development at a behavioral and a functional level. And on the other side, the results revealed that although the automatic and controlled attentional processes are behaviorally preserved in children treated for a cerebellar tumor, they were subtended by a different modification of the functional network. Taken together these data suggest a distinct functioning of these processes in their normal development and their impairment in disease.
32

Design of algorithms for the automatic characterization of marine dune morphology and dynamics / Description morphométrique de la dynamique des dunes et bancs de sable sous-marins en vue de leur classification

Ogor, Julien 11 June 2018 (has links)
Les dunes marines sont de grandes structures sédimentaires qui, ensemble, couvrent de larges zones appelées champs de dunes. Des dunes ont été découvertes dans tous les océans, de la côte jusqu'aux talus continentaux. Leur forme et mobilité sont des témoins du lien étroit qui existe entre le transport sédimentaire, l'hydrodynamique (courants marins) et la topographie du fond. L'étude des dunes est intéressante scientifiquement parlant, mais elle est également motivée par des enjeux économiques et environnementaux. Les dunes peuvent être étudiées de deux manières : La modélisation et l'analyse de données de terrain (granulométrie, courantométrie, données sismiques, données bathymétriques). Ces deux approches sont très différentes mais complémentaires. Avec l'amélioration des données Sondeur Multi-Faisceaux (SMF), il est maintenant possible de visualiser la morphologie des dunes et de suivre leur évolution de manière plus détaillée. Plusieurs méthodes automatiques d'analyse de la morphologie et de la dynamique des dunes ont été développées pour analyser les Modèles Numériques de Terrain (MNTs) construits à partir de ces données SMF. Pourtant, aucun ne permet d'estimer les valeurs de descripteurs morphologiques et dynamiques pour chaque dune. L'analyse et l'évaluation de ces descripteurs restent régionales avec le découpage des MNTs en régions rectangulaires. Seul un traitement manuel permet d'estimer ces descripteurs pour chaque dune. L'objectif de cette thèse est de développer des algorithmes automatiques permettant de quanti er la morphologie et la dynamique de chaque dune. Pour ce faire, une représentation des données SMF sous forme d'une tessellation triangulaire a été préférée au classique MNT régulier. Tout d'abord, les dunes doivent être extraites de la topographie du fond marin. Un algorithme par accroissement de régions avec adaptation de l'échelle d'analyse, issu de la géomorphométrie est proposé. Les crêtes de dunes sont d'abord extraites en combinant un algorithme de simplification de tessellations avec un algorithme d'extraction de lignes de crête. La résolution de la tessellation est adaptée par l'algorithme de simplification afin de faciliter l'extraction des lignes de crête. Les lignes de crête sont des objets bien définis en géométrie différentielle. Leur extraction s'appuie sur l'interprétation de cette définition appliquée à des modèles discrets du fond (tessellations). Les crêtes servent d'embryons à l'algorithme d'extraction des dunes. L'estimation des paramètres morphologiques des dunes (longueur, largeur, hauteur, etc.) découle de l'extraction automatique des dunes. L'utilisation d'une méthode de recalage non rigide (isométrique) pour la quantification de la dynamique est discutée. Des tessellations représentant la topographie d'un même champ de dunes à différents moments sont analysées par l'algorithme d'extraction des dunes. Ensuite, une dune est associée à une dune d'une autre tessellation qui lui correspond (même dune à un autre instant). La dynamique de chaque dune est quantifiée à partir des résultats de l'algorithme de recalage : les transformations permettant d'aligner différentes représentations d'une dune. / Marine dunes are large sedimentary mounds often organized in dunefields. Theyhave been discovered in oceans all around the globe, from continental rises to nearshore areas. These mobile seafloor structures reflect the unique and complex relationship between the sediment, the seafloor topography and the hydrodynamics (currents). Dunes are not only interesting at a scientific level. In fact, their study is also motivated by economic, safety and environmental reasons. The study of dunes can be divided into two complementary approaches: Modelling and analysis of in situ data (granulometry, current, bathymetric data).The increased quality of MultiBeam EchoSounder (MBES) data allows scientists to monitor and visualize the complexity of, both, dune morphology and dynamics. Au-tomatic methods to characterize dune morphology and dynamics using Digital TerrainModels (DTMs) have already been proposed. But, none does it at the dune scale. Mor-phological and dynamical descriptors are estimated for patches of the dunefield. Today, the evaluation of such descriptors for each dune can only be achieved manually.The objective of this thesis is to design automatic algorithms for the quantification of dune morphology and dynamics. A representation of MBES data as triangular meshes has been preferred to the usual gridded DTMs. The first stage consists of delineating dunes in the seafloor. A scale adaptative, region growing algorithm based on geomorphometry is proposed. The combination of mesh implification and crest extraction algorithms enables to accurately recover dune crest lines. The mesh simplification facilitates the crest extraction by adapting the mesh resolution. Crest extraction is based on the discrete interpretation of the definition of crest lines in differential geometry. The crests are, then, used as seed regions by the dune extraction algorithm.
33

Séparation aveugle de mélanges linéaires convolutifs de sources corrélées

Ghennioui, Hicham 19 July 2008 (has links) (PDF)
Dans cette thèse, nous étudions le problème de la séparation aveugle de mélanges linéaires convolutifs sur-déterminés réels ou complexes de sources. Les sources considérées sont réelles ou complexes, déterministes ou aléatoires et dans ce dernier cas statistiquement indépendantes ou corrélées, stationnaires, cyclostationnaires ou non-stationnaires. Nous développons des approches combinant de nouveaux algorithmes de (bloc) diagonalisation conjointe (non unitaires) à de nouveaux détecteurs de points (temps-fréquence ou autres...) particuliers permettant d'élaborer le ou les ensembles de matrices devant être (bloc) diagonalisées conjointement. Les principaux avantages de ces approches sont d'être plus directes en ce se sens qu'elles ne requièrent plus de blanchiment préalable des observations. Elles permettent en outre d'aborder le cas réputé difficile des signaux corrélés. En ce qui concerne les algorithmes de (bloc) diagonalisation conjointe, nous proposons quatre nouveaux algorithmes sans contrainte d'unitarité sur la matrice recherchée. Le premier algorithme est de type algébrique itératif. Il est basé sur l'optimisation d'un critère de type moindres carrés. Les trois autres approches utilisent un schéma d'optimisation de type gradient. Dans un premier temps le calcul du gradient matriciel de la fonction de coût étudiée est approché. Puis dans un second temps le calcul exact est mené et deux nouveaux algorithmes sont proposés : l'un à base de gradient, l'autre à base de gradient relatif. Nous étudions les versions à pas fixe de ces trois algorithmes, puis les versions à pas optimal afin d'accélérer la convergence des algorithmes (le pas est alors recalculé algébriquement à chaque itération en cherchant les racines d'un polynôme d'ordre trois). Un lien avec la diagonalisation conjointe non unitaire est également établi. Ces algorithmes de bloc-diagonalisation conjointe possèdent l'avantage d'être généraux : les matrices de l'ensemble considéré ne sont ni nécessairement réelles, ni à symétrie hermitienne, ni définies positives et le bloc-diagonaliseur conjoint peut être une matrice unitaire ou non-unitaire.
34

Contributions à la conception sûre des systèmes embarqués sûrs

Girault, Alain 05 September 2006 (has links) (PDF)
Je présente dans ce document mes résultats de recherche sur la conception sûre de systèmes embarqués sûrs. La première partie concerne la répartition automatique de programmes synchrones. Le caractère automatique de la répartition apporte un réel degré de sûreté dans la conception de systèmes répartis car c'est la partie la plus délicate de la spécification qui est automatisée. Grâce à cela, l'absence d'inter-blocage et l'équivalence fonctionnelle entre le programme source centralisé et le programme final réparti peuvent être formellement démontrées. La deuxième partie traite le sujet de l'ordonnancement et de la répartition de graphes de tâches flots-de-données sur des architectures à mémoire répartie, avec contraintes de tolérance aux fautes et de fiabilité. Je présente principalement des heuristiques d'ordonnancement statique multiprocesseur avec pour but la tolérance aux fautes et la fiabilité des systèmes, mais également l'utilisation de méthodes formelles telles que la synthèse de contrôleurs discrets ou les transformations automatiques de programmes. Enfin, la troisième partie concerne les autoroutes automatisées, avec deux volets : la commande longitudinale de véhicules autonomes et les stratégies d'insertion dans les autoroutes automatisées.
35

Génération de résumés par abstraction

Genest, Pierre-Étienne 05 1900 (has links)
Cette thèse présente le résultat de plusieurs années de recherche dans le domaine de la génération automatique de résumés. Trois contributions majeures, présentées sous la forme d'articles publiés ou soumis pour publication, en forment le coeur. Elles retracent un cheminement qui part des méthodes par extraction en résumé jusqu'aux méthodes par abstraction. L'expérience HexTac, sujet du premier article, a d'abord été menée pour évaluer le niveau de performance des êtres humains dans la rédaction de résumés par extraction de phrases. Les résultats montrent un écart important entre la performance humaine sous la contrainte d'extraire des phrases du texte source par rapport à la rédaction de résumés sans contrainte. Cette limite à la rédaction de résumés par extraction de phrases, observée empiriquement, démontre l'intérêt de développer d'autres approches automatiques pour le résumé. Nous avons ensuite développé un premier système selon l'approche Fully Abstractive Summarization, qui se situe dans la catégorie des approches semi-extractives, comme la compression de phrases et la fusion de phrases. Le développement et l'évaluation du système, décrits dans le second article, ont permis de constater le grand défi de générer un résumé facile à lire sans faire de l'extraction de phrases. Dans cette approche, le niveau de compréhension du contenu du texte source demeure insuffisant pour guider le processus de sélection du contenu pour le résumé, comme dans les approches par extraction de phrases. Enfin, l'approche par abstraction basée sur des connaissances nommée K-BABS est proposée dans un troisième article. Un repérage des éléments d'information pertinents est effectué, menant directement à la génération de phrases pour le résumé. Cette approche a été implémentée dans le système ABSUM, qui produit des résumés très courts mais riches en contenu. Ils ont été évalués selon les standards d'aujourd'hui et cette évaluation montre que des résumés hybrides formés à la fois de la sortie d'ABSUM et de phrases extraites ont un contenu informatif significativement plus élevé qu'un système provenant de l'état de l'art en extraction de phrases. / This Ph.D. thesis is the result of several years of research on automatic text summarization. Three major contributions are presented in the form of published and submitted papers. They follow a path that moves away from extractive summarization and toward abstractive summarization. The first article describes the HexTac experiment, which was conducted to evaluate the performance of humans summarizing text by extracting sentences. Results show a wide gap of performance between human summaries written by sentence extraction and those written without restriction. This empirical performance ceiling to sentence extraction demonstrates the need for new approaches to text summarization. We then developed and implemented a system, which is the subject of the second article, using the Fully Abstractive Summarization approach. Though the name suggests otherwise, this approach is better categorized as semi-extractive, along with sentence compression and sentence fusion. Building and evaluating this system brought to light the great challenge associated with generating easily readable summaries without extracting sentences. In this approach, text understanding is not deep enough to provide help in the content selection process, as is the case in extractive summarization. As the third contribution, a knowledge-based approach to abstractive summarization called K-BABS was proposed. Relevant content is identified by pattern matching on an analysis of the source text, and rules are applied to directly generate sentences for the summary. This approach is implemented in a system called ABSUM, which generates very short and content-rich summaries. An evaluation was performed according to today's standards. The evaluation shows that hybrid summaries generated by adding extracted sentences to ABSUM's output have significantly more content than a state-of-the-art extractive summarizer.
36

Apprentissage automatique de caractéristiques audio : application à la génération de listes de lecture thématiques / Machine learning algorithms applied to audio features analysis : application in the automatic generation of thematic musical playlists

Bayle, Yann 19 June 2018 (has links)
Ce mémoire de thèse de doctorat présente, discute et propose des outils de fouille automatique de mégadonnées dans un contexte de classification supervisée musical.L'application principale concerne la classification automatique des thèmes musicaux afin de générer des listes de lecture thématiques.Le premier chapitre introduit les différents contextes et concepts autour des mégadonnées musicales et de leur consommation.Le deuxième chapitre s'attelle à la description des bases de données musicales existantes dans le cadre d'expériences académiques d'analyse audio.Ce chapitre introduit notamment les problématiques concernant la variété et les proportions inégales des thèmes contenus dans une base, qui demeurent complexes à prendre en compte dans une classification supervisée.Le troisième chapitre explique l'importance de l'extraction et du développement de caractéristiques audio et musicales pertinentes afin de mieux décrire le contenu des éléments contenus dans ces bases de données.Ce chapitre explique plusieurs phénomènes psychoacoustiques et utilise des techniques de traitement du signal sonore afin de calculer des caractéristiques audio.De nouvelles méthodes d'agrégation de caractéristiques audio locales sont proposées afin d'améliorer la classification des morceaux.Le quatrième chapitre décrit l'utilisation des caractéristiques musicales extraites afin de trier les morceaux par thèmes et donc de permettre les recommandations musicales et la génération automatique de listes de lecture thématiques homogènes.Cette partie implique l'utilisation d'algorithmes d'apprentissage automatique afin de réaliser des tâches de classification musicale.Les contributions de ce mémoire sont résumées dans le cinquième chapitre qui propose également des perspectives de recherche dans l'apprentissage automatique et l'extraction de caractéristiques audio multi-échelles. / This doctoral dissertation presents, discusses and proposes tools for the automatic information retrieval in big musical databases.The main application is the supervised classification of musical themes to generate thematic playlists.The first chapter introduces the different contexts and concepts around big musical databases and their consumption.The second chapter focuses on the description of existing music databases as part of academic experiments in audio analysis.This chapter notably introduces issues concerning the variety and unequal proportions of the themes contained in a database, which remain complex to take into account in supervised classification.The third chapter explains the importance of extracting and developing relevant audio features in order to better describe the content of music tracks in these databases.This chapter explains several psychoacoustic phenomena and uses sound signal processing techniques to compute audio features.New methods of aggregating local audio features are proposed to improve song classification.The fourth chapter describes the use of the extracted audio features in order to sort the songs by themes and thus to allow the musical recommendations and the automatic generation of homogeneous thematic playlists.This part involves the use of machine learning algorithms to perform music classification tasks.The contributions of this dissertation are summarized in the fifth chapter which also proposes research perspectives in machine learning and extraction of multi-scale audio features.
37

Modèle dans le domaine temporel et la validation expérimentale d’un scanner ultrasonore à ondes de surface sans contact / Time domain model and experimental validation of the non-contact surface wave ultrasonic scanner

Li, Ji 20 December 2017 (has links)
Ce travail de recherche propose l’algorithme de calcul pour la modélisation d’un scanner ultrasonore sans contact à ondes de surface. L’approche proposée permet de prendre en compte l’ouverture finie du récepteur, l’atténuation d’air et la réponse électrique he de l’ensemble émetteur-récepteur. Le milieu avec l’atténuation (air et milieu testé) est modélisé dans le domaine temporel à l’aide de la fonction de Green causale permettant la caractérisation large bande. Le réponse he est déterminée de manière expérimentale en utilisant la procédure spatialement développée, incluant la déconvolution des effets d’atténuation. Le modèle est implémenté numériquement en utilisant l’approche de la Représentation Discrète et les résultats obtenus sont validés expérimentalement. La technique chirp est utilisée afin d’améliorer le rapport signal/bruit. Il est démontré que lorsque l’atténuation dans l’air, la dimension de récepteur et la réponse he reconstituée avec précision sont correctement pris en compte, la réponse impulsionnelle du système peut être prédite avec l’erreur de 2-5 %. L’introduction de la taille du récepteur est essentielle pour la prédiction dans le champ proche. Le temps de calcul obtenu est considérablement plus court que le temps nécessaire pour les méthodes FEM. A l’aide de ce modèle l’influence des réglages du scanner est étudiée. Les résultats obtenus permettent de formuler des recommandations pour les réglages optimaux / In this research the time-domain model for the prediction of an acoustic field in an air-coupled, non-contact, surface wave scanner is proposed. The model takes into account the finite size of the aperture receiver, attenuation in air, and the electric response he of the emitter-receiver set he. The attenuation is characterized by a causal time-domain Green’s function, allowing the wideband attenuation of a lossy medium (air and solid tested sample) obeying the power law to be modelled. The response he is recovered experimentally using an original especially developed procedure which includes the deconvolution of air absorption effects. The model is implemented numerically using a Discrete Representation approach and validated experimentally. In order to improve the signal to noise ratio the chirp technique is used. It is shown that when the attenuation in air, the receiver size, and the accurately recovered response he, are correctly taken into account, the model allows the system’s impulse response to be very accurately predicted, with errors ranging between 2-5%. Inclusion of the size of the receiver dimension in the model appears to be crucial to the accuracy of the near field predictions. The obtained computation efficiency is much better that efficiency of FEM methods. The influence of typical user defined settings has been investigated. The obtained conclusions will be used as the recommendations for further use
38

Abstract Numeration Systems: Recognizability, Decidability, Multidimensional S-Automatic Words, and Real Numbers

Charlier, Emilie 07 December 2009 (has links)
In this doctoral dissertation, we studied and solved several questions regarding positional and abstract numeration systems. Each particular problem is the focus of a chapter. The first problem concerns the study of the preservation of recognizability under multiplication by a constant in abstract numeration systems built on polynomial regular languages. We obtained several results generalizing those from P. Lecomte and M. Rigo. The second problem we considered is a decidability problem, which was already studied, most notably, by J. Honkala and A. Muchnik. For our part, we studied this problem for two new cases: the linear positional numeration systems and the abstract numeration systems. Next, we focused on the extension to the multidimensional setting of a result of A. Maes and M.~Rigo regarding S-automatic infinite words. We obtained a characterization of multidimensional S-automatic words in terms of multidimensional (non-necessarily uniform) morphisms. This result can be viewed as the analogous of O. Salon's extension of a theorem of A. Cobham. Finally, generalizing results of P. Lecomte and M. Rigo, we proposed a formalism to represent real numbers in the general framework of abstract numeration systems built on languages that are not necessarily regular. This formalism encompasses in particular the rational base numeration systems, which have been recently introduced by S. Akiyama, Ch. Frougny, and J. Sakarovitch. Finally, we ended with a list of open questions in the continuation of this work./Dans cette dissertation, nous étudions et résolvons plusieurs questions autour des systèmes de numération abstraits. Chaque problème étudié fait l'objet d'un chapitre. Le premier concerne l'étude de la conservation de la reconnaissabilité par la multiplication par une constante dans des systèmes de numération abstraits construits sur des langages réguliers polynomiaux. Nous avons obtenus plusieurs résultats intéressants généralisant ceux de P. Lecomte et M. Rigo. Le deuxième problème auquel je me suis intéressée est un problème de décidabilité déjà étudié notamment par J. Honkala et A. Muchnik et ici décliné en deux nouvelles versions : les systèmes de numération de position linéaires et les systèmes de numération abstraits. Ensuite, nous nous penchons sur l'extension au cas multidimensionnel d'un résultat d'A. Maes et de M. Rigo à propos des mots infinis S-automatiques. Nous avons obtenu une caractérisation des mots S-automatiques multidimensionnels en termes de morphismes multidimensionnels (non nécessairement uniformes). Ce résultat peut être vu comme un analogue de l'extension obtenue par O. Salon d'un théorème de A. Cobham. Finalement, nous proposons un formalisme de la représentation des nombres réels dans le cadre général des systèmes de numération abstraits basés sur des langages qui ne sont pas nécessairement réguliers. Ce formalisme englobe notamment le cas des numérations en bases rationnelles introduits récemment par S. Akiyama, Ch. Frougny et J. Sakarovitch. Nous terminons par une liste de questions ouvertes dans la continuité de ce travail.
39

Information fusion and decision-making using belief functions : application to therapeutic monitoring of cancer / Fusion de l’information et prise de décisions à l’aide des fonctions de croyance : application au suivi thérapeutique du cancer

Lian, Chunfeng 27 January 2017 (has links)
La radiothérapie est une des méthodes principales utilisée dans le traitement thérapeutique des tumeurs malignes. Pour améliorer son efficacité, deux problèmes essentiels doivent être soigneusement traités : la prédication fiable des résultats thérapeutiques et la segmentation précise des volumes tumoraux. La tomographie d’émission de positrons au traceur Fluoro- 18-déoxy-glucose (FDG-TEP) peut fournir de manière non invasive des informations significatives sur les activités fonctionnelles des cellules tumorales. Les objectifs de cette thèse sont de proposer: 1) des systèmes fiables pour prédire les résultats du traitement contre le cancer en utilisant principalement des caractéristiques extraites des images FDG-TEP; 2) des algorithmes automatiques pour la segmentation de tumeurs de manière précise en TEP et TEP-TDM. La théorie des fonctions de croyance est choisie dans notre étude pour modéliser et raisonner des connaissances incertaines et imprécises pour des images TEP qui sont bruitées et floues. Dans le cadre des fonctions de croyance, nous proposons une méthode de sélection de caractéristiques de manière parcimonieuse et une méthode d’apprentissage de métriques permettant de rendre les classes bien séparées dans l’espace caractéristique afin d’améliorer la précision de classification du classificateur EK-NN. Basées sur ces deux études théoriques, un système robuste de prédiction est proposé, dans lequel le problème d’apprentissage pour des données de petite taille et déséquilibrées est traité de manière efficace. Pour segmenter automatiquement les tumeurs en TEP, une méthode 3-D non supervisée basée sur le regroupement évidentiel (evidential clustering) et l’information spatiale est proposée. Cette méthode de segmentation mono-modalité est ensuite étendue à la co-segmentation dans des images TEP-TDM, en considérant que ces deux modalités distinctes contiennent des informations complémentaires pour améliorer la précision. Toutes les méthodes proposées ont été testées sur des données cliniques, montrant leurs meilleures performances par rapport aux méthodes de l’état de l’art. / Radiation therapy is one of the most principal options used in the treatment of malignant tumors. To enhance its effectiveness, two critical issues should be carefully dealt with, i.e., reliably predicting therapy outcomes to adapt undergoing treatment planning for individual patients, and accurately segmenting tumor volumes to maximize radiation delivery in tumor tissues while minimize side effects in adjacent organs at risk. Positron emission tomography with radioactive tracer fluorine-18 fluorodeoxyglucose (FDG-PET) can noninvasively provide significant information of the functional activities of tumor cells. In this thesis, the goal of our study consists of two parts: 1) to propose reliable therapy outcome prediction system using primarily features extracted from FDG-PET images; 2) to propose automatic and accurate algorithms for tumor segmentation in PET and PET-CT images. The theory of belief functions is adopted in our study to model and reason with uncertain and imprecise knowledge quantified from noisy and blurring PET images. In the framework of belief functions, a sparse feature selection method and a low-rank metric learning method are proposed to improve the classification accuracy of the evidential K-nearest neighbor classifier learnt by high-dimensional data that contain unreliable features. Based on the above two theoretical studies, a robust prediction system is then proposed, in which the small-sized and imbalanced nature of clinical data is effectively tackled. To automatically delineate tumors in PET images, an unsupervised 3-D segmentation based on evidential clustering using the theory of belief functions and spatial information is proposed. This mono-modality segmentation method is then extended to co-segment tumor in PET-CT images, considering that these two distinct modalities contain complementary information to further improve the accuracy. All proposed methods have been performed on clinical data, giving better results comparing to the state of the art ones.
40

Étude sur les représentations continues de mots appliquées à la détection automatique des erreurs de reconnaissance de la parole / A study of continuous word representations applied to the automatic detection of speech recognition errors

Ghannay, Sahar 20 September 2017 (has links)
Nous abordons, dans cette thèse, une étude sur les représentations continues de mots (en anglais word embeddings) appliquées à la détection automatique des erreurs dans les transcriptions de la parole. Notre étude se concentre sur l’utilisation d’une approche neuronale pour améliorer la détection automatique des erreurs dans les transcriptions automatiques, en exploitant les word embeddings. L’exploitation des embeddings repose sur l’idée que la détection d’erreurs consiste à trouver les possibles incongruités linguistiques ou acoustiques au sein des transcriptions automatiques. L’intérêt est donc de trouver la représentation appropriée du mot qui permet de capturer des informations pertinentes pour pouvoir détecter ces anomalies. Notre contribution dans le cadre de cette thèse porte sur plusieurs axes. D’abord, nous commençons par une étude préliminaire dans laquelle nous proposons une architecture neuronale capable d’intégrer différents types de descripteurs, y compris les embeddings. Ensuite, nous nous focalisons sur une étude approfondie des représentations continues de mots. Cette étude porte d’une part sur l’évaluation de différents types d’embeddings linguistiques puis sur leurs combinaisons. D’autre part, elle s’intéresse aux embeddings acoustiques de mots. Puis, nous présentons une étude sur l’analyse des erreurs de classifications, qui a pour objectif de percevoir les erreurs difficiles à détecter.Finalement, nous exploitons les embeddings linguistiques et acoustiques ainsi que l’information fournie par notre système de détections d’erreurs dans plusieurs cadres applicatifs. / My thesis concerns a study of continuous word representations applied to the automatic detection of speech recognition errors. Our study focuses on the use of a neural approach to improve ASR errors detection, using word embeddings. The exploitation of continuous word representations is motivated by the fact that ASR error detection consists on locating the possible linguistic or acoustic incongruities in automatic transcriptions. The aim is therefore to find the appropriate word representation which makes it possible to capture pertinent information in order to be able to detect these anomalies. Our contribution in this thesis concerns several initiatives. First, we start with a preliminary study in which we propose a neural architecture able to integrate different types of features, including word embeddings. Second, we propose a deep study of continuous word representations. This study focuses on the evaluation of different types of linguistic word embeddings and their combination in order to take advantage of their complementarities. On the other hand, it focuses on acoustic word embeddings. Then, we present a study on the analysis of classification errors, with the aim of perceiving the errors that are difficult to detect. Perspectives for improving the performance of our system are also proposed, by modeling the errors at the sentence level. Finally, we exploit the linguistic and acoustic embeddings as well as the information provided by our ASR error detection system in several downstream applications.

Page generated in 0.2697 seconds