• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 11
  • 5
  • 5
  • 1
  • 1
  • 1
  • Tagged with
  • 56
  • 56
  • 56
  • 20
  • 18
  • 17
  • 16
  • 14
  • 13
  • 10
  • 9
  • 8
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Séparation de sources en imagerie nucléaire / Source separation in nuclear imaging

Filippi, Marc 05 April 2018 (has links)
En imagerie nucléaire (scintigraphie, TEMP, TEP), les diagnostics sont fréquemment faits à l'aide des courbes d'activité temporelles des différents organes et tissus étudiés. Ces courbes représentent l'évolution de la distribution d'un traceur radioactif injecté dans le patient. Leur obtention est compliquée par la superposition des organes et des tissus dans les séquences d'images 2D, et il convient donc de séparer les différentes contributions présentes dans les pixels. Le problème de séparation de sources sous-jacent étant sous-déterminé, nous proposons d'y faire face dans cette thèse en exploitant différentes connaissances a priori d'ordre spatial et temporel sur les sources. Les principales connaissances intégrées ici sont les régions d'intérêt (ROI) des sources qui apportent des informations spatiales riches. Contrairement aux travaux antérieurs qui ont une approche binaire, nous intégrons cette connaissance de manière robuste à la méthode de séparation, afin que cette dernière ne soit pas sensible aux variations inter et intra-utilisateurs dans la sélection des ROI. La méthode de séparation générique proposée prend la forme d'une fonctionnelle à minimiser, constituée d'un terme d'attache aux données ainsi que de pénalisations et de relâchements de contraintes exprimant les connaissances a priori. L'étude sur des images de synthèse montrent les bons résultats de notre approche par rapport à l'état de l'art. Deux applications, l'une sur les reins, l'autre sur le cœur illustrent les résultats sur des données cliniques réelles. / In nuclear imaging (scintigraphy, SPECT, PET), diagnostics are often made with time activity curves (TAC) of organs and tissues. These TACs represent the dynamic evolution of tracer distribution inside patient's body. Extraction of TACs can be complicated by overlapping in the 2D image sequences, hence source separation methods must be used in order to extract TAC properly. However, the underlying separation problem is underdetermined. We propose to overcome this difficulty by adding some spatial and temporal prior knowledge about sources on the separation process. The main knowledge used in this work is region of interest (ROI) of organs and tissues. Unlike state of the art methods, ROI are integrated in a robust way in our method, in order to face user-dependancy in their selection. The proposed method is generic and minimize an objective function composed with a data fidelity criterion, penalizations and relaxations expressing prior knowledge. Results on synthetic datasets show the efficiency of the proposed method compare to state of the art methods. Two clinical applications on the kidney and on the heart are also adressed.
32

Estimation du niveau sonore de sources d'intérêt au sein de mixtures sonores urbaines : application au trafic routier / Estimation of the noise level of sources of interest within urban noise mixtures : application to road traffic

Gloaguen, Jean-Rémy 03 October 2018 (has links)
Des réseaux de capteurs acoustiques sont actuellement mis en place dans plusieurs grandes villes afin d’obtenir une description plus fine de l’environnement sonore urbain. Un des défis à relever est celui de réussir,à partir d’enregistrements sonores, à estimer des indicateurs utiles tels que le niveau sonore du trafic routier. Cette tâche n’est en rien triviale en raison de la multitude de sources sonores qui composent cet environnement. Pour cela, la Factorisation en Matrices Non-négatives (NMF) est considérée et appliquée sur deux corpus de mixtures sonores urbaines simulés. L’intérêt de simuler de tels mélanges est la possibilité de connaitre toutes les caractéristiques de chaque classe de son dont le niveau sonore exact du trafic routier. Le premier corpus consiste en 750 scènes de 30 secondes mélangeant une composante de trafic routier dont le niveau sonore est calibré et une classe de son plus générique. Les différents résultats ont notamment permis de proposer une nouvelle approche, appelée « NMF initialisée seuillée », qui se révèle être la plus performante. Le deuxième corpus créé permet de simuler des mixtures sonores plus représentatives des enregistrements effectués en villes, dont leur réalisme a été validé par un test perceptif. Avec une erreur moyenne d’estimation du niveau sonore inférieure à 1,2 dB, la NMF initialisée seuillée se révèle, là encore, la méthode la plus adaptée aux différents environnements sonores urbains. Ces résultats ouvrent alors la voie vers l’utilisation de cette méthode à d’autres sources sonores, celles que les voix et les sifflements d’oiseaux, qui pourront mener, à terme, à la réalisation de cartes de bruits multi-sources. / Acoustic sensor networks are being set up in several major cities in order to obtain a more detailed description of the urban sound environment. One challenge is to estimate useful indicators such as the road traffic noise level on the basis of sound recordings. This task is by no means trivial because of the multitude of sound sources that composed this environment. For this, Non-negative Matrix Factorization (NMF) is considered and applied on two corpuses of simulated urban sound mixtures. The interest of simulating such mixtures is the possibility of knowing all the characteristics of each sound class including the exact road traffic noise level. The first corpus consists of 750 30-second scenes mixing a road traffic component with a calibrated sound level and a more generic sound class. The various results have notably made it possible to propose a new approach, called ‘Thresholded Initialized NMF', which is proving to be the most effective. The second corpus created makes it possible to simulate sound mixtures more representatives of recordings made in cities whose realism has been validated by a perceptual test. With an average noise level estimation error of less than 1.3 dB, the Thresholded Initialized NMF stays the most suitable method for the different urban noise environments. These results open the way to the use of this method for other sound sources, such as birds' whistling and voices, which can eventually lead to the creation of multi-source noise maps.
33

Méthodes informées de factorisation matricielle non négative : Application à l'identification de sources de particules industrielles / Informed methods of Non-negative Matrix Factorization. A study of industrial source identification

Limem, Abdelhakim 21 November 2014 (has links)
Les méthodes de NMF permettent la factorisation aveugle d'une matrice non-négative X en le produit X = G . F de deux matrices non-négatives G et F. Bien que ces approches sont étudiées avec un grand intêret par la communauté scientifique, elles souffrent bien souvent d'un manque de robustesse vis à vis des données et des conditions initiales et peuvent présenter des solutions multiples. Dans cette optique et afin de réduire l'espace des solutions admissibles, les travaux de cette thèse ont pour objectif d'informer la NMF, positionnant ainsi nos travaux entre la régression et les factorisations aveugles classiques. Par ailleurs, des fonctions de coûts paramétriques appelées divergences αβ sont utilisées, permettant de tolérer la présence d'aberrations dans les données. Nous introduisons trois types de contraintes recherchées sur la matrice F à savoir (i) la connaissance exacte ou bornée de certains de ses éléments et (ii) la somme à 1 de chacune de ses lignes. Des règles de mise à jour permettant de faire cohabiter l'ensemble de ces contraintes par des méthodes multiplicatives mixées à des projections sont proposées. D'autre part, nous proposons de contraindre la structure de la matrice G par l'usage d'un modèle physique susceptible de distinguer les sources présentes au niveau du récepteur. Une application d'identification de sources de particules en suspension dans l'air, autour d'une région industrielle du littoral nord de la France, a permis de tester l'intérêt de l'approche. À travers une série de tests sur des données synthétiques et réelles, nous montrons l'apport des différentes informations pour rendre les résultats de la factorisation plus cohérents du point de vue de l'interprétation physique et moins dépendants de l'initialisation. / NMF methods aim to factorize a non negative observation matrix X as the product X = G.F between two non-negative matrices G and F. Although these approaches have been studied with great interest in the scientific community, they often suffer from a lack of robustness to data and to initial conditions, and provide multiple solutions. To this end and in order to reduce the space of admissible solutions, the work proposed in this thesis aims to inform NMF, thus placing our work in between regression and classic blind factorization. In addition, some cost functions called parametric αβ-divergences are used, so that the resulting NMF methods are robust to outliers in the data. Three types of constraints are introduced on the matrix F, i. e., (i) the "exact" or "bounded" knowledge on some components, and (ii) the sum to 1 of each line of F. Update rules are proposed so that all these constraints are taken into account by mixing multiplicative methods with projection. Moreover, we propose to constrain the structure of the matrix G by the use of a physical model, in order to discern sources which are influent at the receiver. The considered application - consisting of source identification of particulate matter in the air around an insdustrial area on the French northern coast - showed the interest of the proposed methods. Through a series of experiments on both synthetic and real data, we show the contribution of different informations to make the factorization results more consistent in terms of physical interpretation and less dependent of the initialization
34

Hardware / Algorithm Integration for Pharmaceutical Analysis

Casey J Smith (8755572) 29 April 2020 (has links)
New experimental strategies and algorithmic approaches were devised and tested to improve the analysis of pharmaceutically relevant materials. These new methods were developed to address key bottlenecks in the design of amorphous solid dispersions for the delivery of low-solubility active pharmaceutical ingredients in the final dosage forms exhibiting high bioavailability. <br>
35

Získávání skrytých znalostí z online dat souvisejících s vysokými školami

Hlaváč, Jakub January 2019 (has links)
Social networks are a popular form of communication. They are also used by universities in order to simplify information providing and addressing candidates for study. Foreign study stays are also a popular form of education. Students, however, encounter a number of obstacles. The results of this work can help universities make their social network communication more efficient and better support foreign studies. In this work, the data from Facebook related to Czech universities and the Erasmus program questionnaire data were analyzed in order to find useful knowledge. The main emphasis was on textual content of communication. The statistical and machine learning methods, including mostly feature selection, topic modeling and clustering were used. The results reveal interesting and popular topics discussed on Czech universities social networks. The main problems of students related to their foreign studies were identified too and some of them were compared for countries and universities.
36

Parallel Algorithms for Machine Learning

Moon, Gordon Euhyun 02 October 2019 (has links)
No description available.
37

Single-pixel imaging : Development and applications of adaptive methods / Imagerie mono-pixel : Développement et applications de méthodes adaptatives

Rousset, Florian 27 October 2017 (has links)
L'imagerie mono-pixel est un concept récent qui permet l'obtention d'images à un coût relativement faible par une compression des données durant l'acquisition. L'architecture d'une caméra mono-pixel comprend seulement deux éléments, un modulateur spatial de la lumière et un détecteur ponctuel. L'idée est de mesurer, au niveau du détecteur, la projection de la scène observée -l'image- avec un certain motif. Le post-traitement d'une séquence de mesures obtenues avec différents motifs permet de restaurer l'image de la scène. L'imagerie mono-pixel possède plusieurs avantages qui sont d'un intérêt pour différentes applications, en particulier dans le domaine biomédical. Par exemple, une caméra mono-pixel résolue en temps bas coût est bénéfique pour l'imagerie de temps de vie de fluorescence. Un tel système peut également être couplé à un spectromètre afin de compléter le temps de vie avec une information spectrale. Cependant, la limite principale de l'imagerie mono-pixel est la vitesse d'acquisition et/ou de l'étape de restauration d'image qui est, à ce jour, non compatible avec des applications temps réel. Le but de cette thèse est de développer des méthodes rapides d'acquisition et de restauration des images à visée d'applications biomédicales. Tout d'abord, une stratégie d'acquisition basée sur les algorithmes de compression dans le domaine ondelettes est proposée. Celle-ci accélère le temps de restauration de l'image par rapport aux schémas d'acquisition classiques basés sur l'acquisition comprimée. Dans un second temps, une nouvelle méthode pour lever une contrainte expérimentale de positivité sur les motifs est détaillée. Comparée aux approches classiques, cette méthode basée sur une factorisation en matrices non-négatives permet de diviser par deux le nombre de motifs envoyés au modulateur spatial de la lumière, entrainant ainsi une division par deux du temps d'acquisition total. Enfin, l'applicabilité de ces techniques est démontrée pour de l'imagerie multispectrale et/ou résolue en temps, modalités courantes dans le domaine biomédical. / Single-pixel imaging is a recent paradigm that allows the acquisition of images at a reasonably low cost by exploiting hardware compression of the data. The architecture of a single-pixel camera consists of only two elements, a spatial light modulator and a single point detector. The key idea is to measure, at the detector, the projection (i.e., inner product) of the scene under view -the image- with some patterns. The post-processing of a measurements sequence obtained with different patterns permits to restore the desired image. Single-pixel imaging has several advantages, which are of interest for different applications, especially in the biomedical field. In particular, a time-resolved single-pixel imaging system benefits to fluorescence lifetime sensing. Such a setup can be coupled to a spectrometer to supplement lifetime with spectral information. However, the main limitation of single-pixel imaging is the speed of the acquisition and/or image restoration that is, as of today, not compatible with real-time applications. This thesis investigates fast acquisition/restoration schemes for single-pixel camera targeting biomedical applications. First, a new acquisition strategy based on wavelet compression algorithms is reported. It is shown that it can significantly accelerate image recovery compared to conventional schemes belonging to the compressive sensing framework. Second, a novel technique is proposed to alleviate an experimental positivity constraint of the modulation patterns. With respect to the classical approaches, the proposed non-negative matrix factorization based technique permits to divide by two the number of patterns sent to the spatial light modulator, hence dividing the overall acquisition time by two. Finally, the applicability of these techniques is demonstrated for multispectral and/or time-resolved imaging, which are common modalities in biomedical imaging.
38

Unsupervised Models for White Matter Fiber-Bundles Analysis in Multiple Sclerosis / Modèles Non Supervisé pour l’Analyse des Fibres de Substance Blanche dans la Sclérose en Plaques

Stamile, Claudio 11 September 2017 (has links)
L’imagerie de résonance magnétique de diffusion (dMRI) est une technique très sensible pour la tractographie des fibres de substance blanche et la caractérisation de l’intégrité et de la connectivité axonale. A travers la mesure des mouvements des molécules d’eau dans les trois dimensions de l’espace, il est possible de reconstruire des cartes paramétriques reflétant l’organisation tissulaire. Parmi ces cartes, la fraction d’anisotropie (FA) et les diffusivités axiale (λa), radiale (λr) et moyenne (MD) ont été largement utilisés pour caractériser les pathologies du système nerveux central. L’emploi de ces cartes paramétriques a permis de mettre en évidence la survenue d’altérations micro structurelles de la substance blanche (SB) et de la substance grise (SG) chez les patients atteints d’une sclérose en plaques (SEP). Cependant, il reste à déterminer l’origine de ces altérations qui peuvent résulter de processus globaux comme la cascade inflammatoire et les mécanismes neurodégénératifs ou de processus plus localisés comme la démyélinisation et l’inflammation. De plus, ces processus pathologiques peuvent survenir le long de faisceaux de SB afférents ou efférents, conduisant à une dégénérescence antero- ou rétrograde. Ainsi, pour une meilleure compréhension des processus pathologiques et de leur progression dans l’espace et dans le temps, une caractérisation fine et précise des faisceaux de SB est nécessaire. En couplant l’information spatiale de la tractographie des fibres aux cartes paramétriques de diffusion, obtenues grâce à un protocole d’acquisitions longitudinal, les profils des faisceaux de SB peuvent être modélisés et analysés. Une telle analyse des faisceaux de SB peut être effectuée grâce à différentes méthodes, partiellement ou totalement non-supervisées. Dans la première partie de ce travail, nous dressons l’état de l’art des études déjà présentes dans la littérature. Cet état de l’art se focalisera sur les études montrant les effets de la SEP sur les faisceaux de SB grâce à l’emploi de l’imagerie de tenseur de diffusion. Dans la seconde partie de ce travail, nous introduisons deux nouvelles méthodes,“string-based”, l’une semi-supervisée et l’autre non-supervisée, pour extraire les faisceaux de SB. Nous montrons comment ces algorithmes permettent d’améliorer l’extraction de faisceaux spécifiques comparé aux approches déjà présentes dans la littérature. De plus, dans un second chapitre, nous montrons une extension de la méthode proposée par le couplage du formalisme “string-based” aux informations spatiales des faisceaux de SB. Dans la troisième et dernière partie de ce travail, nous décrivons trois algorithmes automatiques permettant l’analyse des changements longitudinaux le long des faisceaux de SB chez des patients atteints d’une SEP. Ces méthodes sont basées respectivement sur un modèle de mélange Gaussien, la factorisation de matrices non-négatives et la factorisation de tenseurs non-négatifs. De plus, pour valider nos méthodes, nous introduisons un nouveau modèle pour simuler des changements longitudinaux réels, base sur une fonction de probabilité Gaussienne généralisée. Des hautes performances ont été obtenues avec ces algorithmes dans la détection de changements longitudinaux d’amplitude faible le long des faisceaux de SB chez des patients atteints de SEP. En conclusion, nous avons proposé dans ce travail des nouveaux algorithmes non supervisés pour une analyse précise des faisceaux de SB, permettant une meilleure caractérisation des altérations pathologiques survenant chez les patients atteints de SEP / Diffusion Magnetic Resonance Imaging (dMRI) is a meaningful technique for white matter (WM) fiber-tracking and microstructural characterization of axonal/neuronal integrity and connectivity. By measuring water molecules motion in the three directions of space, numerous parametric maps can be reconstructed. Among these, fractional anisotropy (FA), mean diffusivity (MD), and axial (λa) and radial (λr) diffusivities have extensively been used to investigate brain diseases. Overall, these findings demonstrated that WM and grey matter (GM) tissues are subjected to numerous microstructural alterations in multiple sclerosis (MS). However, it remains unclear whether these tissue alterations result from global processes, such as inflammatory cascades and/or neurodegenerative mechanisms, or local inflammatory and/or demyelinating lesions. Furthermore, these pathological events may occur along afferent or efferent WM fiber pathways, leading to antero- or retrograde degeneration. Thus, for a better understanding of MS pathological processes like its spatial and temporal progression, an accurate and sensitive characterization of WM fibers along their pathways is needed. By merging the spatial information of fiber tracking with the diffusion metrics derived obtained from longitudinal acquisitions, WM fiber-bundles could be modeled and analyzed along their profile. Such signal analysis of WM fibers can be performed by several methods providing either semi- or fully unsupervised solutions. In the first part of this work, we will give an overview of the studies already present in literature and we will focus our analysis on studies showing the interest of dMRI for WM characterization in MS. In the second part, we will introduce two new string-based methods, one semi-supervised and one unsupervised, to extract specific WM fiber-bundles. We will show how these algorithms allow to improve extraction of specific fiber-bundles compared to the approaches already present in literature. Moreover, in the second chapter, we will show an extension of the proposed method by coupling the string-based formalism with the spatial information of the fiber-tracks. In the third, and last part, we will describe, in order of complexity, three different fully automated algorithms to perform analysis of longitudinal changes visible along WM fiber-bundles in MS patients. These methods are based on Gaussian mixture model, nonnegative matrix and tensor factorisation respectively. Moreover, in order to validate our methods, we introduce a new model to simulate real longitudinal changes based on a generalised Gaussian probability density function. For those algorithms high levels of performances were obtained for the detection of small longitudinal changes along the WM fiber-bundles in MS patients. In conclusion, we propose, in this work, a new set of unsupervised algorithms to perform a sensitivity analysis of WM fiber bundle that would be useful for the characterisation of pathological alterations occurring in MS patients
39

基植於非負矩陣分解之華語流行音樂曲式分析 / Chinese popular music structure analysis based on non-negative matrix factorization

黃柏堯, Huang, Po Yao Unknown Date (has links)
近幾年來,華語流行音樂的發展越來越多元,而大眾所接收到的資訊是流行音樂當中的組成元素”曲與詞”,兩者分別具有賦予人類感知的功能,使人能夠深刻體會音樂作品當中所表答的內容與意境。然而,作曲與作詞都是屬於專業的創作藝術,作詞者通常在填詞時,會先對樂曲當中的結構進行粗略的分析,找出整首曲子的曲式,而針對可以填詞的部份,再進行更細部的分析將詞填入最適當的位置。流行音樂當中,曲與詞存在著密不可分的關係,瞭解歌曲結構不僅能降低填詞的門檻,亦能夠明白曲子的骨架與脈絡;在音樂教育與音樂檢索方面亦有幫助。 本研究的目標為,使用者輸入流行音樂歌曲,系統會自動分析出曲子的『曲式結構』。方法主要分成三個部分,分別為主旋律擷取、歌句分段與音樂曲式結構擷取。首先,我們利用Support Vector Machine以學習之方式建立模型後,擷取出符號音樂中之主旋律。第二步驟我們以”歌句”為單位,對主旋律進行分段,對於分段之結果建構出Self-Similarity Matrix矩陣。最後再利用Non-Negative Matrix Factorization針對不同特徵值矩陣進行分解並建立第二層之Self-Similarity Matrix矩陣,以歧異度之方式找出曲式邊界。 我們針對分段方式對歌曲結構之影響進行分析與觀察。實驗數據顯示,事先將歌曲以歌句單位分段之效果較未分段佳,而歌句分段之評測結果F-Score為0.82;將音樂中以不同特徵值建構之自相似度矩進行Non-Negative Matrix Factorization後,另一空間中之基底特徵更能有效地分辨出不同的歌曲結構,其F-Score為0.71。 / Music structure analysis is helpful for music information retrieval, music education and alignment between lyrics and music. This thesis investigates the techniques of music structure analysis for Chinese popular music. Our work is to analyze music form automatically by three steps, main melody finding, sentence discovery, and music form discovery. First, we extract main melody based on learning from user-labeled sample using support vector machine. Then, the boundary of music sentence is detected by two-way classification using support vector machine. To discover the music form, the sentence-based Self-Similarity Matrix is constructed for each music feature. Non-negative Matrix Factorization is employed to extract the new features and to construct the second level Self-Similarity Matrix. The checkerboard kernel correlation is utilized to find music form boundaries on the second level Self-Similarity Matrix. Experiments on eighty Chinese popular music are performed for performance evaluation of the proposed approaches. For the main melody finding, our proposed learning-based approach is better than existing methods. The proposed approaches achieve 82% F-score for sentence discovery while 71% F-score for music form discovery.
40

Doppler Radar Data Processing And Classification

Aygar, Alper 01 September 2008 (has links) (PDF)
In this thesis, improving the performance of the automatic recognition of the Doppler radar targets is studied. The radar used in this study is a ground-surveillance doppler radar. Target types are car, truck, bus, tank, helicopter, moving man and running man. The input of this thesis is the output of the real doppler radar signals which are normalized and preprocessed (TRP vectors: Target Recognition Pattern vectors) in the doctorate thesis by Erdogan (2002). TRP vectors are normalized and homogenized doppler radar target signals with respect to target speed, target aspect angle and target range. Some target classes have repetitions in time in their TRPs. By the use of these repetitions, improvement of the target type classification performance is studied. K-Nearest Neighbor (KNN) and Support Vector Machine (SVM) algorithms are used for doppler radar target classification and the results are evaluated. Before classification PCA (Principal Component Analysis), LDA (Linear Discriminant Analysis), NMF (Nonnegative Matrix Factorization) and ICA (Independent Component Analysis) are implemented and applied to normalized doppler radar signals for feature extraction and dimension reduction in an efficient way. These techniques transform the input vectors, which are the normalized doppler radar signals, to another space. The effects of the implementation of these feature extraction algoritms and the use of the repetitions in doppler radar target signals on the doppler radar target classification performance are studied.

Page generated in 0.1266 seconds