• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 133
  • 24
  • 12
  • 7
  • 5
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 213
  • 53
  • 31
  • 30
  • 29
  • 27
  • 24
  • 21
  • 21
  • 20
  • 19
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Investigação da combinação de filtragem colaborativa e recomendação baseada em confiança através de medidas de esparsidade

AZUIRSON, Gabriel de Albuquerque Veloso 06 August 2015 (has links)
Submitted by Haroudo Xavier Filho (haroudo.xavierfo@ufpe.br) on 2016-03-11T15:25:20Z No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação_gava_cin.pdf: 1596983 bytes, checksum: 23245c1b65fe3416d3baeeac5e118845 (MD5) / Made available in DSpace on 2016-03-11T15:25:20Z (GMT). No. of bitstreams: 2 license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) dissertação_gava_cin.pdf: 1596983 bytes, checksum: 23245c1b65fe3416d3baeeac5e118845 (MD5) Previous issue date: 2015-08-06 / Sistemas de recomendação têm desempenhado um papel importante em diferentes contextos de aplicação (e.g recomendação de produtos, filmes, músicas, livros, dentre outros). Eles automaticamente sugerem a cada usuário itens que podem ser relevantes, evitando que o usuário tenha que analisar uma quantidade gigantesca de itens para realizar sua escolha. Filtragem colaborativa (FC) é a abordagem mais popular para a construção de sistemas de recomendação, embora sofra com problemas relacionados à esparsidade dos dados (e.g., usuários ou itens com poucas avaliações). Neste trabalho, investigamos a combinação de técnicas de FC, representada pela técnica de Fatoração de Matrizes, e técnicas de recomendação baseada em confiança (RBC) em redes sociais para aliviar o problema da esparsidade dos dados. Sistemas de RBC têm se mostrado de fato efetivos para aumentar a qualidade das recomendações, em especial para usuários com poucas avaliações realizadas (e.g., usuários novos). Entretanto, o desempenho relativo entre técnicas de FC e de RBC pode depender da quantidade de informação útil presente nas bases de dados. Na arquitetura proposta nesse trabalho, as predições geradas por técnicas de FC e de RBC são combinadas de forma ponderada através de medidas de esparsidade calculadas para usuários e itens. Para isso, definimos inicialmente um conjunto de medidas de esparsidade que serão calculadas sobre a matriz de avaliações usuários-itens e matriz de confiança usuários-usuários. Através de experimentos realizados utilizando a base de dados Epinions, observamos que a proposta de combinação trouxe uma melhoria nas taxas de erro e na cobertura em comparação com as técnicas isoladamente. / Recommender systems have played an important role in different application contexts (e.g recommendation of products, movies, music, books, among others). They automatically suggest each user items that may be relevant, preventing the user having to analyze a huge amount of items to make your choice. Collaborative filtering (CF) is the most popular approach for building recommendation systems, although suffering with sparsity of the data-related issues (eg, users or items with few evaluations). In this study, we investigated the combination of CF techniques represented by matrix factorization technique, and trust-based recommendation techniques (TBR) on social networks to alleviate the problem of data sparseness. TBR systems have in fact proven to be effective to increase the quality of the recommendations, especially for users with few assessments already carried out (e.g., cold start users). However, the relative performance between CF and TBR techniques may depend on the amount of useful information contained in the databases. In the proposed architecture in this work, the predictions generated by CF and TBR techniques are weighted combined through sparsity measures calculated to users and items. To do this, first we define a set of sparsity measures that will be calculated on the matrix of ratings users-items and matrix of trust users-users. Through experiments using Epinions database, we note that the proposed combination brought an improvement in error rates and coverage compared to combined techniques.
152

Quadratic Inverse Problems and Sparsity Promoting Regularization

Flemming, Jens 16 January 2018 (has links) (PDF)
Ill-posed inverse problems with quadratic structure are introduced, studied and solved. As an example an inverse problem appearing in laser optics is solved numerically based on a new regularized inversion algorithm. In addition, the theory of sparsity promoting regularization is extended to situations in which sparsity cannot be expected and also to equations with non-injective operators.
153

Méthodes de detection robustes avec apprentissage de dictionnaires. Applications à des données hyperspectrales / Detection tests for worst-case scenarios with optimized dictionaries. Applications to hyperspectral data

Raja Suleiman, Raja Fazliza 16 December 2014 (has links)
Le travail dans cette thèse porte sur le problème de détection «one among many» où l’on doit distinguer entre un bruit sous H0 et une parmi L alternatives connues sous H1. Ce travail se concentre sur l’étude et la mise en œuvre de méthodes de détection robustes de dimension réduite utilisant des dictionnaires optimisés. Ces méthodes de détection sont associées au test de Rapport de Vraisemblance Généralisé. Les approches proposées sont principalement évaluées sur des données hyperspectrales. Dans la première partie, plusieurs sujets techniques associés à cette thèse sont présentés. La deuxième partie met en évidence les aspects théoriques et algorithmiques des méthodes proposées. Deux inconvénients liés à un grand nombre d’alternatives se posent. Dans ce cadre, nous proposons des techniques d’apprentissage de dictionnaire basées sur un critère robuste qui cherche à minimiser la perte de puissance dans le pire des cas (type minimax). Dans le cas où l’on cherche un dictionnaire à K = 1 atome, nous montrons que la solution exacte peut être obtenue. Ensuite, nous proposons dans le cas K > 1 trois algorithmes d’apprentissage minimax. Finalement, la troisième partie de ce manuscrit présente plusieurs applications. L’application principale concerne les données astrophysiques hyperspectrales de l’instrument Multi Unit Spectroscopic Explorer. Les résultats numériques montrent que les méthodes proposées sont robustes et que le cas K > 1 permet d’augmenter les performances de détection minimax par rapport au cas K = 1. D’autres applications possibles telles que l’apprentissage minimax de visages et la reconnaissance de chiffres manuscrits dans le pire cas sont présentées. / This Ph.D dissertation deals with a "one among many" detection problem, where one has to discriminate between pure noise under H0 and one among L known alternatives under H1. This work focuses on the study and implementation of robust reduced dimension detection tests using optimized dictionaries. These detection methods are associated with the Generalized Likelihood Ratio test. The proposed approaches are principally assessed on hyperspectral data. In the first part, several technical topics associated to the framework of this dissertation are presented. The second part highlights the theoretical and algorithmic aspects of the proposed methods. Two issues linked to the large number of alternatives arise in this framework. In this context, we propose dictionary learning techniques based on a robust criterion that seeks to minimize the maximum power loss (type minimax). In the case where the learned dictionary has K = 1 column, we show that the exact solution can be obtained. Then, we propose in the case K > 1 three minimax learning algorithms. Finally, the third part of this manuscript presents several applications. The principal application regards astrophysical hyperspectral data of the Multi Unit Spectroscopic Explorer instrument. Numerical results show that the proposed algorithms are robust and in the case K > 1 they allow to increase the minimax detection performances over the K = 1 case. Other possible applications such as worst-case recognition of faces and handwritten digits are presented.
154

Velká data - extrakce klíčových informací pomocí metod matematické statistiky a strojového učení / Big data - extraction of key information combining methods of mathematical statistics and machine learning

Masák, Tomáš January 2017 (has links)
This thesis is concerned with data analysis, especially with principal component analysis and its sparse modi cation (SPCA), which is NP-hard-to- solve. SPCA problem can be recast into the regression framework in which spar- sity is usually induced with ℓ1-penalty. In the thesis, we propose to use iteratively reweighted ℓ2-penalty instead of the aforementioned ℓ1-approach. We compare the resulting algorithm with several well-known approaches to SPCA using both simulation study and interesting practical example in which we analyze voting re- cords of the Parliament of the Czech Republic. We show experimentally that the proposed algorithm outperforms the other considered algorithms. We also prove convergence of both the proposed algorithm and the original regression-based approach to PCA. vi
155

Sparse and Scale-Invariant Methods in Image Processing / Méthodes parcimonieuses et invariantes d'échelle en traitement d'image

Badri, Hicham 01 December 2015 (has links)
Dans cette thèse, on présente de nouvelles approches à base de parcimonie et d'invariance d' échelle pour le développement de techniques rapides et efficaces en traitement d'images. Au lieu d'utiliser la norme l1 pour imposer la parcimonie, on exploite plutôt des pénalités non-convexes qui encouragent plus la parcimonie. On propose une approche de premier ordre pour estimer une solution d'un opérateur proximal non-convexe, ce qui permet d'exploiter facilement la non-convexité. On étudie aussi le problème de pluri-parcimonie quand le problème d'optimisation est composé de plusieurs termes parcimonieux. Ce cas survient généralement dans les problèmes qui nécessitent à la fois une estimation robuste pour rejeter les valeurs aberrantes et exploiter une information de parcimonie connue a priori. Ces techniques sont appliquées à plusieurs problèmes importants en vision par ordinateur bas niveau telles que le lissage sélectif, la séparation d'images, l'intégration robuste et la déconvolution. On propose aussi d'aller au-delà de la parcimonie et apprendre un modèle de mapping spectral non-local pour le débruitage d'images. La notion d'invariance d' échelle joue aussi un rôle important dans nos travaux. En exploitant ce principe, une définition précise des contours est définie, ce qui peut être complémentaire à la notion de parcimonie. Plus précisément, on peut construire des représentations invariantes pour la classification en se basant sur une architecture de réseaux convolutionnels profonds. L'invariance d' échelle permet aussi d'extraire les pixels qui portent les informations nécessaires pour la reconstruction ou aussi améliorer l'estimation du flot optique sur les images turbulentes en imposant la parcimonie comme régularisation sur les exposants de singularité locaux. / In this thesis, we present new techniques based on the notions of sparsity and scale invariance to design fast and efficient image processing applications. Instead of using the popular l1-norm to model sparsity, we focus on the use of non-convex penalties that promote more sparsity. We propose to use a first-order approximation to estimate a solution of non-convex proximal operators, which permits to easily use a wide rangeof penalties. We address also the problem of multi-sparsity, when the minimization problem is composed of various sparse terms, which typically arises in problems that require both a robust estimation to reject outliers and a sparse prior. These techniques are applied to various important problems in low-level computer vision such as edgeaware smoothing, image separation, robust integration and image deconvolution. We propose also to go beyond sparsity models and learn non-local spectral mapping with application to image denoising. Scale-invariance is another notion that plays an important role in our work. Using this principle, a precise definition of edges can be derived which can be complementary to sparsity. More precisely, we can extractinvariant features for classification from sparse representations in a deep convolutional framework. Scale-invariance permits also to extract relevant pixels for sparsifying images. We use this principle as well to improve optical ow estimation on turbulent images by imposing a sparse regularization on the local singular exponents instead of regular gradients.
156

Réseaux à grand nombre de microphones : applicabilité et mise en œuvre / Implementation and applicability of very large microphone arrays

Vanwynsberghe, Charles 12 December 2016 (has links)
L'apparition récente de microphones numériques MEMS a ouvert de nouvelles perspectives pour le développement de systèmes d'acquisition acoustiques massivement multi-canaux de grande envergure. De tels systèmes permettent de localiser des sources acoustiques avec de bonnes performances. En revanche, de nouvelles contraintes se posent. La première est le flux élevé de données issues de l'antenne, devant être traitées en un temps raisonnable. La deuxième contrainte est de connaître la position des nombreux microphones déployés in situ. Ce manuscrit propose des méthodes répondant à ces deux contraintes. Premièrement, une étude du système d'acquisition est présentée. On montre que les microphones MEMS sont adaptés pour des applications d'antennerie. Ensuite, un traitement en temps réel des signaux acquis via une implémentation parallèle sur GPU est proposé. Cette stratégie répond au problème de flux de données. On dispose ainsi d'un outil d'imagerie temps réel de sources large bande, permettant d'établir un diagnostic dynamique de la scène sonore.Deuxièmement, différentes méthodes de calibration géométrique pour la détermination de la position des microphones sont exposées. Dans des conditions réelles d'utilisation, les méthodes actuelles sont inefficaces pour des antennes étendues et à grand nombre de microphones. Ce manuscrit propose des techniques privilégiant la robustesse du processus de calibration. Les méthodes proposées couvrent différents environnements acoustiques réels, du champ libre au champ réverbérant. Leur efficacité est prouvée par différentes campagnes expérimentales. / Recently, digital MEMS microphones came out and have opened new perspectives. One of them is the design of large-aperture and massively multichannel acoustical acquisition systems. Such systems meet good requirements for efficient source localization. However, new problems arise. First, an important data flow comes from the array, and must be processed fast enough. Second, if the large array is set up in situ, retrieving the position of numerous microphones becomes a challenging task. This thesis proposes methods addressing these two problems. The first part exhibits the description of the acquisition system, which has been developed during the thesis. First, we show that MEMS microphone characteristics are suitable for array processing applications. Then, real-time processing of channel signals is achieved by a parallel GPU implementation. This strategy is one solution to the heavy data flow processing issue. In this way, a real-time acoustic imaging tool was developed, and enables a dynamic wide-band diagnosis, for an arbitrary duration.The second part presents several robust geometric calibration methods: they retrieve microphone positions, based only on the array acoustic signals. Indeed, in real-life conditions, the state of the art methods are inefficient with large arrays. This thesis proposes techniques that guarantee the robustness of the calibration process. The proposed methods allow calibration in the different existing soundscapes, from free field to reverberant field. Various experimental scenarios prove the efficiency of the methods.
157

Real-time MRI and Model-based Reconstruction Techniques for Parameter Mapping of Spin-lattice Relaxation

Wang, Xiaoqing 18 October 2016 (has links)
No description available.
158

Déconvolution adaptative pour le contrôle non destructif par ultrasons / Adaptative deconvolution for ultrasonic non destructive testing

Carcreff, Ewen 28 November 2014 (has links)
Nous nous intéressons au contrôle non destructif par ultrasons des matériaux industriels. En pratique, les signaux réceptionnés par le transducteur ultrasonore sont analysés pour détecter les discontinuités de la pièce inspectée. L'analyse est néanmoins rendue difficile par l'acquisition numérique, les effets de la propagation ultrasonore et la superposition des échos lorsque les discontinuités sont proches. La déconvolution parcimonieuse est une méthode inverse qui permet d'aborder ce problème afin de localiser précisément les discontinuités. Ce procédé favorise les signaux parcimonieux, c'est à dire ne contenant qu'un faible nombre de discontinuités. Dans la littérature, la déconvolution est généralement abordée sous l'hypothèse d'un modèle invariant en fonction de la distance de propagation, modalité qui n'est pas appropriée ici car l'onde se déforme au cours de son parcours et en fonction des discontinuités rencontrées. Cette thèse développe un modèle et des méthodes associées qui visent à annuler les dégradations dues à l'instrumentation et à la propagation ultrasonore, tout en résolvant des problèmes de superposition d'échos. Le premier axe consiste à modéliser la formation du signal ultrasonore en y intégrant les phénomènes propres aux ultrasons. Cette partie permet de construire un modèle linéaire mais non invariant, prenant en compte l'atténuation et la dispersion. L'étape de modélisation est validée par des acquisitions avec des matériaux atténuants. La deuxième partie de cette thèse concerne le développement de méthodes de déconvolution efficaces pour ce problème, reposant sur la minimisation d'un critère des moindres carrés pénalisé par la pseudo-norme L0. Nous avons développé des algorithmes d'optimisation spécifiques, prenant en compte, d'une part, un modèle de trains d'impulsions sur-échantillonné par rapport aux données, et d'autre part le caractère oscillant des formes d'onde ultrasonores. En utilisant des données synthétiques et expérimentales, ces algorithmes associés à un modèle direct adapté aboutissent à de meilleurs résultats comparés aux approches classiques pour un coût de calcul maîtrisé. Ces algorithmes sont finalement appliqués à des cas concrets de contrôle non destructif où ils démontrent leur efficacité. / This thesis deals with the ultrasonic non destructive testing of industrial parts. During real experiments, the signals received by the acoustic transducer are analyzed to detect the discontinuities of the part under test. This analysis can be a difficult task due to digital acquisition, propagation effects and echo overlapping if discontinuities are close. Sparse deconvolution is an inverse method that aims to estimate the precise positions of the discontinuities. The underlying hypothesis of this method is a sparse distribution of the solution, which means there are a few number of discontinuities. In the literature, deconvolution is addressed by a linear time-invariant model as a function of propagation distance, which in reality does not hold.The purpose of this thesis is therefore to develop a model and associated methods in order to cancel the effects of acquisition, propagation and echo overlapping. The first part is focused on the direct model development. In particular, we build a linear time-variant model that takes into account dispersive attenuation. This model is validated with experimental data acquired from attenuative materials. The second part of this work concerns the development of efficient sparse deconvolution algorithms, addressing the minimization of a least squares criterion penalized by a L0 pseudo-norm. Specific algorithms are developed for up-sampled deconvolution, and more robust exploration strategies are built for data containing oscillating waveforms. By using synthetic and experimental data, we show that the developed methods lead to better results compared to standard approaches for a competitive computation time. The proposed methods are then applied to real non destructive testing problems where they confirm their efficiency.
159

Novel mathematical techniques for structural inversion and image reconstruction in medical imaging governed by a transport equation

Prieto Moreno, Kernel Enrique January 2015 (has links)
Since the inverse problem in Diffusive Optical Tomography (DOT) is nonlinear and severely ill-posed, only low resolution reconstructions are feasible when noise is added to the data nowadays. The purpose of this thesis is to improve image reconstruction in DOT of the main optical properties of tissues with some novel mathematical methods. We have used the Landweber (L) method, the Landweber-Kaczmarz (LK) method and its improved Loping-Landweber-Kaczmarz (L-LK) method combined with sparsity or with total variation regularizations for single and simultaneous image reconstructions of the absorption and scattering coefficients. The sparsity method assumes the existence of a sparse solution which has a simple description and is superposed onto a known background. The sparsity method is solved using a smooth gradient and a soft thresholding operator. Moreover, we have proposed an improved sparsity method. For the total variation reconstruction imaging, we have used the split Bregman method and the lagged diffusivity method. For the total variation method, we also have implemented a memory-efficient method to minimise the storage of large Hessian matrices. In addition, an individual and simultaneous contrast value reconstructions are presented using the level set (LS) method. Besides, the shape derivative of DOT based on the RTE is derived using shape sensitivity analysis, and some reconstructions for the absorption coefficient are presented using this shape derivative via the LS method.\\Whereas most of the approaches for solving the nonlinear problem of DOT make use of the diffusion approximation (DA) to the radiative transfer equation (RTE) to model the propagation of the light in tissue, the accuracy of the DA is not satisfactory in situations where the medium is not scattering dominant, in particular close to the light sources and to the boundary, as well as inside low-scattering or non-scattering regions. Therefore, we have solved the inverse problem in DOT by the more accurate time-dependant RTE in two dimensions.
160

Quelques contributions à la sélection de variables et aux tests non-paramétriques / A few contributions to variable selection and nonparametric tests

Comminges, Laëtitia 12 December 2012 (has links)
Les données du monde réel sont souvent de très grande dimension, faisant intervenir un grand nombre de variables non pertinentes ou redondantes. La sélection de variables est donc utile dans ce cadre. D'abord, on considère la sélection de variables dans le modèle de régression quand le nombre de variables est très grand. En particulier on traite le cas où le nombre de variables pertinentes est bien plus petit que la dimension ambiante. Sans supposer aucune forme paramétrique pour la fonction de régression, on obtient des conditions minimales permettant de retrouver l'ensemble des variables pertinentes. Ces conditions relient la dimension intrinsèque à la dimension ambiante et la taille de l'échantillon. Ensuite, on considère le problème du test d'une hypothèse nulle composite sous un modèle de régression non paramétrique multi varié. Pour une fonctionnelle quadratique donnée $Q$, l'hypothèse nulle correspond au fait que la fonction $f$ satisfait la contrainte $Q[f] = 0$, tandis que l'alternative correspond aux fonctions pour lesquelles $ |Q[f]|$ est minorée par une constante strictement positive. On fournit des taux minimax de test et les constantes de séparation exactes ainsi qu'une procédure optimale exacte, pour des fonctionnelles quadratiques diagonales et positives. On peut utiliser ces résultats pour tester la pertinence d'une ou plusieurs variables explicatives. L'étude des taux minimax pour les fonctionnelles quadratiques diagonales qui ne sont ni positives ni négatives, fait apparaître deux régimes différents : un régime « régulier » et un régime « irrégulier ». On applique ceci au test de l'égalité des normes de deux fonctions observées dans des environnements bruités / Real-world data are often extremely high-dimensional, severely under constrained and interspersed with a large number of irrelevant or redundant features. Relevant variable selection is a compelling approach for addressing statistical issues in the scenario of high-dimensional and noisy data with small sample size. First, we address the issue of variable selection in the regression model when the number of variables is very large. The main focus is on the situation where the number of relevant variables is much smaller than the ambient dimension. Without assuming any parametric form of the underlying regression function, we get tight conditions making it possible to consistently estimate the set of relevant variables. Secondly, we consider the problem of testing a particular type of composite null hypothesis under a nonparametric multivariate regression model. For a given quadratic functional $Q$, the null hypothesis states that the regression function $f$ satisfies the constraint $Q[f] = 0$, while the alternative corresponds to the functions for which $Q[f]$ is bounded away from zero. We provide minimax rates of testing and the exact separation constants, along with a sharp-optimal testing procedure, for diagonal and nonnegative quadratic functionals. We can apply this to testing the relevance of a variable. Studying minimax rates for quadratic functionals which are neither positive nor negative, makes appear two different regimes: “regular” and “irregular”. We apply this to the issue of testing the equality of norms of two functions observed in noisy environments

Page generated in 0.0283 seconds