• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 228
  • 73
  • 42
  • 1
  • Tagged with
  • 347
  • 105
  • 84
  • 78
  • 75
  • 71
  • 70
  • 62
  • 61
  • 60
  • 55
  • 54
  • 52
  • 51
  • 48
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Etude d'une nouvelle forme d'onde multiporteuses à PAPR réduit. / Study of a new multicarrier waveform with low PAPR

Chafii, Marwa 07 October 2016 (has links)
L’OFDM est une technique de modulation multiporteuses largement utilisée dans des applications de communications filaires et sans-fils comme le DVB-T/T2, le Wifi, et la 4G, grâce à sa robustesse contre les canaux sélectifs en fréquence en comparaison avec la modulation monoporteuse. Cependant, le signal OFDM souffre de grandes variations d’amplitude. Les fluctuations de l’enveloppe du signal OFDM génèrent des distorsions non-linéaires quand on introduit le signal dans un équipement non-linéaire comme l’amplificateur de puissance. Réduire les variations du signal améliore le rendement de l’amplificateur, réduit la consommation énergétique et diminue les émissions de CO2 des transmissions numériques.Le PAPR (rapport de la puissance crête sur la puissance moyenne) est une variable aléatoire qui a été introduite pour mesurer les variations du signal. Il existe plusieurs systèmes multiporteuses basés sur différentes bases de modulation et filtres de mise en forme. Nous prouvons d’abord dans ces travaux que le PAPR dépend de cette structure de modulation. Ensuite, nous étudions le comportement du PAPR vis-à-vis des formes d’ondes utilisées dans la modulation. Le problème de réduction du PAPR est ainsi formulé en un problème d’optimisation. Par ailleurs, une condition nécessaire pour construire des formes d’ondes avec un meilleur PAPR que l’OFDM est développée. Cette condition est notamment satisfaite par des bases en ondelettes. Enfin, une nouvelle forme d’onde en paquets d’ondelettes adaptative est proposée, permettant des gains significatifs en PAPR, tout en maintenant les avantages des modulations multiporteuses. / OFDM is a multicarrier modulation system widely used in wireline and wireless applications such as DVB-T/T2, Wifi, and 4G, due to its resilience against frequency selective channels compared with the single carrier modulation systems. However, the OFDM signal suffers from large amplitude variations. The fluctuations of the OFDM envelope generate non-linear distortions when we introduce the signal into a non-linear device like the power amplifier. Reducing the variations of the signal improves the power amplifier efficiency, reduces the energy consumption and decreases CO2 emissions.The peak-to-average power ratio (PAPR) has been introduced as a random variable that measures the power variations of the signal. There exist several multicarrier modulation systems based on different modulation basis and shaping filters. We first prove in this work that the PAPR depends on this modulation structure. Moreover, the behaviour of the PAPR regarding to the modulation waveforms is analysed and the PAPR reduction problem is formulated as an optimization problem. Furthermore, a necessary condition for designing waveforms with better PAPR than OFDM is developed. This necessary condition is particularly satisfied by wavelet basis. Finally, a new adaptive wavelet packet waveform is proposed, allowing significant gain in terms of PAPR, while keeping the advantages of multicarrier modulations.
112

Segmentation spatio-temporelle et indexation vidéo dans le domaine des représentations hiérarchiques

Morand, Claire 25 November 2009 (has links)
L'objectif de cette thèse est de proposer une solution d'indexation ``scalable'' et basée objet de flux vidéos HD compressés avec Motion JPEG2000. Dans ce contexte, d'une part, nous travaillons dans le domaine transformé hiérachique des ondelettes 9/7 de Daubechies et, d'autre part, la représentation ``scalable'' nécessite des méthodes en multirésolution, de basse résolution vers haute résolution. La première partie de ce manuscrit est dédiée à la définition d'une méthode d'extraction automatique des objets en mouvement. Elle repose sur la combinaison d'une estimation du mouvement global robuste et d'une segmentation morphologique couleur à basse résolution. Le résultat est ensuite affiné en suivant l'ordre des données dans le flux scalable. La deuxième partie est consacrée à la définition d'un descripteur sur les objets précédemment extraits, basé sur les histogrammes en multirésolution des coefficients d'ondelettes. Enfin, les performances de la méthode d'indexation proposée sont évaluées dans le contexte de requêtes scalables de recherche de vidéos par le contenu. / This thesis aims at proposing a solution of scalable object-based indexing of HD video flow compressed by MJPEG2000. In this context, on the one hand, we work in the hierarchical transform domain of the 9/7 Daubechies' wavelets and, on the other hand, the scalable representation implies to search for multiscale methods, from low to high resolution. The first part of this manuscript is dedicated to the definition of a method for automatic extraction of objects having their own motion. It is based on a combination of a robust global motion estimation with a morphological color segmentation at low resolution. The obtained result is then refined following the data order of the scalable flow. The second part is the definition of an object descriptor which is based on the multiscale histograms of the wavelet coefficients. Finally, the performances of the proposed method are evaluated in the context of scalable content-based queries.
113

Apport des ondelettes dans l'ananlyse univariée et multivariée des processus à mémoire longue : application à des données financières / Apport of the wavelet in the univariate and mulrtivariate analysis of long memory process : application to financial data

Boubaker, Heni 09 December 2010 (has links)
Cette thèse fait appel à la théorie des ondelettes pour estimer le paramètre de mémoire longue dans le cadre stationnaire et non stationnaire lors de la modélisation des séries financières, et pour l'estimation non paramétrique de la copule lors de l'examen de leurs interdépendances. L'avantage de la méthode des ondelettes comparée à l'analyse de Fourier est d'être parfaitement localisée dans le domaine temporel et celui des fréquences.Dans une première étape, nous nous sommes intéressés à la modélisation de la dynamique des séries de variations. À cette fin, nous proposons un modèle économétrique qui permet de tenir compte, en plus de la composante mémoire longue dans la moyenne, une dépendance de long terme dans la variance conditionnelle.D'une part, nous étudions les liens de causalité entre les séries obtenus par décomposition en ondelettes à chaque niveau de résolution. D'autre part, nous nous orientons vers la théorie de cointégration fractionnaire. À cet égard,nous estimons un modèle vectoriel à correction d'erreur dans lequel la vitesse d'ajustement à l'équilibre de long terme est plus lente que la vitesse associée à la cointégration linéaire. L'atout de cette approche est de détecter la présence d'une relation de long terme en plus des fluctuations de court terme et de mettre en œuvre des liens de causalité durables.Dans une deuxième étape, nous proposons une analyse des dépendances multivariées entre les risques financiers et leurs impacts sur les mesures de risques communément rencontrées en gestion des risques. Nous exposons une application de la théorie des copules à l'analyse de la structure des dépendances entre différentes séries financières. Les résultats empiriques obtenus montrent que la structure de dépendance devient accentuée lorsque les séries sont filtrées de l'effet mémoire. Ensuite, nous étudions l'effet du changement de la structure de dépendance dans la frontière d'efficience et dans les mesures du risque sur l'ensemble des portefeuilles optimaux en considérant le modèle moyenne-variance-copules et en élaborant une mesure du risque basée sur l'approche CVaR-copules. Les résultats empiriques prouvent que nous sommes loin des portefeuilles optimaux de Markowitz.Enfin, nous proposons un nouvel estimateur dans le cadre des ondelettes qui constitue une extension de celui de Shimotsu et Phillips (2005, 2010). / This thesis uses wavelet theory to estimate the long memory parameter in the stationary and non stationary framework when modeling financial time series, and non parametric estimation of the copula in the examination of their interdependencies. The advantage of the wavelet method compared to the Fourier analysis is to be fully localized in the time domain and that of the frequency. In a first step, we are interested in modeling the dynamics of series of variations. To this end, we propose an econometric model that takes into account, in addition to the long memory component in the mean, a long term dependence in the conditional variance. On the first hand, we study the causal links between the series obtained by wavelet decomposition at each level of resolution. On the second hand, we are moving towards the theory of fractional cointegration. In this regard, we consider a vector error correction model in which the speed of adjustment to the long run equilibrium is slower than the speed associated with the linear cointegration. The advantage of this approach is to detect the presence of a long term relationship in addition to short term fluctuations and implement long run causal links.In a second step, we deal a multivariate analysis of dependencies between risks and their impacts on financial measures of risk commonly used in risk management. We present an application of copula theory to analyze the structure of dependencies between different financial series. The empirical results show that the dependence structure becomes accentuated when the series are filtered from the memory effect. Next, we investigate the effect of changing the structure of dependence in the efficiency frontier and the risk measures on all optimal portfolios considering the mean-variance-copulas model and developing a risk measure based on the CVaR-copula approach. The empirical results show that we are far from optimal portfolios Markowitz . Finally, we propose a new estimator in the wavelet domain which is an extension of the estimator of the Shimotsu and Phillips (2005, 2010).
114

Wavelet transform modulus : phase retrieval and scattering / Transformée en ondelettes : reconstruction de phase et de scattering

Waldspurger, Irène 10 November 2015 (has links)
Les tâches qui consistent à comprendre automatiquement le contenu d’un signal naturel, comme une image ou un son, sont en général difficiles. En effet, dans leur représentation naïve, les signaux sont des objets compliqués, appartenant à des espaces de grande dimension. Représentés différemment, ils peuvent en revanche être plus faciles à interpréter. Cette thèse s’intéresse à une représentation fréquemment utilisée dans ce genre de situations, notamment pour analyser des signaux audio : le module de la transformée en ondelettes. Pour mieux comprendre son comportement, nous considérons, d’un point de vue théorique et algorithmique, le problème inverse correspondant : la reconstruction d’un signal à partir du module de sa transformée en ondelettes. Ce problème appartient à une classe plus générale de problèmes inverses : les problèmes de reconstruction de phase. Dans un premier chapitre, nous décrivons un nouvel algorithme, PhaseCut, qui résout numériquement un problème de reconstruction de phase générique. Comme l’algorithme similaire PhaseLift, PhaseCut utilise une relaxation convexe, qui se trouve en l’occurence être de la même forme que les relaxations du problème abondamment étudié MaxCut. Nous comparons les performances de PhaseCut et PhaseLift, en termes de précision et de rapidité. Dans les deux chapitres suivants, nous étudions le cas particulier de la reconstruction de phase pour la transformée en ondelettes. Nous montrons que toute fonction sans fréquence négative est uniquement déterminée (à une phase globale près) par le module de sa transformée en ondelettes, mais que la reconstruction à partir du module n’est pas stable au bruit, pour une définition forte de la stabilité. On démontre en revanche une propriété de stabilité locale. Nous présentons également un nouvel algorithme de reconstruction de phase, non-convexe, qui est spécifique à la transformée en ondelettes, et étudions numériquement ses performances. Enfin, dans les deux derniers chapitres, nous étudions une représentation plus sophistiquée, construite à partir du module de transformée en ondelettes : la transformée de scattering. Notre but est de comprendre quelles propriétés d’un signal sont caractérisées par sa transformée de scattering. On commence par démontrer un théorème majorant l’énergie des coefficients de scattering d’un signal, à un ordre donné, en fonction de l’énergie du signal initial, convolé par un filtre passe-haut qui dépend de l’ordre. On étudie ensuite une généralisation de la transformée de scattering, qui s’applique à des processus stationnaires. On montre qu’en dimension finie, cette transformée généralisée préserve la norme. En dimension un, on montre également que les coefficients de scattering généralisés d’un processus caractérisent la queue de distribution du processus. / Automatically understanding the content of a natural signal, like a sound or an image, is in general a difficult task. In their naive representation, signals are indeed complicated objects, belonging to high-dimensional spaces. With a different representation, they can however be easier to interpret. This thesis considers a representation commonly used in these cases, in particular for theanalysis of audio signals: the modulus of the wavelet transform. To better understand the behaviour of this operator, we study, from a theoretical as well as algorithmic point of view, the corresponding inverse problem: the reconstruction of a signal from the modulus of its wavelet transform. This problem belongs to a wider class of inverse problems: phase retrieval problems. In a first chapter, we describe a new algorithm, PhaseCut, which numerically solves a generic phase retrieval problem. Like the similar algorithm PhaseLift, PhaseCut relies on a convex relaxation of the phase retrieval problem, which happens to be of the same form as relaxations of the widely studied problem MaxCut. We compare the performances of PhaseCut and PhaseLift, in terms of precision and complexity. In the next two chapters, we study the specific case of phase retrieval for the wavelet transform. We show that any function with no negative frequencies is uniquely determined (up to a global phase) by the modulus of its wavelet transform, but that the reconstruction from the modulus is not stable to noise, for a strong notion of stability. However, we prove a local stability property. We also present a new non-convex phase retrieval algorithm, which is specific to the case of the wavelet transform, and we numerically study its performances. Finally, in the last two chapters, we study a more sophisticated representation, built from the modulus of the wavelet transform: the scattering transform. Our goal is to understand which properties of a signal are characterized by its scattering transform. We first prove that the energy of scattering coefficients of a signal, at a given order, is upper bounded by the energy of the signal itself, convolved with a high-pass filter that depends on the order. We then study a generalization of the scattering transform, for stationary processes. We show that, in finite dimension, this generalized transform preserves the norm. In dimension one, we also show that the generalized scattering coefficients of a process characterize the tail of its distribution.
115

Sparsity and Electromagnetic Imaging in Non-Linear Situations / Parcimonie et imagerie électromagnétique dans des situations non-linéaires

Zaimaga, Hidayet 04 December 2017 (has links)
L'imagerie électromagnétique est le problème de la détermination de la distribution de matériaux à partir de champs diffractés mesurés venant du domaine les contenant et sous investigation. Résoudre ce problème inverse est une tâche difficile car il est mal posé en raison de la présence d'opérateurs intégraux (de lissage) utilisés dans la représentation des champs diffractés en terme de propriétés des matériaux, et ces champs sont obtenus à un ensemble fini et non nécessairement optimal de points via des mesures bruitées. En outre, le problème inverse est non linéaire simplement en raison du fait que les champs diffractés sont des fonctions non linéaires des propriétés des matériaux. Le travail décrit traite du caractère mal posé de ce problème d'imagerie électromagnétique en utilisant des techniques de régularisation basées sur la parcimonie, qui supposent que le(s) diffracteurs(s) ne capture(nt) de fait qu'une petite fraction du domaine d'investigation. L'objectif principal est d'étudier de manière approfondie la régularisation de parcimonie pour les problèmes inverses non linéaires. Par conséquent, nous nous concentrons sur la méthode de Tikhonov non linéaire normalisée qui résout directement le problème de minimisation non linéaire en utilisant les itérations de Landweber, où une fonction de seuillage est appliquée à chaque étape pour promouvoir la contrainte de parcimonie. Ce schéma est accéléré à l'aide d'une méthode de descente de plus grande pente projetée et remplace l'opération de seuillage pour faire respecter cette contrainte. Cette approche a également été implémentée dans un domaine d'ondelettes qui permet une représentation précise de la fonction inconnue avec un nombre réduit de coefficients. En outre, nous étudions une méthode corrélée à la parcimonie qui offre de multiples solutions parcimonieuses qui partagent un support commun non nul afin de résoudre le problème non linéaire concerné. / So-called quantitative electromagnetic imaging focused onto here is the problem of determining material properties from scattered fields measured away from the domain under investigation. Solving this inverse problem is a challenging task because it is ill-posed due to the presence of (smoothing) integral operators used in the representation of scattered fields in terms of material properties, and scattered fields are obtained at a finite set of points through noisy measurements. Moreover, the inverse problem is nonlinear simply due the fact that scattered fields are nonlinear functions of the material properties. The work described in this thesis deals with the ill-posedness of the electromagnetic imaging problem using sparsity-based regularization techniques, which assume that the scatterer(s) capture only a small fraction of the investigation domain and/or can be described in sparse fashion on a certain basis. The primary aim of the thesis is to intensively investigate sparsity regularization for nonlinear inverse problems. Therefore, we focus on sparsity-regularized nonlinear Tikhonov method which directly solves the nonlinear minimization problem using Landweber iterations, where a thresholding function is applied at every iteration step to promote the sparsity constraint. This scheme is accelerated using a projected steepest descent method and replaces the thresholding operation to enforce the sparsity constraint. This approach has also been implemented in wavelet domain which allows an accurate representation of the unknown function with a reduced number of coefficients. Additionally, we investigate a method correlated with the joint sparsity which gives multiple sparse solutions that share a common nonzero support in order to solve concerned nonlinear problem.
116

Warping and sampling approaches to non-stationary gaussian process modelling. / Planification adaptative d'expériences et krigeage non stationnaire : application à la prise en compte des incertitudes dans les études mécaniques en sûreté nucléaire.

Marmin, Sebastien 12 December 2017 (has links)
Cette thèse traite de l'approximation de fonctions coûteuses à évaluer et présentant un comportement hétérogène selon les régions du domaine d'entrées. Dans beaucoup d’applications industrielles comme celles issues de la sûreté nucléaire et menées à l’IRSN, les codes de calcul de simulation physique ont des coûts numériques importants et leurs réponses sont alors approchées par un modèle. Les modèles par processus gaussien (PG) sont répandus pour construire des plans d'expériences au budget d'évaluations limité. Alors que les méthodes de planifications standard explorent le domaine en partant souvent d'une hypothèse de stationnarité et en utilisant des critères d'échantillonnages basés sur la variance, nous abordons sous deux aspects le problème d'adapter la planification d'expériences par PG aux fonctions à variations hétérogènes : d'une part sur la modélisation, en proposant une nouvelle famille de covariances (WaMI-GP) qui généralise deux noyaux existants (noyaux à indice multiple et noyaux à déformation tensorielle), et d'autre part sur la planification, en définissant et calculant de nouveaux critères d'échantillonnage à partir des dérivées du PG et dédiés à l'exploration de régions à grandes variations. Une analyse théorique de la nouvelle famille de PG ainsi que des expériences numériques montrent à la fois une certaine souplesse de modélisation et un nombre modéré de paramètres de modèle à estimer. Par ailleurs, un travail sur le couplage entre ondelettes et PG a conduit au développement d'un modèle non stationnaire, appelé ici wav-GP, qui utilise l'échelle locale pour approcher la dérivées de la déformation de manière itérative et non paramétrique. Les applications de wav-GP sur deux cas d'étude mécaniques fournissent des résultats prometteurs pour la prédiction de fonctions ayant un comportement hétérogène. D'autres part, nous formulons et calculons de nouveaux critères de variance qui reposent sur le champs de la norme du gradient du PG, et cela quelques soient les propriétés de (non) stationnarité du modèle. Les critères et les modèles sont comparés avec des méthodes de références sur des cas d'étude en ingénierie. Il en résulte que certains des critères par gradient proposés sont plus efficaces que les critères de variance plus conventionnels, mais qu'il est encore mieux de combiner le modèle WaMI-GP avec ces critères de variance. Ce modèle est souvent le plus compétitif dans des situations où les évaluations sont séquentielles et à nombre réduit. D'autres contributions s'inscrivant dans le thème de l'optimisation globale concernent en particulier le critère d'échantillonnage d'amélioration espérée (connu en anglais comme le critère d'expected improvement) et sa version multipoint pour l'évaluation en parallèle par paquet. Des formules analytiques et des approximations rapides sont établies pour une version généralisée du critère et pour son gradient. / This work deals with approximating expensive-to-evaluatefunctions exhibiting heterogeneous sensitivity to input perturbationsdepending on regions of the input space. Motivated by real test caseswith high computational costs coming mainly from IRSN nuclear safetystudies, we resort to surrogate models of the numerical simulatorsusing Gaussian processes (GP). GP models are popular for sequentialevaluation strategies in design of experiments under limited evaluationbudget. While it is common to make stationarity assumptions for theprocesses and use sampling criteria based on its variance forexploration, we tackle the problem of accommodating the GP-based designto the heterogeneous behaviour of the function from two angles: firstvia a novel class of covariances (WaMI-GP) that simultaneouslygeneralises existing kernels of Multiple Index and of tensorised warpedGP and second, by introducing derivative-based sampling criteriadedicated to the exploration of high variation regions. The novel GPclass is investigated both through mathematical analysis and numericalexperiments, and it is shown that it allows encoding muchexpressiveness while remaining with a moderate number of parameters tobe inferred. Moreover, exploiting methodological links between waveletsanalysis and non-stationary GP modelling, we propose a new non-stationary GP (Wav-GP) with non-parametric warping. The key point is aniterated estimation of the so-called local scale that approximates thederivative of the warping. Wav-GP is applied to two mechanical casestudies highlighting promising prediction performance. Independently ofnon-stationarity assumptions, we conduct derivations for new variance-based criteria relying on the norm of the GP gradient field. Criteriaand models are compared with state-of-the-art methods on engineeringtest cases. It is found on these applications that some of the proposedgradient-based criteria outperform usual variance-based criteria in thecase of a stationary GP model, but that it is even better to usevariance-based criteria with WaMI-GP, which dominates mostly for smalldesigns and in sequential set up. Other contributions in samplingcriteria address the problem of global optimisation, focusing on theexpected improvement criterion and its multipoint version for parallelbatch evaluations. Closed form formulas and fast approximations areestablished for a generalised version of the criterion and its gradient. Numerical experiments illustrate that the proposed approachesenable substantial computational savings.
117

Géodétection des réseaux enterrés par imagerie radar / Geodection of buried utilities from radar imagery

Terrasse, Guillaume 28 March 2017 (has links)
L’objectif de la thèse est d’améliorer les différents traitements et de proposer une visualisation claire et intuitive à l’opérateur des données en sortie d’un géoradar (radargramme) afin de pouvoir localiser de manière précise les réseaux de canalisations enfouis. Notamment, nous souhaitons mettre en évidence les hyperboles présentes dans les radargrammes car celles-ci sont caractéristiques de la présence d'une canalisation. Dans un premier temps nous nous sommes intéressés à la suppression de l’information inutile (clutter) pouvant gêner la détection des hyperboles. Nous avons ainsi proposé une méthode de filtrage du clutter et du bruit des radargrammes. Ensuite, nous avons travaillé sur l’élaboration d’une méthode permettant de détecter automatiquement les hyperboles dans un radargramme ainsi qu’une estimation de sa fonction mathématique dans des conditions quasi-temps réel. Et enfin nous avons également proposé une méthode de séparation de source permettant de distinguer le clutter et le signal utile du radargramme tout en ayant un impact minimal sur les hyperboles. Ces derniers travaux ouvrent d’autres possibilités pour le filtrage, le rehaussement ou la détection automatique d’hyperboles. / The thesis objective is to improve the different processing in order to make the data acquired by ground penetrating radar (B-scan) more understandable for the operators. Consequently, it will facilitate the pipe localisation. More particularly, we wish to highlight the hyperbolas in the B-scan because they point out the presence of a pipe. First of all, we are interested in removing all the useless information which might hide the hyperbolas. We proposed a filtering method removing unwanted reflections and noise. Then, we worked on an automatic hyperbola detection method and an estimation of their mathematical functions in quasi real time. Finally, we proposed a source separation method to distinguish the unwanted reflections from the hyperbolas with a minimal impact on them. This last work opens interesting perspectives in filtering, hyperbolas enhancement and hyperbola detection.
118

Analyse mustirésolution de données de classements / Multiresolution analysis of ranking data

Sibony, Eric 14 June 2016 (has links)
Cette thèse introduit un cadre d’analyse multirésolution pour les données de classements. Initiée au 18e siècle dans le contexte d’élections, l’analyse des données de classements a attiré un intérêt majeur dans de nombreux domaines de la littérature scientifique : psychométrie, statistiques, économie, recherche opérationnelle, apprentissage automatique ou choix social computationel entre autres. Elle a de plus été revitalisée par des applications modernes comme les systèmes de recommandation, où le but est d’inférer les préférences des utilisateurs pour leur proposer les meilleures suggestions personnalisées. Dans ces contextes, les utilisateurs expriment leurs préférences seulement sur des petits sous-ensembles d’objets variant au sein d’un large catalogue. L’analyse de tels classements incomplets pose cependant un défi important, tant du point de vue statistique que computationnel, poussant les acteurs industriels à utiliser des méthodes qui n’exploitent qu’une partie de l’information disponible. Cette thèse introduit une nouvelle représentation pour les données, qui surmonte par construction ce double défi. Bien qu’elle repose sur des résultats de combinatoire et de topologie algébrique, ses nombreuses analogies avec l’analyse multirésolution en font un cadre naturel et efficace pour l’analyse des classements incomplets. Ne faisant aucune hypothèse sur les données, elle mène déjà à des estimateurs au-delà de l’état-de-l’art pour des petits catalogues d’objets et peut être combinée avec de nombreuses procédures de régularisation pour des larges catalogues. Pour toutes ces raisons, nous croyons que cette représentation multirésolution ouvre la voie à de nombreux développements et applications futurs. / This thesis introduces a multiresolution analysis framework for ranking data. Initiated in the 18th century in the context of elections, the analysis of ranking data has attracted a major interest in many fields of the scientific literature : psychometry, statistics, economics, operations research, machine learning or computational social choice among others. It has been even more revitalized by modern applications such as recommender systems, where the goal is to infer users preferences in order to make them the best personalized suggestions. In these settings, users express their preferences only on small and varying subsets of a large catalog of items. The analysis of such incomplete rankings poses however both a great statistical and computational challenge, leading industrial actors to use methods that only exploit a fraction of available information. This thesis introduces a new representation for the data, which by construction overcomes the two aforementioned challenges. Though it relies on results from combinatorics and algebraic topology, it shares several analogies with multiresolution analysis, offering a natural and efficient framework for the analysis of incomplete rankings. As it does not involve any assumption on the data, it already leads to overperforming estimators in small-scale settings and can be combined with many regularization procedures for large-scale settings. For all those reasons, we believe that this multiresolution representation paves the way for a wide range of future developments and applications
119

Estimation phonocardiographique de la pression artérielle pulmonaire par réseaux de neurones

Tranulis, Constantin January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
120

Analyse structurelle de l'hydrogène neutre dans la voie lactée

Khalil, André 11 April 2018 (has links)
Les étoiles vivent et meurent en rejetant de la matière dans le milieu interstellaire (MIS) et elles naissent à l’intérieur de celui-ci. Nous avons analysé la composante d’hydrogène neutre du MIS. Nos données proviennent de la partie canadienne de l’International Galactic Plane Survey qui vise l’imagerie spectroscopique de l’hydrogène neutre du plan de notre galaxie. Nous avons utilisé deux outils mathématiques d’analyse d’images: la technique d’Espaces Métriques (TEM) et la méthode des Maxima du Module de la Transformée en Ondelettes (MMTO). La TEM est un formalisme mathématique d’analyse d’images qui permet de comparer quantitativement la complexité des objets étudiés. Nous avons amélioreré l’outil aux niveaux mathématique et technique avant de l’utiliser pour caractériser la complexité de 28 régions d’hydrogéne neutre. Aprés avoir classé les 28 objets, nous avons trouvé des corrélations entre ce classement et les propriétés physiques des objets sous-jacents, dont: (1) Plus le flux des photons UV est élevé, plus la région de H i photodissociée est complexe; et (2) la complexité des régions H i augmente avec l’ˆage des restes de supernovae auxquels elles sont associées. La méthode MMTO est un formalisme multifractal basé sur la transformée en ondelettes. Nos résultats obtenus à partir de cette méthode concernent les propriétés multifractales et anisotropes de l’hydrogène neutre dans notre galaxie. Les nuages terrestres exhibent des propriétés multifractales. Nous avons démontré que l’hydrogène neutre du disque de notre galaxie est monofractal. En analysant séparément les bras spiraux et les milieux inter-bras, nous avons découvert une signature anisotrope et que les structures horizontales sont plus complexes que les structures verticales. Cette anisotropie est indépendante de l’échelle pour les inter-bras tandis qu’elle est dépendante de l’échelle pour les bras spiraux. Les hypothèses investiguées pour obtenir une explication physique sont: le gradient de distribution en z (“scale-height gradient”), l’onde de densité, l’activité de formation d’étoiles, la photo-lévitation de nuages poussiéreux, les mouvements aléatoires de nuages H i, la corrugation et la turbulence. / Stars live and die by rejecting matter in the interstellar medium (ISM), where they were born. We have analyzed the neutral hydrogen component of the ISM. The data come from the Canadian portion of the International Galactic Plane Survey which aims the spectroscopic imaging of the neutral hydrogen from our Galaxy. We have used two mathematical image analysis tools: Metric Space Technique (MST) and the Wavelet Transform Modulus Maxima (WTMM) method. The MST is an image analysis mathematical formalism that allows one to quantitatively compare the complexity of the studied objects. We have improved the tool mathematically and technically before using it to characterize the complexity of 28 neutral hydrogen regions. After classifying the 28 objects, we have found some correlations between this ranking and the physical properties of the underlying objects, for example: (1) The complexity of the photodissociated neutral hydrogen regions increases with the flux of UV photons; and (2) the complexity of neutral hydrogen regions increases with the age of the supernovae remnants to which they are associated. The WTMM method is a multifractal formalism based on the wavelet transform. The results we obtain from this method concern the multifractal and anisotropic properties of neutral hydrogen in our Galaxy. Earth clouds exhibit multifractal properties. We have shown that the neutral hydrogen from our galactic disk is monofractal. By analyzing separately spiral arms and the inter-arm regions, we have discovered an anisotropic signature and that the horizontal structures and more complex than the vertical structures. This anisotropy is independent of scale for the inter-arms while it is depedent of scale for the spiral arms. The investigated hypotheses to obtain some physical explanations are: the scale-height gradient, the density wave, star formation activity, photo-levitation of dusty clouds, random motions of neutral hydrogen clouds, corrugation and turbulence.

Page generated in 0.0421 seconds