• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 694
  • 319
  • 100
  • 2
  • 1
  • Tagged with
  • 1129
  • 414
  • 251
  • 244
  • 203
  • 183
  • 183
  • 154
  • 129
  • 126
  • 110
  • 109
  • 109
  • 102
  • 98
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Proximal and interior point optimization strategies in image recovery / Stratégies d'optimisation proximales et de points intérieurs en reconstruction d'images

Corbineau, Marie-Caroline 03 December 2019 (has links)
Les problèmes inverses en traitement d'images peuvent être résolus en utilisant des méthodes variationnelles classiques, des approches basées sur l'apprentissage profond, ou encore des stratégies bayésiennes. Bien que différentes, ces approches nécessitent toutes des algorithmes d'optimisation efficaces. L'opérateur proximal est un outil important pour la minimisation de fonctions non lisses. Dans cette thèse, nous illustrons la polyvalence des algorithmes proximaux en les introduisant dans chacune des trois méthodes de résolution susmentionnées.Tout d'abord, nous considérons une formulation variationnelle sous contraintes dont la fonction objectif est composite. Nous développons PIPA, un nouvel algorithme proximal de points intérieurs permettant de résoudre ce problème. Dans le but d'accélérer PIPA, nous y incluons une métrique variable. La convergence de PIPA est prouvée sous certaines conditions et nous montrons que cette méthode est plus rapide que des algorithmes de l'état de l'art au travers de deux exemples numériques en traitement d'images.Dans une deuxième partie, nous étudions iRestNet, une architecture neuronale obtenue en déroulant un algorithme proximal de points intérieurs. iRestNet nécessite l'expression de l'opérateur proximal de la barrière logarithmique et des dérivées premières de cet opérateur. Nous fournissons ces expressions pour trois types de contraintes. Nous montrons ensuite que sous certaines conditions, cette architecture est robuste à une perturbation sur son entrée. Enfin, iRestNet démontre de bonnes performances pratiques en restauration d'images par rapport à une approche variationnelle et à d'autres méthodes d'apprentissage profond.La dernière partie de cette thèse est consacrée à l'étude d'une méthode d'échantillonnage stochastique pour résoudre des problèmes inverses dans un cadre bayésien. Nous proposons une version accélérée de l'algorithme proximal de Langevin non ajusté, baptisée PP-ULA. Cet algorithme est incorporé à un échantillonneur de Gibbs hybride utilisé pour réaliser la déconvolution et la segmentation d'images ultrasonores. PP-ULA utilise le principe de majoration-minimisation afin de gérer les distributions non log-concaves. Comme le montrent nos expériences réalisées sur des données ultrasonores simulées et réelles, PP-ULA permet une importante réduction du temps d'exécution tout en produisant des résultats de déconvolution et de segmentation très satisfaisants. / Inverse problems in image processing can be solved by diverse techniques, such as classical variational methods, recent deep learning approaches, or Bayesian strategies. Although relying on different principles, these methods all require efficient optimization algorithms. The proximity operator appears as a crucial tool in many iterative solvers for nonsmooth optimization problems. In this thesis, we illustrate the versatility of proximal algorithms by incorporating them within each one of the aforementioned resolution methods.First, we consider a variational formulation including a set of constraints and a composite objective function. We present PIPA, a novel proximal interior point algorithm for solving the considered optimization problem. This algorithm includes variable metrics for acceleration purposes. We derive convergence guarantees for PIPA and show in numerical experiments that it compares favorably with state-of-the-art algorithms in two challenging image processing applications.In a second part, we investigate a neural network architecture called iRestNet, obtained by unfolding a proximal interior point algorithm over a fixed number of iterations. iRestNet requires the expression of the logarithmic barrier proximity operator and of its first derivatives, which we provide for three useful types of constraints. Then, we derive conditions under which this optimization-inspired architecture is robust to an input perturbation. We conduct several image deblurring experiments, in which iRestNet performs well with respect to a variational approach and to state-of-the-art deep learning methods.The last part of this thesis focuses on a stochastic sampling method for solving inverse problems in a Bayesian setting. We present an accelerated proximal unadjusted Langevin algorithm called PP-ULA. This scheme is incorporated into a hybrid Gibbs sampler used to perform joint deconvolution and segmentation of ultrasound images. PP-ULA employs the majorize-minimize principle to address non log-concave priors. As shown in numerical experiments, PP-ULA leads to a significant time reduction and to very satisfactory deconvolution and segmentation results on both simulated and real ultrasound data.
132

Efficacité de l’algorithme EM en ligne pour des modèles statistiques complexes dans le contexte des données massives

Martel, Yannick 11 1900 (has links)
L’algorithme EM (Dempster et al., 1977) permet de construire une séquence d’estimateurs qui converge vers l’estimateur de vraisemblance maximale pour des modèles à données manquantes pour lesquels l’estimateur du maximum de vraisemblance n’est pas calculable. Cet algorithme est remarquable compte tenu de ses nombreuses applications en apprentissage statistique. Toutefois, il peut avoir un lourd coût computationnel. Les auteurs Cappé et Moulines (2009) ont proposé une version en ligne de cet algorithme pour les modèles appartenant à la famille exponentielle qui permet de faire des gains d’efficacité computationnelle importants en présence de grands jeux de données. Cependant, le calcul de l’espérance a posteriori de la statistique exhaustive, qui est nécessaire dans la version de Cappé et Moulines (2009), est rarement possible pour des modèles complexes et/ou lorsque la dimension des données manquantes est grande. On doit alors la remplacer par un estimateur. Plusieurs questions se présentent naturellement : les résultats de convergence de l’algorithme initial restent-ils valides lorsqu’on remplace l’espérance par un estimateur ? En particulier, que dire de la normalité asymptotique de la séquence des estimateurs ainsi créés, de la variance asymptotique et de la vitesse de convergence ? Comment la variance de l’estimateur de l’espérance se reflète-t-elle sur la variance asymptotique de l’estimateur EM? Peut-on travailler avec des estimateurs de type Monte-Carlo ou MCMC? Peut-on emprunter des outils populaires de réduction de variance comme les variables de contrôle ? Ces questions seront étudiées à l’aide d’exemples de modèles à variables latentes. Les contributions principales de ce mémoire sont une présentation unifiée des algorithmes EM d’approximation stochastique, une illustration de l’impact au niveau de la variance lorsque l’espérance a posteriori est estimée dans les algorithmes EM en ligne et l’introduction d’algorithmes EM en ligne permettant de réduire la variance supplémentaire occasionnée par l’estimation de l’espérance a posteriori. / The EM algorithm Dempster et al. (1977) yields a sequence of estimators that converges to the maximum likelihood estimator for missing data models whose maximum likelihood estimator is not directly tractable. The EM algorithm is remarkable given its numerous applications in statistical learning. However, it may suffer from its computational cost. Cappé and Moulines (2009) proposed an online version of the algorithm in models whose likelihood belongs to the exponential family that provides an upgrade in computational efficiency in large data sets. However, the conditional expected value of the sufficient statistic is often intractable for complex models and/or when the missing data is of a high dimension. In those cases, it is replaced by an estimator. Many questions then arise naturally: do the convergence results pertaining to the initial estimator hold when the expected value is substituted by an estimator? In particular, does the asymptotic normality property remain in this case? How does the variance of the estimator of the expected value affect the asymptotic variance of the EM estimator? Are Monte-Carlo and MCMC estimators suitable in this situation? Could variance reduction tools such as control variates provide variance relief? These questions will be tackled by the means of examples containing latent data models. This master’s thesis’ main contributions are the presentation of a unified framework for stochastic approximation EM algorithms, an illustration of the impact that the estimation of the conditional expected value has on the variance and the introduction of online EM algorithms which reduce the additional variance stemming from the estimation of the conditional expected value.
133

Gestion des données dans les réseaux sociaux / Data management in social networks

Maniu, Silviu 28 September 2012 (has links)
Nous abordons dans cette thèse quelques-unes des questions soulevées par I'émergence d'applications sociales sur le Web, en se concentrant sur deux axes importants: l'efficacité de recherche sociale dans les applications Web et l'inférence de liens sociaux signés à partir des interactions entre les utilisateurs dans les applications Web collaboratives. Nous commençons par examiner la recherche sociale dans les applications de "tag- ging". Ce problème nécessite une adaptation importante des techniques existantes, qui n'utilisent pas des informations sociaux. Dans un contexte ou le réseau est importante, on peut (et on devrait) d'exploiter les liens sociaux, ce qui peut indiquer la façon dont les utilisateurs se rapportent au demandeur et combien de poids leurs actions de "tagging" devrait avoir dans le résultat. Nous proposons un algorithme qui a le potentiel d'évoluer avec la taille des applications actuelles, et on le valide par des expériences approfondies. Comme les applications de recherche sociale peut être considérée comme faisant partie d'une catégorie plus large des applications sensibles au contexte, nous étudions le problème de répondre aux requêtes à partir des vues, en se concentrant sur deux sous-problèmes importants. En premier, la manipulation des éventuelles différences de contexte entre les différents points de vue et une requête d'entrée conduit à des résultats avec des score incertains, valables pour le nouveau contexte. En conséquence, les algorithmes top-k actuels ne sont plus directement applicables et doivent être adaptés aux telle incertitudes dans les scores des objets. Deuxièmement, les techniques adaptées de sélection de vue sont nécessaires, qui peuvent s’appuyer sur les descriptions des requêtes et des statistiques sur leurs résultats. Enfin, nous présentons une approche pour déduire un réseau signé (un "réseau de confiance") à partir de contenu généré dans Wikipedia. Nous étudions les mécanismes pour deduire des relations entre les contributeurs Wikipédia - sous forme de liens dirigés signés - en fonction de leurs interactions. Notre étude met en lumière un réseau qui est capturée par l’interaction sociale. Nous examinons si ce réseau entre contributeurs Wikipedia représente en effet une configuration plausible des liens signes, par l’étude de ses propriétés globaux et locaux du reseau, et en évaluant son impact sur le classement des articles de Wikipedia. / We address in this thesis some of the issues raised by the emergence of social applications on the Web, focusing on two important directions: efficient social search inonline applications and the inference of signed social links from interactions between users in collaborative Web applications. We start by considering social search in tagging (or bookmarking) applications. This problem requires a significant departure from existing, socially agnostic techniques. In a network-aware context, one can (and should) exploit the social links, which can indicate how users relate to the seeker and how much weight their tagging actions should have in the result build-up. We propose an algorithm that has the potential to scale to current applications, and validate it via extensive experiments. As social search applications can be thought of as part of a wider class of context-aware applications, we consider context-aware query optimization based on views, focusing on two important sub-problems. First, handling the possible differences in context between the various views and an input query leads to view results having uncertain scores, i.e., score ranges valid for the new context. As a consequence, current top-k algorithms are no longer directly applicable and need to be adapted to handle such uncertainty in object scores. Second, adapted view selection techniques are needed, which can leverage both the descriptions of queries and statistics over their results. Finally, we present an approach for inferring a signed network (a "web of trust")from user-generated content in Wikipedia. We investigate mechanisms by which relationships between Wikipedia contributors - in the form of signed directed links - can be inferred based their interactions. Our study sheds light into principles underlying a signed network that is captured by social interaction. We investigate whether this network over Wikipedia contributors represents indeed a plausible configuration of link signs, by studying its global and local network properties, and at an application level, by assessing its impact in the classification of Wikipedia articles.javascript:nouvelleZone('abstract');_ajtAbstract('abstract');
134

Fabrication de nanoaimants pour le contrôle rapide d'un spin électronique dans une boîte quantique double

Bureau-Oxton, Chloé January 2014 (has links)
Un ordinateur quantique est un ordinateur formé de bits quantiques (qubits) qui tire profit des propriétés quantiques de la matière. Un grand intérêt est porté au développement d’un tel ordinateur depuis qu’il a été montré que le calcul quantique permettrait d’effectuer certains types de calculs exponentiellement plus rapidement qu’avec les meilleurs algorithmes connus sur un ordinateur classique. D’ailleurs, plusieurs algorithmes ont déjà été suggérés pour résoudre efficacement des problèmes tels que la factorisation de grands nombres premiers et la recherche dans des listes désordonnées. Avant d’en arriver à un ordinateur quantique fonctionnel, certains grands défis doivent être surmontés. Un de ces défis consiste à fabriquer des qubits ayant un temps d’opération nettement inférieur au temps de cohérence (temps durant lequel l’état du qubit est conservé). Cette condition est nécessaire pour parvenir à un calcul quantique fiable. Pour atteindre cet objectif, de nombreuses recherches visent à augmenter le temps de cohérence en choisissant judicieusement les matériaux utilisés dans la fabrication des qubits en plus d’imaginer de nouvelles méthodes d’utiliser ces dispositifs pour diminuer la durée des opérations. Une manière simple d’implémenter un qubit est de piéger quelques électrons dans l’espace et d’utiliser l’état de spin de cet ensemble d’électrons pour encoder les états du qubit. Ce type de dispositif porte le nom de qubit de spin. Les boîtes quantiques (BQs) latérales fabriquées sur des substrats de GaAs/AlGaAs sont un exemple de qubit de spin et sont les dispositifs étudiés dans ce mémoire. En 2007, Pioro-Ladrière et al. ont suggéré de placer un microaimant à proximité d’une BQ pour créer un gradient de champ magnétique non-uniforme et permettre d’effectuer des rotations de spin à l’aide d’impulsions électriques rapides. Ce mémoire présente comment modifier la géométrie de ces microaimants pour obtenir un plus grand gradient de champ magnétique dans la BQ. Une nouvelle technique de contrôle de spin menant à des rotations de spin et de phase plus rapides sera aussi détaillée. Enfin, il sera montré que le département de physique de l’Université de Sherbrooke possède tous les outils nécessaires pour implémenter cette méthode.
135

Décodage Viterbi Dégénéré

Pelchat, Émilie January 2013 (has links)
La correction d'erreur fera partie intégrante de toute technologie d'information quantique. Diverses méthodes de correction d'erreurs quantiques ont par conséquent été élaborées pour pallier les erreurs inévitables qui proviennent de la manipulation des qubits ainsi que de leur interaction inévitable avec l'environnement. Parmi les familles de codes de correction d'erreurs se trouvent les codes convolutifs, dont l'utilité envisagée est surtout pour protéger l'information quantique envoyée à travers un canal de communication bruyant. La méthode de décodage des codes convolutifs utilise des algorithmes d'estimation d'erreur basés sur un principe de maximum de vraisemblance. L'algorithme de Viterbi permet de déterminer ce maximum de vraisemblance de façon efficace. Cette méthode permet de trouver le mot code le plus probable et ce en utilisant des outils telle décodage par trellis. De plus, cet algorithme a une complexité linéaire avec le nombre de qubits encodés. Ce mémoire porte sur l'effet de la dégénérescence sur le décodage Viterbi. La dégénérescence est une propriété de lamécanique quantique ne possédant aucun analogue classique par laquelle des corrections distinctes peuvent corriger une erreur donnée. Les versions précédentes de décodage quantique suivant l'algorithme de Viterbi étaient sous-optimales parce qu'elles ne tenaient pas compte de la dégénérescence. La réalisation principale de ce mémoire est la conception d'un algorithme de décodage de Viterbi qui tient compte des erreurs dégénérées et nous les testons par des simulations numériques. Ces simulations démontrent qu'il y a effectivement un avantage à utiliser le décodeur Viterbi qui tient compte de la dégénérescence.
136

Analyse d'algorithmes de type Nesterov et leurs applications à l'imagerie numérique

Simard, Catherine January 2015 (has links)
Ce mémoire se veut d'abord un recueil des principales variantes de l'algorithme optimal en pire cas pour la résolution de problèmes convexes et fortement convexes sans contraintes présenté par Yurii Nesterov en 1983 et en 2004. Ces variantes seront présentées dans un cadre unifié et analysées de manière théorique et empirique. On y retrouve une analyse des rôles des différents paramètres composant l'algorithme de base ainsi que de l'influence des constantes L et mu, respectivement la constante de Lipschitz du gradient et la constante de forte convexité de la fonction objectif, sur le comportement des algorithmes. On présentera également une nouvelle variante hybride et nous démontrerons empiriquement qu'elle performe mieux que plusieurs variantes dans la majorité des situations. La comparaison empirique des différentes variantes sur des problèmes sans contraintes utilise un modèle de calcul se basant sur le nombre d'appels à un oracle de premier ordre plutôt que sur le nombre d'itérations. Enfin, une application de ces variantes sur trois instances de problèmes en imagerie numérique ainsi qu'une analyse empirique des résultats obtenus en confrontation avec la méthode optimale FISTA et l'algorithme classique L-BFGS-B viennent clore ce mémoire.
137

Système d'alignement d'une partition de musique basé sur la déformation dynamique étendue du temps

Gagnon, Bruno January 2009 (has links)
Ce mémoire propose un système permettant de suivre, à l'aide d'un ordinateur domestique et d'un microphone, une partition de musique jouée par un musicien. Le système utilise en entrée une partition de musique et le signal audio numérique monophonique de la partition de musique jouée par le musicien. Contrairement aux systèmes habituels, le système proposé donne la liberté au musicien de jouer différents segments de la partition de musique dans l'ordre qu'il le désire, et ce, sans préalablement informer le système de ses intentions. Pour ce faire, le système propose une variante de l'algorithme de la déformation dynamique du temps ( Dynamic Time Warping ) utilisant des notions musicales pour effectuer le suivi. Il est à noter que la complexité du système est suffisamment faible pour qu'un ordinateur domestique récent puisse suivre le musicien pendant que celui-ci joue la partition de musique, et ce, avec un délai constant de quelques notes de musique.
138

Résolution de conflits et séquençage d'avions par algorithmes évolutionnaires multiobjectifs

Lachance, Étienne January 2014 (has links)
L'augmentation grandissante du trafic aérien rend le travail des contrôleurs aériens de plus en plus ardu, spécialement en ce qui a trait aux tâches de résolution de conflits et de séquençage d'avions en arrivée. L'automatisation de la résolution de conflits et du séquençage reste toujours un problème ouvert aujourd'hui. L'automatisation de ces deux problèmes permettrait d'une part de mieux modéliser le comportement des contrôleurs aériens dans un simulateur de vol, ou d'améliorer les outils de gestion du trafic aérien. Les caractéristiques combinatoires de ces problèmes conduisent à l'utilisation de techniques numériques stochastiques, plus spécifiquement des algorithmes évolutionnaires. De plus, les nombreux paramètres intervenant dans une situation de gestion de trafic aérien incitent à l'utilisation d'algorithmes multiobjectif. Dans un premier temps, un algorithme génétique multiobjectif (SPEA-MOD) et un algorithme de colonies de particules (PSO-MO) également multiobjectif ont été développés. Ces deux algorithmes ont été comparés à des problèmes multiobjectif contraints et non-contraints. Les résultats ont montré que SPEA-MOD et PSO-MO sont en général supérieurs à ce que l'on rapporte dans la littérature. Dans un deuxième temps, les deux algorithmes ont résolu plusieurs situations conflictuelles de la phase de vol en route (régime de croisière). Les instructions fournies par les algorithmes peuvent être en deux ou en trois dimensions. Les objectifs et les contraintes représentent des paramètres tels que la minimisation d'instructions fournies aux avions et une séparation minimale entre les avions. De ces solutions numériques réalisées, l'algorithme SPEA-MOD s'est avéré particulièrement efficace à des problèmes fortement contraints. Une modélisation novatrice de trajectoires complexes a permis de résoudre des problèmes de séquençage d'avions dans la phase d'arrivée. Le séquençage d'avions en arrivée par un algorithme évolutionnaire fut réalisé pour la première fois dans le cadre de cette recherche. Cette modélisation a également rendu possible la résolution de conflits de deux flux d'avions se croisant.
139

Morphologie mathématique et graphes : application à la segmentation interactive d'images médicales

Stawiaski, Jean 13 October 2008 (has links) (PDF)
La recherche en imagerie médicale est une des disciplines les plus actives du traitement d'images. La segmentation et l'analyse d'images dans un contexte clinique reste un problème majeur de l'imagerie médicale. La multiplicité des modalités d'imagerie, ainsi que les fortes variabilités des structures et pathologies à analyser rendent cette tâche fastidieuse. Dans la plupart des cas, la supervision de spécialistes, tels que des radiologistes, est nécessaire pour valider ou interpréter les résultats obtenus par analyse d'images. L'importante quantité de données, ainsi que les nombreuses applications liées à l'imagerie médicale, nécessitent des outils logiciels de très haut niveau combinant des interfaces graphique complexe avec des algorithmes interactifs rapides. Les récentes recherches en segmentation d'images ont montré l'intérêt des méthodes à base de graphes. L'intérêt suscité dans la communauté scientifique a permis de développer et d'utiliser rapidement ces techniques dans de nombreuses applications. Nous avons étudié les arbres de recouvrement minimaux, les coupes minimales ainsi que les arbres de chemins les plus courts. Notre étude a permis de mettre en lumière des liens entre ces structures a priori très différentes. Nous avons prouvé que les forêts des chemins les plus courts, ainsi que les coupes minimales convergent toutes les deux, en appliquant une transformation spécifique du graphe, vers une structure commune qui n'est autre qu'une forêt de recouvrement minimale. Cette étude nous a aussi permis de souligner les limitations et les possibilités de chacune de ces techniques pour la segmentation d'images. Dans un deuxième temps, nous avons proposé des avancées théoriques et pratiques sur l'utilisation des coupe minimales. Cette structure est particulièrement intéressante pour segmenter des images à partir de minimisation d'énergie. D'une part, nous avons montré que l'utilisation de graphes de régions d'une segmentation morphologique permet d'accélérer les méthodes de segmentation à base de coupe minimales. D'autre part nous avons montré que l'utilisation de graphes de régions permet d'étendre la classe d'énergie pouvant être minimisée par coupe de graphes. Ces techniques ont toutes les caractéristiques pour devenir des méthodes de référence pour la segmentation d'images médicales. Nous avons alors étudié qualitativement et quantitativement nos méthodes de segmentation à travers des applications médicales. Nous avons montré que nos méthodes sont particulièrement adaptées à la détection de tumeurs pour la planification de radiothérapie, ainsi que la création de modèles pour la simulation et la planification de chirurgie cardiaque. Nous avons aussi mené une étude quantitative sur la segmentation de tumeurs du foie. Cette étude montre que nos algorithmes offrent des résultats plus stables et plus précis que de nombreuses techniques de l'état de l'art. Nos outils ont aussi été comparés à des segmentations manuelles de radiologistes, prouvant que nos techniques sont adaptées à être utilisée en routine clinique. Nous avons aussi revisité une méthode classique de segmentation d'images : la ligne de partages des eaux. La contribution de notre travail se situe dans la re-définition claire de cette transformation dans le cas des graphes et des images multi spectrales. Nous avons utilisé les algèbres de chemins pour montrer que la ligne de partages des eaux correspond à des cas particuliers de forêt des chemins les plus courts dans un graphe. Finalement, nous proposons quelques extensions intéressantes du problème des coupes minimales. Ces extensions sont basées sur l'ajout de nouveaux types de contraintes. Nous considérons particulièrement les coupes minimales contraintes à inclure un ensemble prédéfini d'arêtes, ainsi que les coupes minimales contraintes par leur cardinalité et leur aires. Nous montrons comment ces problèmes peuvent être avantageusement utilisé pour la segmentation d'images.
140

Décomposition de domaines pour des structures hétérogènes

Ibrahima, Cissé 11 December 2009 (has links) (PDF)
La résolution numérique d'un problème d'équations aux dérivées partielles à coefficients discontinus posé dans un domaine à couche mince est difficile car elle nécessite la discrétisation à l'échelle de l'épaisseur de la couche. D'un point de vue théorique, on parle de problème de perturbation singulière. D'un pont de vue numérique, on observe que le maillage comporte alors un très grand nombre d'éléments, ce qui rend les calculs longs et parfois peu précis dans la couche. Dans une première partie, nous avons étudié ces problèmes avec des méthodes asymptotiques. Il s'agit d'en calculer la solution sous forme de développements asymptotiques par rapport aux petits paramètres. Cette partie du travail nous a permis de mettre en évidence les différentes difficultés évoquées plus haut. Dans une seconde partie, nous envisageons une autre approche avec des méthodes de décomposition de domaines sans recouvrement. Dans la construction de ces méthodes, les conditions d'interface doivent être judicieusement choisies de façon à prendre en compte non seulement l'hétérogénéité entre les sous-domaines mais aussi la dissymétrie de la décomposition.

Page generated in 0.0553 seconds