• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 7
  • 5
  • Tagged with
  • 35
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Couplage de l'acquisition compressée et de l'imagerie du spectre de diffusion

Saint-Amant, Etienne January 2011 (has links)
Ce mémoire porte sur la croisée des chemins de deux technologies récentes et fascinantes : l'imagerie du spectre de diffusion et l'acquisition compressée. L'imagerie du spectre de diffusion est issue de l'imagerie par résonance magnétique nucléaire. Elle permet d'observer la façon dont les molécules d'eau se déplacent dans le cerveau. Les molécules d'eau sont contraintes par la riche géométrie cellulaire des tissus cérébraux et les caractéristiques les plus probantes de cette géométrie peuvent être observées. En particulier, la diffusion est intimement liée à l'aspect fibreux de la matière blanche. L'information angulaire et l'information radiale de la matière blanche peuvent être déduites mathématiquement en analysant le signal du spectre de diffusion. À l'aide de ces informations, nous pouvons reconstruire le réseau de matière blanche du cerveau d'un patient (par tractographie) et en analyser l'intégrité (taille d'axone, démyélinisation, mort axonale). Cependant, la précision d'une technologie apporte souvent un défaut : son temps d'acquisition en tunnel IRM est prohibitif. L'acquisition compressée est une technologie récente, riche et complexe, issue de nombreuses branches différentes des mathématiques. Cette technologie peut s'appliquer sur l'acquisition de tous les types de signaux ou images. L'idée est d'acquérir de façon partielle les données et de résoudre un problème mathématique pour déduire quelle serait l'information complète (on déduit les données non mesurées). L'entièreté de cette technologie repose sur le principe fondamental suivant : les signaux/images d'intérêt ont la propriété d'être compressibles dans certaines bases de représentations. Cette technologie est particulièrement intéressante quand le temps d'acquisition est crucial ou que le nombre de mesures d'acquisition se doit d'être limité. Le sujet central de ce mémoire est de combiner l'acquisition compressée à l'imagerie du spectre de diffusion pour accélérer l'examen en tunnel IRM. Pour ce faire, nous avons développé une plate-forme informatique nous permettant d'analyser et de caractériser le couplage de ces deux technologies. Nous testons en détail nos méthodes sur des données générées synthétiquement et sur des données naturelles cérébrales in vivo. Finalement, nous proposons une méthode d'acquisition qui ferait passer le temps d'acquisition de 105 minutes à 29 minutes sans trop de perte perceptuelle par rapport à l'imagerie du spectre de diffusion acquise de façon exhaustive. Nous concluons avec un ensemble de pistes de solution pour pousser encore plus loin l'accélération de l'acquisition.
2

Perfectionnement des algorithmes d'optimisation par essaim particulaire : applications en segmentation d'images et en électronique

El Dor, Abbas 05 December 2012 (has links) (PDF)
La résolution satisfaisante d'un problème d'optimisation difficile, qui comporte un grand nombre de solutions sous-optimales, justifie souvent le recours à une métaheuristique puissante. La majorité des algorithmes utilisés pour résoudre ces problèmes d'optimisation sont les métaheuristiques à population. Parmi celles-ci, nous intéressons à l'Optimisation par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO s'inspire de la dynamique d'animaux se déplaçant en groupes compacts (essaims d'abeilles, vols groupés d'oiseaux, bancs de poissons). Les particules d'un même essaim communiquent entre elles tout au long de la recherche pour construire une solution au problème posé, et ce en s'appuyant sur leur expérience collective. L'algorithme PSO, qui est simple à comprendre, à programmer et à utiliser, se révèle particulièrement efficace pour les problèmes d'optimisation à variables continues. Cependant, comme toutes les métaheuristiques, PSO possède des inconvénients, qui rebutent encore certains utilisateurs. Le problème de convergence prématurée, qui peut conduire les algorithmes de ce type à stagner dans un optimum local, est un de ces inconvénients. L'objectif de cette thèse est de proposer des mécanismes, incorporables à PSO, qui permettent de remédier à cet inconvénient et d'améliorer les performances et l'efficacité de PSO. Nous proposons dans cette thèse deux algorithmes, nommés PSO-2S et DEPSO-2S, pour remédier au problème de la convergence prématurée. Ces algorithmes utilisent des idées innovantes et se caractérisent par de nouvelles stratégies d'initialisation dans plusieurs zones, afin d'assurer une bonne couverture de l'espace de recherche par les particules. Toujours dans le cadre de l'amélioration de PSO, nous avons élaboré une nouvelle topologie de voisinage, nommée Dcluster, qui organise le réseau de communication entre les particules. Les résultats obtenus sur un jeu de fonctions de test montrent l'efficacité des stratégies mises en oeuvre par les différents algorithmes proposés. Enfin, PSO-2S est appliqué à des problèmes pratiques, en segmentation d'images et en électronique
3

Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité

Touzani, Samir 20 April 2011 (has links) (PDF)
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées.
4

Quelque progrès en débruitage d'images / Advances in Image Denoising

Pierazzo, Nicola 20 September 2016 (has links)
Cette thèse explore les dernières évolutions du débruitage d'images, et elle essaie de développer une vision synthétique des techniques utilisées jusqu'à présent. Elle aboutit à un nouvel algorithme de débruitage d'image évitant les artefacts et avec un meilleur PSNR que tous les algorithmes que nous avons pu évaluer. La première méthode que nous présentons est DA3D, un algorithme de débruitage fréquentiel avec guide, inspiré de DDID. La surprise de cet algorithme, c'est que le débruitage fréquentiel peut battre l'état de l'art sans produire artefacts. Cet algorithme produit des bons résultats non seulement en PSNR, mais aussi (et surtout) en qualité visuelle. DA3D marche particulièrement bien pour améliorer les textures des images et pour enlever les effets de staircasing.DA3D, guidé par un autre algorithme de débruitage améliore presque toujours le résultat de son guide. L'amélioration est particulièrement nette quand le guide est un algorithme à patchs, et alors on combine deux principes différents: auto-similarité suivi de seuillage fréquentiel. Le deuxième résultat présenté est une méthode universelle de débruitage multi-échelle, applicable à tout algorithme. Une analyse qualitative montre en effet que les algorithmes de débruitage à patchs éliminent surtout les hautes fréquences du bruit, à cause de la taille limitée des voisinages traités. Plutôt que d'agrandir ces voisinages nous décomposons l'image en une pyramide basée sur la transformée en cosinus discrète, avec une méthode de recomposition évitant le ringing. Cette méthode traite le bruit à basse fréquence, et améliore la qualité de l'image. Le troisième problème sérieux que nous abordons est l'évaluation des algorithmes de débruitage. Il est bien connu que le PSNR n'est pas un indice suffisant de qualité. Un artefact sur une zone lisse de l'image est bien plus visible qu'une altération en zone texturée. Nous proposons une nouvelle métrique basée sur un Smooth PSNR et un Texture PSNR, pour mesurer les résultats d'un algorithme sur ces deux types des régions. Il apparaît qu'un algorithme de débruitage, pour être considéré acceptable, doit avoir des bons résultats pour les deux métriques. Ces métriques sont finalement utilisées pour comparer les algorithmes de l'état de l'art avec notre algorithme final, qui combine les bénéfices du multi-échelle et du filtrage fréquentiel guidé. Les résultats étant très positifs, nous espérons que la thèse contribue à résoudre un vieux dilemme, pour lequel la méthode DDID avait apporté de précieuses indications : comment choisir entre le seuillage fréquentiel et les méthodes basées sur l'auto-similarité pour le débruitage d'images ? La réponse est qu'il ne faut pas choisir. Cette thèse termine avec quelques perspectives sur la faisabilité du débruitage "externe". Son principe est de débruiter un patch en utilisant une grande base de données externe de patches sans bruit. Un principe bayésien démontré par Levin et Nadler en 2011 implique que le meilleur résultat possible serait atteint avec cette méthode, à condition d'utiliser tous les patches observables. Nous donnons les arguments mathématiques prouvant que l'espace des patches peut être factorisé, ce qui permet de réduire la base de données de patches utilisés d'un facteur au moins 1000. / This thesis explores the last evolutions on image denoising, and attempts to set a new and more coherent background regarding the different techniques involved. In consequence, it also presents a new image denoising algorithm with minimal artifacts and the best PSNR performance known so far.A first result that is presented is DA3D, a frequency-based guided denoising algorithm inspired form DDID [Knaus-Zwicker 2013]. This demonstrates that, contrarily to what was thought, frequency-based denoising can beat state-of-the-art algorithms without presenting artifacts. This algorithm achieves good results not only in terms of PSNR, but also (and especially) with respect to visual quality. DA3D works particularly well on enhancing the textures of the images and removing staircasing effects.DA3D works on top of another denoising algorithm, that is used as a guide, and almost always improve its results. In this way, frequency-based denoising can be applied on top of patch-based denoising algorithms, resulting on a hybrid method that keeps the strengths of both. The second result presented is Multi-Scale Denoising, a framework that allows to apply any denoising algorithm on a multi-scale fashion. A qualitative analysis shows that current denoising algorithms behave better on high-frequency noise. This is due to the relatively small size of patches and search windows currently used. Instead of enlarging those patches, that can cause other sorts of problems, the work proposes to decompose the image on a pyramid, with the aid of the Discrete Cosine Transformation. A quantitative study is performed to recompose this pyramid in order to avoid the appearance of ringing artifacts. This method removes most of the low-frequency noise, and improves both PSNR and visual results for smooth and textured areas.A third main issue addressed in this thesis is the evaluation of denoising algorithms. Experiences indicate that PSNR is not always a good indicator of visual quality for denoising algorithms, since, for example, an artifact on a smooth area can be more noticeable than a subtle change in a texture. A new metric is proposed to improve on this matter. Instead of a single value, a ``Smooth PNSR'' and a ``Texture PSNR'' are presented, to measure the result of an algorithm for those two types of image regions. We claim that a denoising algorithm, in order to be considered acceptable, must at least perform well with respect to both metrics. Following this claim, an analysis of current algorithms is performed, and it is compared with the combined results of the Multi-Scale Framework and DA3D.We found that the optimal solution for image denoising is the application of a frequency shrinkage, applied to regular regions only, while a multiscale patch based method serves as guide. This seems to resolve a long standing question for which DDID gave the first clue: what is the respective role of frequency shrinkage and self-similarity based methods for image denoising? We describe an image denoising algorithm that seems to perform better in quality and PSNR than any other based on the right combination of both denoising principles. In addition, a study on the feasibility of external denoising is carried, where images are denoised by means of a big database of external noiseless patches. This follows a work of Levin and Nadler, in 2011, that claims that state-of-the-art results are achieved with this method if a large enough database is used. In the thesis it is shown that, with some observation, the space of all patches can be factorized, thereby reducing the number of patches needed in order to achieve this result. Finally, secondary results are presented. A brief study of how to apply denoising algorithms on real RAW images is performed. An improved, better performing version of the Non-Local Bayes algorithm is presented, together with a two-step version of DCT Denoising. The latter is interesting for its extreme simplicity and for its speed.
5

Point de vue maxiset en estimation non paramétrique

Autin, Florent 07 December 2004 (has links) (PDF)
Dans le cadre d'une analyse par ondelettes, nous étudions les propriétés statistiques de diverses classes de procédures. Plus précisément, nous cherchons à déterminer les espaces maximaux (maxisets) sur lesquels ces procédures atteignent une vitesse de convergence donnée. L'approche maxiset nous permet alors de donner une explication théorique à certains phénomènes observés en pratique et non expliqués par l'approche minimax. Nous montrons en effet que les estimateurs de seuillage aléatoire sont plus performants que ceux de seuillage déterministe. Ensuite, nous prouvons que les procédures de seuillage par groupes, comme certaines procédures d'arbre (proches de la procédure de Lepski) ou de seuillage par blocs, ont de meilleures performances au sens maxiset que les procédures de seuillage individuel. Par ailleurs, si les maxisets des estimateurs Bayésiens usuels construits sur des densités à queues lourdes sont de même nature que ceux des estimateurs de seuillage dur, nous montrons qu'il en est de même pour ceux des estimateurs Bayésiens construits à partir de densités Gaussiennes à grande variance et dont les performances numériques sont très bonnes.
6

Détection des zones d'ombre par les couleurs photométriques invariantes : application aux données IKONOS de Sherbrooke / Detection of shadow areas by the use of invariant photometric colors : application to IKONOS data of Sherbrooke

Akif, Said January 2007 (has links)
Résumé : L’ombre sur l’imagerie satellitaire à très haute résolution spatiale a suscité relativement peu de travaux de recherche en télédétection. La présente étude a pour objectif la détection des zones d’ombre sur l’imagerie IKONOS via l’exploitation des caractéristiques des couleurs de l’ombre. Ces caractéristiques découlent des couleurs photométriques invariantes issues des transformées couleurs. L’approche proposée a pour but d’évaluer dans un premier temps, le potentiel des transformées RGB normalisé, IHS (Intensity, Hue, Saturation), HSV (Hue, Saturation, Value), C[indice inférieur 1] C[indice inférieur 2] C[indice inférieur 3], L[indice inférieur 1] L[indice inférieur 2] L[indice inférieur 3] et M[indice inférieur 1] M[indice inférieur 2] M[indice inférieur 3] (Gevers and Smeulders, 1999) à discriminer les zones d’ombre. Cette évaluation s’est effectuée sur deux images simples dont la première est une image d’extérieur affectée par les effets atmosphériques, et la deuxième est une image d’intérieur, illuminée par une source de lumière artificielle. Les effets atmosphériques, notamment la dispersion, conduisent à la saturation maximale des zones d’ombre sur l’image d’extérieur. Cette conclusion a été vérifiée sur l’image IKONOS et exploitée pour développer une approche pour la détection de l’ombre sur ce genre de données. La transformée IHS a été retenue pour générer les couleurs photométriques H et S respectivement la teinte et la saturation. Deux dérivées I-S et H+l/I+1 ont été calculées. Ces dernières permettent le rehaussement des zones d’ombre sur l’image IKONOS. Trois méthodes de seuillage ont été appliquées sur les deux dérivées afin de particulariser les régions d’ombre. Les deux images finales issues du seuillage ont été fusionnées. La dernière étape de la recherche a consisté en une validation des résultats. Cette opération a démontré la robustesse de l’approche avec une précision globale moyenne de 80%. La confusion entre les zones d’ombre et les régions sombres est la principale faiblesse de l’approche proposée. Cependant, son amélioration est possible grâce à l’intégration d’autres types d’informations comme la texture et la prise en compte du voisinage. // Abstract : The shadow phenomena on the satellite imagery with very high spatial resolution has been the subject of a few research tasks in remote sensing. The aim of the present study is the detection of the shadow’s areas on IKONOS imagery with the use of the shadow’s colors characteristics. These characteristics were derived from the invariant photometric colors. The purpose of the suggested approach is to evaluate initially, the potential of normalized color RGB, IHS (Intensity, Hue, Saturation), HSV (Hue, Saturation, Value), C[subscript 1] C[subscript 2] C[subscript 3], L[subscript 1] L[subscript 2] L[subscript 3] et M[subscript 1] M[subscript 2] M[subscript 3] (Gevers and Smeulders, 1999) transform colors to discriminate shadow’s areas. This evaluation was carried out on two simple images whose first is an outside scene affected by the atmospheric effects, and the second is an interior one illuminated by artificial light source. The atmospheric effects, in particular dispersion, lead to the maximum saturation of shadow’s zones on the outside image. This conclusion was checked on IKONOS image and exploited to develop a method to detect the shadow on this kind of data. IHS transform was retained to generate the photometric colors hue (H) and saturation (S). Two derived images I-S and H+l/I+1 were calculated. They allow the raising of the shadow’s areas on IKONOS image. Three methods of thresholding were applied to the two derived images in order to differentiate the areas of interest. The two final images resulting from the thresholding were joined. The last stage of research consisted of a validation of the results. This operation showed the robustness of the approach with 80% of precision. Confusion between the shadow’s areas and the dark ones is the principal weakness of the suggested approach. However, this new technique can be improved by introducing other information like texture and nearest neighbor analysis.
7

Perfectionnement des algorithmes d'optimisation par essaim particulaire : applications en segmentation d'images et en électronique / Improvement of particle swarm optimization algorithms : applications in image segmentation and electronics

El Dor, Abbas 05 December 2012 (has links)
La résolution satisfaisante d'un problème d'optimisation difficile, qui comporte un grand nombre de solutions sous-optimales, justifie souvent le recours à une métaheuristique puissante. La majorité des algorithmes utilisés pour résoudre ces problèmes d'optimisation sont les métaheuristiques à population. Parmi celles-ci, nous intéressons à l'Optimisation par Essaim Particulaire (OEP, ou PSO en anglais) qui est apparue en 1995. PSO s'inspire de la dynamique d'animaux se déplaçant en groupes compacts (essaims d'abeilles, vols groupés d'oiseaux, bancs de poissons). Les particules d'un même essaim communiquent entre elles tout au long de la recherche pour construire une solution au problème posé, et ce en s'appuyant sur leur expérience collective. L'algorithme PSO, qui est simple à comprendre, à programmer et à utiliser, se révèle particulièrement efficace pour les problèmes d'optimisation à variables continues. Cependant, comme toutes les métaheuristiques, PSO possède des inconvénients, qui rebutent encore certains utilisateurs. Le problème de convergence prématurée, qui peut conduire les algorithmes de ce type à stagner dans un optimum local, est un de ces inconvénients. L'objectif de cette thèse est de proposer des mécanismes, incorporables à PSO, qui permettent de remédier à cet inconvénient et d'améliorer les performances et l'efficacité de PSO. Nous proposons dans cette thèse deux algorithmes, nommés PSO-2S et DEPSO-2S, pour remédier au problème de la convergence prématurée. Ces algorithmes utilisent des idées innovantes et se caractérisent par de nouvelles stratégies d'initialisation dans plusieurs zones, afin d'assurer une bonne couverture de l'espace de recherche par les particules. Toujours dans le cadre de l'amélioration de PSO, nous avons élaboré une nouvelle topologie de voisinage, nommée Dcluster, qui organise le réseau de communication entre les particules. Les résultats obtenus sur un jeu de fonctions de test montrent l'efficacité des stratégies mises en oeuvre par les différents algorithmes proposés. Enfin, PSO-2S est appliqué à des problèmes pratiques, en segmentation d'images et en électronique / The successful resolution of a difficult optimization problem, comprising a large number of sub optimal solutions, often justifies the use of powerful metaheuristics. A wide range of algorithms used to solve these combinatorial problems belong to the class of population metaheuristics. Among them, Particle Swarm Optimization (PSO), appeared in 1995, is inspired by the movement of individuals in a swarm, like a bee swarm, a bird flock or a fish school. The particles of the same swarm communicate with each other to build a solution to the given problem. This is done by relying on their collective experience. This algorithm, which is easy to understand and implement, is particularly effective for optimization problems with continuous variables. However, like several metaheuristics, PSO shows some drawbacks that make some users avoid it. The premature convergence problem, where the algorithm converges to some local optima and does not progress anymore in order to find better solutions, is one of them. This thesis aims at proposing alternative methods, that can be incorporated in PSO to overcome these problems, and to improve the performance and the efficiency of PSO. We propose two algorithms, called PSO-2S and DEPSO-2S, to cope with the premature convergence problem. Both algorithms use innovative ideas and are characterized by new initialization strategies in several areas to ensure good coverage of the search space by particles. To improve the PSO algorithm, we have also developed a new neighborhood topology, called Dcluster, which can be seen as the communication network between the particles. The obtained experimental results for some benchmark cases show the effectiveness of the strategies implemented in the proposed algorithms. Finally, PSO-2S is applied to real world problems in both image segmentation and electronics fields
8

Méthodes de surface de réponse basées sur la décomposition de la variance fonctionnelle et application à l'analyse de sensibilité / Response surface methods based on analysis of variance expansion for sensitivity analysis

Touzani, Samir 20 April 2011 (has links)
L'objectif de cette thèse est l'investigation de nouvelles méthodes de surface de réponse afin de réaliser l'analyse de sensibilité de modèles numériques complexes et coûteux en temps de calcul. Pour ce faire, nous nous sommes intéressés aux méthodes basées sur la décomposition ANOVA. Nous avons proposé l'utilisation d'une méthode basée sur les splines de lissage de type ANOVA, alliant procédures d'estimation et de sélection de variables. L'étape de sélection de variable peut devenir très coûteuse en temps de calcul, particulièrement dans le cas d'un grand nombre de paramètre d'entrée. Pour cela nous avons développé un algorithme de seuillage itératif dont l'originalité réside dans sa simplicité d'implémentation et son efficacité. Nous avons ensuite proposé une méthode directe pour estimer les indices de sensibilité. En s'inspirant de cette méthode de surface de réponse, nous avons développé par la suite une méthode adaptée à l'approximation de modèles très irréguliers et discontinus, qui utilise une base d'ondelettes. Ce type de méthode a pour propriété une approche multi-résolution permettant ainsi une meilleure approximation des fonctions à forte irrégularité ou ayant des discontinuités. Enfin, nous nous sommes penchés sur le cas où les sorties du simulateur sont des séries temporelles. Pour ce faire, nous avons développé une méthodologie alliant la méthode de surface de réponse à base de spline de lissage avec une décomposition en ondelettes. Afin d'apprécier l'efficacité des méthodes proposées, des résultats sur des fonctions analytiques ainsi que sur des cas d'ingénierie de réservoir sont présentées. / The purpose of this thesis is to investigate innovative response surface methods to address the problem of sensitivity analysis of complex and computationally demanding computer codes. To this end, we have focused our research work on methods based on ANOVA decomposition. We proposed to use a smoothing spline nonparametric regression method, which is an ANOVA based method that is performed using an iterative algorithm, combining an estimation procedure and a variable selection procedure. The latter can become computationally demanding when dealing with high dimensional problems. To deal with this, we developed a new iterative shrinkage algorithm, which is conceptually simple and efficient. Using the fact that this method is an ANOVA based method, it allows us to introduce a new method for computing sensitivity indices. Inspiring by this response surface method, we developed a new method to approximate the model for which the response involves more complex outputs. This method is based on a multiresolution analysis with wavelet decompositions, which is well known to produce very good approximations on highly nonlinear or discontinuous models. Finally we considered the problem of approximating the computer code when the outputs are times series. We proposed an original method for performing this task, combining the smoothing spline response surface method and wavelet decomposition. To assess the efficiency of the developed methods, numerical experiments on analytical functions and reservoir engineering test cases are presented.
9

Approximation des signaux: approches variationnelles et modèles aléatoires

Kowalski, Matthieu 15 October 2008 (has links) (PDF)
Deux approches pour la décomposition parcimonieuse des signaux sont étudiées.<br /> L'une utilise des méthodes variationnelles avec une attache aux données l2 pénalisée par une norme mixte permettant de structurer la parcimonie. Les fonctionnelles sont minimisées par des algorithmes itératifs dont la convergence est prouvée. Les normes mixtes donnent des estimations par des opérateurs de seuillage généralisés, qui ont été modifiés pour les localiser ou introduire de la persistance.<br />L'autre modélise les signaux comme combinaisons linéaires parcimonieuses d'atomes temps-fréquence choisis dans l'union de deux bases orthonormées, à coefficients aléatoires. La distribution de ces coefficients fait intervenir deux niveaux d'aléa : leur valeur et leur position dans leur espace temps-fréquence. L'étude des coefficients d'analyse permet une estimation des cartes temps-fréquence. La projection du signal sur ces cartes donne une décomposition en deux couches plus un résidu.
10

Continuum de fréquences optiques pour application OCDMA

Cordette, Steevy 12 July 2010 (has links) (PDF)
Ce travail de thèse s'inscrit dans le cadre des systèmes d'accès optiques haut débit où la bande passante de la fibre est partagée entre plusieurs utilisateurs. Principalement, nous considérons les sytèmes de comunication à accès multiple par répartition de codes optique (OCDMA: Optical Code Division Multiple Access). Cependant, ces systemes ont pour inconvénients d'être limitée en termes de capacité de multiplexage et de subir des interférences dues aux utilisateurs non désirés. Afin d'augmenter le nombre d'utilisateurs de ces systèmes, nous proposons deux architectures systèmes OCDMA. La première est une architecture système hybride WDM/OCDMA à encodage temporel integrant une source large bande découpée spectralment afin de multiplier le nombre d'utilisateurs multiplexés OCDMA par le nombre de canaux WDM générés. La seconde est une architecture système OCDMA à encodage spectral en phase qui permet d'implémenter des codes bipolaires. De même, nous avons réduit les interférences d'accès multiple (MAI : Multiple Access Interference) rencontrées dans ces systèmes OCDMA du fait des utilisateurs interférents, en utilisant un absorbant saturable après décodage des données de l'utilisateur désiré. Dans le cadre du projet ANR SUPERCODE, nous avons étudié la génération d'une source continuum optique et l'implémentation d'un absorbant saturable, basées sur l'exploitation d'effets d'optique non-linéaire dans des fibres spéciales ; conçu et implémenté des codeurs et décodeurs tout-optique via des réseaux de Bragg photo-inscrits dans des fibres optiques; puis réalisé l'intégration système des architectures proposées, ainsi que l'étude et l'evaluation des performances obtenues.

Page generated in 0.4277 seconds