• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 212
  • 190
  • Tagged with
  • 771
  • 771
  • 520
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
701

Signal processing methods for fast and accurate reconstruction of digital holograms / Méthodes de traitement du signal pour la reconstruction rapide et précise des hologrammes numériques

Seifi, Mozhdeh 03 October 2013 (has links)
Le développement de techniques de microscopie quantitatives tridimensionnelles et résolues en temps est fondamental dans de nombreux domaines. Dans ce cadre, l’holographie numérique en ligne recèle un fort potentiel, en raison de sa relative simplicité de mise en œuvre (imagerie sans lentille), de son caractère tridimensionnel et de sa résolution temporelle. Le but de cette thèse est l’amélioration des algorithmes de reconstruction des hologrammes par une approche « problèmes inverses ». Dans le cadre de la reconstruction d’objets paramétriques, des travaux antérieurs ont permis de proposer un algorithme glouton permettant de résoudre le problème inverse de reconstruction (intrinsèquement mal posé) par une maximisation de la vraisemblance entre un modèle de formation d’hologramme et les données. Une première contribution de ce travail de thèse a été de réduire le temps de calcul de cet algorithme en utilisant une approche multi-résolution (algorithme FAST). Dans une deuxième contribution, une approche reconnaissance de forme de type « matching pursuit » est utilisée pour la reconstruction d’objets quelconques en recherchant les éléments d’un dictionnaire les plus proches des figures de diffraction composant l’hologramme. La réduction des dimensions du dictionnaire est proposée en utilisant une décomposition en valeurs singulières tronquée. La troisième contribution de cette thèse a été réalisée en collaboration avec le LMFA. L’algorithme glouton a été utilisé sur un cas réel : la reconstruction et le suivi de gouttelettes d’éther évaporantes en chute libre. Dans tous ces développements une attention particulière a été portée sur la précision des reconstructions, sur la réduction du nombre de paramètres à régler par l’utilisateur (algorithmes peu ou non supervisés). Une boîte à outils Matlab® (en ligne) a été développée dans le cadre de cette thèse / Techniques for fast, 3D, quantitative microscopy are of great interest in many fields. In this context, in-line digital holography has significant potential due to its relatively simple setup (lensless imaging), its three-dimensional character and its temporal resolution. The goal of this thesis is to improve existing hologram reconstruction techniques by employing an “inverse problems” approach. For applications of objects with parametric shapes, a greedy algorithm has been previously proposed which solves the (inherently ill-posed) inversion problem of reconstruction by maximizing the likelihood between a model of holographic patterns and the measured data. The first contribution of this thesis is to reduce the computational costs of this algorithm using a multi-resolution approach (FAST algorithm). For the second contribution, a “matching pursuit” type of pattern recognition approach is proposed for hologram reconstruction of volumes containing parametric objects, or non-parametric objects of a few shape classes. This method finds the closest set of diffraction patterns to the measured data using a diffraction pattern dictionary. The size of the dictionary is reduced by employing a truncated singular value decomposition to obtain a low cost algorithm. The third contribution of this thesis was carried out in collaboration with the laboratory of fluid mechanics and acoustics of Lyon (LMFA). The greedy algorithm is used in a real application: the reconstruction and tracking of free-falling, evaporating, ether droplets. In all the proposed methods, special attention has been paid to improvement of the accuracy of reconstruction as well as to reducing the computational costs and the number of parameters to be tuned by the user (so that the proposed algorithms are used with little or no supervision). A Matlab® toolbox (accessible on-line) has been developed as part of this thesis
702

Caractérisation des objets enfouis par les méthodes de traitement d'antenne / Characterization of buried objects using array processing methods

Han, Dong 15 April 2011 (has links)
Cette thèse est consacrée à l'étude de la localisation d'objets enfouis dans acoustiques sous-marins en utilisant les méthodes de traitement d'antenne et les ondes acoustiques. Nous avons proposé un modèle bien adapté en tenant compte le phénomène physique au niveau de l'interface eau/sédiment. La modélisation de la propagation combine donc la contribution de l'onde réfléchie et celle de l'onde réfractée pour déterminer un nouveau vecteur directionnel. Le vecteur directionnel élaboré à partir des modèles de diffusion acoustique est utilisé dans la méthode MUSIC au lieu d'utiliser le modèle d'onde plane habituel. Cette approche permet d'estimer à la fois coordonnées d'objets (angle et distance objet-capteur) de forme connue, quel que soit leur emplacement vis à vis de l'antenne, en champ proche ou en champ lointain. Nous remplaçons l'étape de décomposition en éléments propres par des algorithmes plus rapides. Nous développons un algorithme d'optimisation plus élaboré consiste à combiner l'algorithme DIRECT (DIviding RECTangles) avec une interpolation de type Spline, ceci permet de faire face au cas d'antennes distordues à grand nombre de capteurs, tout en conservant un temps de calcul faible. Les signaux reçus sont des signaux issus de ce même capteur, réfléchis et réfractés par les objets et sont donc forcément corrélés. Pour cela, nous d'abord utilisons un opérateur bilinéaire. Puis nous proposons une méthode pour le cas de groupes indépendants de signaux corrélés en utilisant les cumulants. Ensuit nous présentons une méthode en utilisant la matrice tranche cumulants pour éliminer du bruit Gaussien. Mais dans la pratique, le bruit n'est pas toujours gaussien ou ses caractéristiques ne sont pas toujours connues. Nous développons deux méthodes itératives pour estimer la matrice interspectrale du bruit. Le premier algorithme est basé sur une technique d'optimisation permettant d'extraire itérativement la matrice interspectrale du bruit de la matrice interspectrale des observations. Le deuxième algorithme utilise la technique du maximum de vraisemblance pour estimer conjointement les paramètres du signal et du bruit. Enfin nous testons les algorithmes proposés avec des données expérimentales et les performances des résultats sont très bonnes. / This thesis is devoted to the study of the localization of objects buried in underwater acoustic using array processing methods and acoustic waves. We have proposed a appropriate model, taking into account the water/sediment interface. The propagation modeling thus combines the reflected wave and the refracted wave to determine a new directional vector. The directional vector developed by acoustic scattering model is used in the MUSIC method instead of the classical plane wave model. This approach can estimate both of the object coordinates (angle and distance sensor-object) of known form, in near field or far field. We propose some fast algorithms without eigendecompostion. We combine DIRECT algorithm with spline interpolation to cope with the distorted antennas of many sensors, while maintaining a low computation time. To decorrelate the received signals, we firstly use a bilinear operator. We propose a method for the case of independent groups of correlated signals using the cumulants. Then we present a method using the cumulants matrix to eliminate Gaussian noise. But in practice, the noise is not always Gaussian or the characteristics are not always known. We develope two iterative methods to estimate the interspectral matrix of noise. The first algorithm is based on an optimization technique to extract iteratively the interspectral matrix of noise. The second algorithm uses the technique of maximum likelihood to estimate the signal parameters and the noise. Finally we test the proposed algorithms with experimental data. The results quality is very good.
703

Modèles de déformation de processus stochastiques généralisés : application à l'estimation des non-stationnarités dans les signaux audio

Omer, Harold 18 June 2015 (has links)
Ce manuscrit porte sur la modélisation et l'estimation de certaines non-stationnarités dans les signaux audio. Nous nous intéressons particulièrement à une classe de modèles de sons que nous nommons timbre*dynamique dans lesquels un signal stationnaire, associé au phénomène physique à l'origine du son, est déformé au cours du temps par un opérateur linéaire unitaire, appelé opérateur de déformation, associé à l'évolution temporelle des caractéristiques de ce phénomène physique. Les signaux audio sont modélisés comme des processus gaussiens généralisés et nous donnons dans un premier temps un ensemble d'outils mathématiques qui étendent certaines notions utilisées en traitement du signal au cas des processus stochastiques généralisés.Nous introduisons ensuite les opérateurs de déformations étudiés dans ce manuscrit. L'opérateur de modulation fréquentielle qui est l'opérateur de multiplication par une fonction à valeurs complexes de module unité, et l'opérateur de changement d'horloge qui est la version unitaire de l'opérateur de composition.Lorsque ces opérateurs agissent sur des processus stationnaires les processus déformés possèdent localement des propriétés de stationnarité et les opérateurs de déformation peuvent être approximés par des opérateurs de translation dans les plans temps-fréquence et temps-échelle. Nous donnons alors des bornes pour les erreurs d'approximation correspondantes. Nous développons ensuite un estimateur de maximum de vraisemblance approché des fonctions de dilatation et de modulation. L'algorithme proposé est testé et validé sur des signaux synthétiques et des sons naurels. / This manuscript deals with the modeling and estimation of certain non-stationarities in audio signals. We are particularly interested in a sound class models which we call dynamic*timbre in which a stationary signal, associated with the physical phenomenon causing the sound, is deformed over time by a linear unitary operator, called deformation operator, associated with the temporal evolution of the characteristics of this physical phenomenon.Audio signals are modeled as generalized Gaussian processes. We give first a set of mathematical tools that extend some classical notions used in signal processing in case of generalized stochastic processes.We then introduce the two deformations operators studied in this manuscript. The frequency modulation operator is the multiplication operator by a complex-valued function of unit module and the time-warping operator is the unit version of the composition operator by a bijective function.When these operators act on generalized stationary processes, deformed process are non-stationary generalized process which locally have stationarity properties and deformation operators can be approximated by translation operators in the time-frequency plans and time-scale.We give accurate versions of these approximations, as well as bounds for the corresponding approximation errors.Based on these approximations, we develop an approximated maximum likelihood estimator of the warping and modulation functions. The proposed algorithm is tested and validated on synthetic signals. Its application to natural sounds confirm the validity of the timbre*dynamic model in this context.
704

Speech synthesis using recurrent neural networks

Rodríguez Sotelo, José Manuel 12 1900 (has links)
No description available.
705

Uncertainty in radar emitter classification and clustering / Gestion des incertitudes en identification des modes radar

Revillon, Guillaume 18 April 2019 (has links)
En Guerre Electronique, l’identification des signaux radar est un atout majeur de la prise de décisions tactiques liées au théâtre d’opérations militaires. En fournissant des informations sur la présence de menaces, la classification et le partitionnement des signaux radar ont alors un rôle crucial assurant un choix adapté des contre-mesures dédiées à ces menaces et permettant la détection de signaux radar inconnus pour la mise à jour des bases de données. Les systèmes de Mesures de Soutien Electronique enregistrent la plupart du temps des mélanges de signaux radar provenant de différents émetteurs présents dans l’environnement électromagnétique. Le signal radar, décrit par un motif de modulations impulsionnelles, est alors souvent partiellement observé du fait de mesures manquantes et aberrantes. Le processus d’identification se fonde sur l’analyse statistique des paramètres mesurables du signal radar qui le caractérisent tant quantitativement que qualitativement. De nombreuses approches mêlant des techniques de fusion de données et d’apprentissage statistique ont été développées. Cependant, ces algorithmes ne peuvent pas gérer les données manquantes et des méthodes de substitution de données sont requises afin d’utiliser ces derniers. L’objectif principal de cette thèse est alors de définir un modèle de classification et partitionnement intégrant la gestion des valeurs aberrantes et manquantes présentes dans tout type de données. Une approche fondée sur les modèles de mélange de lois de probabilités est proposée dans cette thèse. Les modèles de mélange fournissent un formalisme mathématique flexible favorisant l’introduction de variables latentes permettant la gestion des données aberrantes et la modélisation des données manquantes dans les problèmes de classification et de partionnement. L’apprentissage du modèle ainsi que la classification et le partitionnement sont réalisés dans un cadre d’inférence bayésienne où une méthode d’approximation variationnelle est introduite afin d’estimer la loi jointe a posteriori des variables latentes et des paramètres. Des expériences sur diverses données montrent que la méthode proposée fournit de meilleurs résultats que les algorithmes standards. / In Electronic Warfare, radar signals identification is a supreme asset for decision making in military tactical situations. By providing information about the presence of threats, classification and clustering of radar signals have a significant role ensuring that countermeasures against enemies are well-chosen and enabling detection of unknown radar signals to update databases. Most of the time, Electronic Support Measures systems receive mixtures of signals from different radar emitters in the electromagnetic environment. Hence a radar signal, described by a pulse-to-pulse modulation pattern, is often partially observed due to missing measurements and measurement errors. The identification process relies on statistical analysis of basic measurable parameters of a radar signal which constitute both quantitative and qualitative data. Many general and practical approaches based on data fusion and machine learning have been developed and traditionally proceed to feature extraction, dimensionality reduction and classification or clustering. However, these algorithms cannot handle missing data and imputation methods are required to generate data to use them. Hence, the main objective of this work is to define a classification/clustering framework that handles both outliers and missing values for any types of data. Here, an approach based on mixture models is developed since mixture models provide a mathematically based, flexible and meaningful framework for the wide variety of classification and clustering requirements. The proposed approach focuses on the introduction of latent variables that give us the possibility to handle sensitivity of the model to outliers and to allow a less restrictive modelling of missing data. A Bayesian treatment is adopted for model learning, supervised classification and clustering and inference is processed through a variational Bayesian approximation since the joint posterior distribution of latent variables and parameters is untractable. Some numerical experiments on synthetic and real data show that the proposed method provides more accurate results than standard algorithms.
706

Etude de la propagation Air - Sol - Air pour la création de modèles de canaux : Application au développement d’un banc pou r la caractérisation de radioaltimètres à pente asservie / Air-Ground-Air propagation channel study for the creation of channel models : Application to the development of a propagation channel emulator designed

Paris, André 15 December 2016 (has links)
Ces travaux portent sur l'étude et le développement d'un système de caractérisation de radioaltimètres. La propagation Air-Sol-Air, contexte particulier du canal de propagation aéronautique adaptée aux radioaltimètres, est étudiée et modélisée. Une approche hybride basée sur le lancer de rayon et les fonctions de distribution de la réflectance bidirectionnelle est proposée pour le développement d'un simulateur de canal de propagation dédié aux radioaltimètres. Les modèles issus de cet outil sont validés par confrontation à des essais en vol et une méthode de conditionnement des résultats est proposée pour les rendre utilisables dans un accumulateur de canaux de propagation temps réel. L'architecture matérielle et logicielle de celui-ci est détaillée dans ce manuscrit et son fonctionnement est validé par la mesure. / This thesis presents the study and the development of a radar-altimeter characterization tool. The Air-Ground-Air propagation channel is a specific context of the aeronautical channel applied to the radar-altimeters. A new hybrid method designed to the development of a channel simulator is described. This one is based upon ray tracing and bidirectionnal reflectance distribution functions and permits to obtain channel models validated by comparison with on flight measurements. A pre-conditioning method is also explained to make the channel models ready to be used in a real time channel emulator. The hardware and software architecture of this channel emulator is detailed in this book and its behavior is validated with laboratory measurements.
707

Deep learning on signals : discretization invariance, lossless compression and nonuniform compression

Demeule, Léa 07 1900 (has links)
Une grande variété d'information se prête bien à être interprétée comme signal; à peu près toute quantité fluctuant continuellement dans l'espace se trouve inclue. La vie quotidienne abonde d'exemples; les images peuvent être vues comme une variation de couleur à travers l'espace bidimensionnel; le son, la pression à travers le temps; les environnements physiques, la matière à travers l'espace tridimensionnel. Les calculs sur ce type d'information requièrent nécessairement une transformation de la forme continue vers la forme discrète, ce qui est accompli par le processus de discrétisation, où seules quelques valeurs du signal continu sous-jacent sont observées et compilées en un signal discret. Sous certaines conditions, à l'aide seulement d'un nombre fini de valeurs observées, le signal discret capture la totalité de l'information comprise dans le signal continu, et permet de le reconstruire parfaitement. Les divers systèmes de senseurs permettant d'acquérir des signaux effectuent tous ce processus jusqu'à un certain niveau de fidélité, qu'il s'agisse d'une caméra, d'un enregistreur audio, ou d'un système de capture tridimensionnelle. Le processus de discrétisation n'est pas unique par contre. Pour un seul signal continu, il existe une infinité de signaux discrets qui lui sont équivalents, et entre lesquels les différences sont contingentes. Ces différences correspondent étroitement aux différences entre systèmes de senseurs, qui ont chacun leur niveau de fidélité et leurs particularités techniques. Les réseaux de neurones profonds sont fréquemment spécialisés pour le type de données spécifiques sur lesquels ils opèrent. Cette spécialisation se traduit souvent par des biais inductifs qui supportent des symétries intrinsèques au type de donnée. Quand le comportement d'une architecture neuronale reste inchangé par une certaine opération, l'architecture est dite invariante sous cette opération. Quand le comportement est affecté d'une manière identique, l'architecture est dite équivariante sous cette opération. Nous explorons en détail l'idée que les architectures neuronales puissent être formulées de façon plus générale si nous abstrayions les spécificités contingentes des signaux discrets, qui dépendent généralement de particularités de systèmes de senseurs, et considérions plutôt l'unique signal continu représenté, qui est la réelle information d'importance. Cette idée correspond au biais inductif de l'invariance à la discrétisation, qui reconnaît que les signaux ont une forme de symétrie à la discrétisation. Nous formulons une architecture très générale qui respecte ce biais inductif. Du fait même, l'architecture gagne la capacité d'être évaluée sur des discrétisations de taille arbitraire avec une grande robustesse, à l'entraînement et à l'inférence. Cela permet d'accéder à de plus grands corpus de données pour l'entraînement, qui peuvent être formés à partir de discrétisations hétérogènes. Cela permet aussi de déployer l'architecture dans un plus grand nombre de contextes où des systèmes de senseurs produisent des discrétisations variées. Nous formulons aussi cette architecture de façon à se généraliser à n'importe quel nombre de dimensions, ce qui la rend idéale pour une grande variété de signaux. Nous notons aussi que son coût d'évaluation diminue avec la taille de la discrétisation, ce qui est peu commun d'architectures conçues pour les signaux, qui ont généralement une discrétisation fixe. Nous remarquons qu'il existe un lien entre l'invariance à la discrétisation, et la distinction séparant l'équivariance à la translation discrète et l'équivariance à la translation continue. Ces deux propriétés reflètent la même symétrie à la translation, mais l'une est plus diluée que l'autre. Nous notons que la plus grande part de la littérature entourant les architectures motivées par l'algèbre générale omettent cette distinction, ce qui affaiblit la force des biais inductifs implémentés. Nous incorporons aussi dans notre méthode la capacité d'implémenter d'autres invariances and equivariances plus générales à l'aide de couches formulées à partir de l'opérateur de dérivée partielle. La symétrie à la translation, la rotation, la réflexion, et la mise à l'échelle peuvent être adoptées, et l'expressivité et l'efficacité en paramètres de la couche résultante sont excellentes. Nous introduisons aussi un nouveau bloc résiduel Laplacien, qui permet de compresser l'architecture sans perte en fonction de la densité de la discrétisation. À mesure que le nombre d'échantillons de la discrétisation réduit, le nombre de couches requises pour l'évaluation diminue aussi. Le coût de calcul de l'architecture diminue ainsi à mesure que certaines de ses couches sont retirées, mais elle se comporte de façon virtuellement identique; c'est ainsi une forme de compression sans perte qui est appliquée. La validité de cette compression sans perte est prouvée théoriquement, et démontrée empiriquement. Cette capacité est absente de la littérature antérieure, au meilleur de notre savoir. Nous greffons à ce mécanisme une forme de décrochage Laplacien, qui applique effectivement une augmentation spectrale aux données pendant l'entraînement. Cela mène à une grande augmentation de la robustesse de l'architecture à des dégradations de qualité de la discrétisation, sans toutefois compromettre sa capacité à performer optimalement sur des discrétisations de haute qualité. Nous n'observons pas cette capacité dans les méthodes comparées. Nous introduisons aussi un algorithme d'initialisation des poids qui ne dépend pas de dérivations analytiques, ce qui permet un prototypage rapide de couches plus exotiques. Nous introduisons finalement une méthode qui généralise notre architecture de l'application à des signaux échantillonnés uniformément vers des signaux échantillonnés non uniformément. Les garanties théoriques que nous fournissons sur son efficacité d'échantillonnage sont positives, mais la complexité ajoutée par la méthode limite malheureusement sa viabilité. / Signals are a useful representation for many types of information that consist of continuously changing quantities. Examples from everyday life are abundant: images are fluctuations of colour over two-dimensional space; sounds are fluctuations of air pressure over time; physical environments are fluctuations of material qualities over three-dimensional space. Computation over this information requires that we reduce its continuous form to some discrete form. This is done through the process of discretization, where only a few values of the underlying continuous signal are observed and compiled into a discrete signal. This process incurs no loss of information and is reversible under some conditions. Sensor systems, such as cameras, sound recorders, and laser scanners all effectively perform discretization when they capture signals, and they preserve them up to a certain degree. This process is not unique, however. Given a single continuous signal, there are countless discrete signals that correspond to it, and the specific choice of discrete signal is generally contingent. Sensor systems all have different technical characteristics that lead to different discretizations. Deep neural network architectures are often tailored to respect the fundamental properties of the specific data type they operate on. Their behaviour often implements inductive biases that respect some fundamental symmetry of the data. When behaviour is unchanged by some operation, the architecture is invariant under it. When behaviour transparently reproduces some operation, the architecture is equivariant under it. We explore in great detail the idea that neural network architectures can be formulated in a more general way if we abstract away the contingent details of the discrete signal, which generally depend on the implementation details of a sensor system, and only consider the underlying continuous signal, which is the true information of interest. This is the intuitive idea behind discretization invariance. We formulate a very general architecture that implements this inductive bias. This allows handling discretizations of various sizes with much greater robustness, both during training and inference. We find that training can leverage more data by allowing heterogeneous discretizations, and that inference can apply to discretizations produced by a broader range of sensor systems. The architecture is agnostic to dimensionality, which makes it widely applicable to different types of signals. The architecture also lowers its computational cost proportionally to the sample count, which is unusual and highly desirable. We find that discretization invariance is also key to the distinction between discrete shift equivariance and continuous shift equivariance. We underline the fact that the majority of previous work on architecture design motivated by abstract algebra fails to consider this distinction. This nuance impacts the robustness of convolutional neural network architectures to translations on signals, weakening their inductive biases if unaddressed. We also incorporate the ability to implement more general invariances and equivariances by formulating steerable layers based on the partial derivative operator, and a set of other compatible architectural blocks. The framework we propose supports shift, rotation, reflection, and scale. We find that this results in excellent expressivity and parameter efficiency. We further improve computational efficiency with a novel Laplacian residual structure that allows lossless compression of the whole network depending on the sample density of the discretization. As the number of samples reduces, the number of layers required for evaluation also reduces. Pruning these layers reduces computational cost and has virtually no effect on the behaviour of the architecture. This is proven theoretically and demonstrated empirically. This capability is absent from any prior work to our knowledge. We also incorporate a novel form of Laplacian dropout within this structure, which performs a spectral augmentation to the data during training. This leads to greatly improved robustness to changes in spectral volume, meaning the architecture has a much greater tolerance to low-quality discretizations without compromising its performance on high-quality discretization. We do not observe this phenomenon in competing methods. We also provide a simple data-driven weight initialization scheme that allows quickly prototyping exotic layer types without analytically deriving weight initialization. We finally provide a method that generalizes our architecture from uniformly sampled signals to nonuniformly sampled signals. While the best-case theoretical guarantees it provides for sample efficiency are excellent, we find it is not viable in practice because of the complications it brings to the discretization of the architecture.
708

Advanced numerical techniques for design and optimization of optical links employing nonlinear semiconductor optical amplifiers

Ghazisaeidi, Amirhossein 17 April 2018 (has links)
Le traitement de signal optique est une pierre angulaire de la prochaine génération de systèmes de communications optiques avancées. En raison de son comportement non-linéaire, l'amplificateur optique à semi-conducteur (SOA) constitue un élément essentiel du traitement de signal optique. Afin de concevoir et d'optimiser de tels systèmes, des outils d'analyses ultra performants sont nécessaires. Dans la présente thèse, un simulateur basé sur l'algorithme de Monte Carlo Multi Canonique (MMC) a été développé et utilisé afin d'analyser une importante fonctionnalité du traitement de signaux optiques, à savoir la suppression du bruit d'intensité du SOA dans les spectrum-sliced wavelength division multiplexed passive optical networks (SS-WDM PON). L'algorithme de MMC a été introduit au début des années 90 en physique statistique. Depuis 2003, il est utilisé par les chercheurs dans la communauté des communications optiques. Dans le premier chapitre de cette thèse, une brève introduction de la suppression du bruit d'intensité du SOA dans les SS-WDM, ainsi que l'algorithme MMC et la modélisation du SOA seront présentés. Dans le second chapitre, l'algorithme MMC a été utilisé pour la première fois, afin d'estimer les fonctions de densités de probabilités conditionnelles (PDF) des "0" et des "1" logiques au niveau du récepteur d'un lien SS-WDM, avec un utilisateur, assisté par un SOA. En exploitant les PDF, le taux d'erreur binaire (BER) a été estimé à la fois pour les systèmes SS-WDM classiques, les systèmes SS-WDM avec suppression de bruit d'intensité d'un SOA, et finalement les systèmes SS-WDM assisté par SOA, et ce, en tenant compte de l'effet des filtres sélecteurs de canaux. Une nouvelle technique de pattern warping est aussi introduite, et ce, afin de traiter l'interférence inter-symboles (ISI) dû a la mémoire du canal de communication. Les estimations des PDF et des BER sont validées par des mesures expérimentales. Résumé v Le chapitre trois est entièrement consacré à la question de l'ISI, en particulier l'effet dû à la dynamique du SOA, qui est aussi appelé l'effet de patterning. Pour ce faire, un lien avec une source laser à 10 Gb/s est considéré. L'objectif principal est de montrer la fiabilité du simulateur pour l'estimation des PDF conditionnelles des "0" et des "1" logiques reçus en présence de l'effet de patterning. De plus, une nouvelle méthode pour mesurer directement les PDF est proposée. Les PDF conditionnelles et les BER simulées sont comparés avec les mesures expérimentales. Le chapitre 4 porte sur les systèmes SS-WDM, toujours avec des SOA, comprenant plusieurs canaux. L'objectif est d'étudier l'impact des filtres optiques sur la performance du système et de montrer comment choisir leurs caractéristiques (bande passante, forme et espacement inter-canal) afin de maximiser l'efficacité spectrale. Dans cette étude, la suppression du bruit d'intensité du SOA et les codes correcteur d'erreurs sont considérés. Ces deux problèmes sont abordés pour la première fois dans cette thèse. On montre aussi pour la première fois que la parallélisasion de l'algorithme MMC peut facilement être utilisé, et ce, contrairement aux affirmations précédentes dans la littérature. Le prix à payer est la perte d'une petite fraction d'échantillons par cycle MMC par noeud de calcul. Les résultats de simulation des BER sont validés à l'aide de résultats publié par d'autres groupes de recherche. Dans le dernier chapitre, les performances des spectral amplitude coded optical division multiple access (SAC-OCDMA), avec et sans la suppression de bruit d'intensité du SOA, sont analysées pour la première fois. Les résultats simulés pour le cas de 2 et 3 utilisateurs actifs sont validés par rapport aux mesures déjà réalisées et publiés par notre groupe de recherche.
709

Étude des algorithmes d'approximation de fonctions de croyance généralisées

Djiknavorian, Pascal 20 April 2018 (has links)
La recherche présentée ici consiste à résoudre le problème de difficulté calculatoire de la fusion d’informations dans le cadre de la théorie de l’évidence de Dempster-Shafer, ainsi que celui de la théorie de Dezert-Smarandache. On présente des études sur l’utilisation d’une variété d’algorithmes d’approximation connus ainsi que sur un nouvel algorithme d’approximation. On présente aussi une étude sur les métriques connues de distance entre corps d’évidence ainsi que deux nouvelles métriques. Enfin, on montre une étude de la possibilité d’employer une méthode d’optimisation afin de sélectionner automatiquement les paramètres d’approximation à l’aide de critères de performance. Mots-clés : Dezert, Smarandache, Dempster, Shafer, Fusion, Fonctions de croyance. / This research is about the solving of the computational difficulty of data fusion in the evidence theory of Dempster-Shafer theory and Dezert-Smarandache theory. We study the use of a variety of known approximation algorithms as well as a new approximation algorithm that we propose. We also study known metrics between bodies of evidence as well as two new metrics that we develop. Finally, we study the possibility of using an optimization method to automatically select the parameters of approximation with performance criteria. Keywords: Dezert, Smarandache, Dempster, Shafer, Fusion, Belief functions.
710

Techniques d'approximation rationnelle en synthèse fréquentielle : problème de Zolotarev et algorithme de Schur

Lunot, Vincent 05 May 2008 (has links) (PDF)
Cette thèse présente des techniques d'optimisation et d'approximation rationnelle ayant des applications en synthèse et identification de systèmes passifs. La première partie décrit un problème de Zolotarev : on cherche à maximiser sur une famille d'intervalles l'infimum du module d'une fonction rationnelle de degré donné, tout en contraignant son module à ne pas dépasser 1 sur une autre famille d'intervalles. On s'intéresse dans un premier temps à l'existence et à la caractérisation des solutions d'un tel problème. Deux algorithmes, de type Remes et correction différentielle, sont ensuite présentés et étudiés. Le lien avec la synthèse de filtres hyperfréquences est détaillé. La théorie présentée permet en fait le calcul de fonctions de filtrage, multibandes ou monobandes, respectant un gabarit fixé. Celle-ci a été appliquée à la conception de plusieurs filtres hyperfréquences multibandes dont les réponses théoriques et les mesures sont données. La deuxième partie concerne l'approximation rationnelle Schur d'une fonction Schur. Une fonction Schur est une fonction analytique dans le disque unité bornée par 1 en module. On étudie tout d'abord l'algorithme de Schur multipoints, qui fournit un paramétrage des fonctions strictement Schur. Le lien avec les fonctions rationnelles orthogonales, obtenu grâce à un théorème de type Geronimus, est ensuite présenté. Celui-ci permet alors d'établir certaines propriétés d'approximation dans le cas peu étudié où les points d'interpolation tendent vers le bord du disque. En particulier, une convergence en métrique de Poincaré est obtenue grâce à une extension d'un théorème de type Szego. Une étude numérique sur l'approximation rationnelle Schur à degré fixé est aussi réalisée.

Page generated in 0.2795 seconds