Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
391 |
Etude de solutions OFDM en technologie "Photonique Silicium" pour les futures générations de réseaux optiques passifs / Silicon Photonics based Optical OFDM Solutions for Future Passive Optical NetworksBeninca de Farias, Giovanni 05 December 2013 (has links)
Dans le contexte des Réseaux Optiques Passifs (PON), les opérateurs recherchent des solutions innovantes pour augmenter le débit agrégé, nombre d'utilisateurs et portée de la transmission. En plus, des solutions émetteurs-récepteurs à bas coût sont nécessaires. La technique de transmission Orthogonal Frequency Division Multiplexing (OFDM) peut améliorer les performances de la communication en termes de débit agrégé et portée comparé à la modulation classique On-Off Keying (OOK) mono-porteuse. Au même temps, la technologie Photonique sur Silicium permet de réduire le coût par unité des émetteurs-récepteurs, en raison de sa capacité de production en masse et intégration électro-optique. L'OFDM optique a déjà démontré son potentiel avec des composants optiques sur étagère. Par contre, son utilisation avec des émetteurs compatibles avec la technologie Photonique sur Silicium est plus difficile. L'objectif de ce travail est d'étudier les performances d'un lien basé sur des composants Photoniques sur Silicium utilisant la technique de modulation OFDM. Pour atteindre cet objectif, une plateforme de simulation dédiée est développée. Le modulateur-démodulateur OFDM est mise en place, ainsi que des modèles d'émetteurs Photoniques sur Silicium développés pendant la thèse. Ces modèles sont validés expérimentalement avec la caractérisation des composants disponibles au laboratoire. En parallèle, un banc expérimental est construit. Les émetteurs Photoniques sur Silicium sont comparés avec des composants à l'état-de-l' art sur étagère dans un lien OFDM optique. Dans les systèmes en modulation d'intensité et détection directe (IM/DD), une technique d'allocation quasi-optimale de bits et puissance avec de l'OFDM optique est proposée pour maximiser l'efficacité spectrale. Deux types d'émetteurs Photoniques sur Silicium sont considérés : des lasers hybrides III/V-sur-Silicium en modulation directe (expérimentation) et des modulateurs externes comme le Mach-Zehnder (MZM) (simulation) et en anneau-résonant (expérimentation et simulation). Les résultats expérimentaux montrent qu'un débit agrégé de 10Gbps peut être attendu jusqu'à 50km de fibre monomode, compatible avec les exigences de futures générations de PONs. La portée de la transmission (>10Gbps) avec le modulateur en anneau est limitée à 20km, en raison des pertes de couplage élevé en entrée/sortie de la puce. Les simulations montrent que la portée peut atteindre 100km si les pertes sont réduites. Une technique de modulation appelée Single-Side Band (SSB)-OFDM est connu pour améliorer le produit bande-passante-portée de la transmission, en comparaison avec des systèmes IM/DD (Dual-Side Band (DSB)). Par contre, l'émetteur SSB exige plusieurs composants électriques et optiques discrets, augmentant sa complexité. La technologie Photonique sur Silicium permet de un haut niveau d'intégration électro-optique. Pour cette raison, une implémentation spécifique d'un modulateur optique IQ sur Silicium permettant une génération efficace d'un signal SSB-OFDM est étudiée. Les résultats de simulation d'un cas d'étude montrent que l'émetteur Silicium permet d'atteindre une pénalité dans le budget optique relativement faible (de l'ordre de 3dB) comparé à un modulateur LiNbO3. Les solutions présentées dans cette thèse répondent aux besoins de future générations de PON en termes de débit avec des bandes-passantes relativement faibles (<6.25GHz). Ceci est un atout pour l'application considérée. Les tensions de modulations pour les liens IM/DD sont proches des celles fournies par l'électronique CMOS (about 2Vpp). Le développement récent de processeurs numériques et de convertisseurs numériques-analogiques à haut débit en CMOS font de l'OFDM une solution très attractive pour les futures générations de PONs, puisque des transmetteurs tout-Silicium peuvent désormais être envisagés. / In the context of Passive Optical Networks (PON), operators are looking for innovative solutions to increase aggregated data-rate, split-ratio and reach. Another requirement is that transceivers should be as low-cost as possible. The optical Orthogonal Frequency Division Multiplexing (OFDM) technique can improve performance of the transmission in terms of data-rate and reach as compared to classical single-carrier On-Off Keying (OOK) modulation. At the same time, the silicon photonics technology can lower the cost per unit of the transceiver, due to its mass production and E/O integration capabilities. Optical OFDM has already shown its potential using commercially available optical components. However, its use with silicon photonics Directly-Modulated Lasers (DML) and modulators is more challenging. The objective of this work is to study the performance of OFDM -based solutions for future PON, using silicon photonics transmitters. For that purpose, a dedicated simulation platform is developed. The OFDM modem is implemented, as well as models of silicon photonic devices built during this thesis. These models are validated by characterizing physical components available for test. In parallel, an experimental test-bed is developed. The silicon photonics transmitters are benchmarked with commercial-available transmitters for OFDM-based optical systems. For Intensity-Modulated/Directly-Detected (IM/DD) links, the use of optical OFDM with adaptive bit and power loading is proposed to maximize spectral efficiency. Two types of silicon photonics transmitters are considered: directly modulated III/V-on-silicon lasers (experiment) and external optical modulators such as Mach-Zehnder Modulator (MZM) (simulation) and ring-resonator (simulation and experiment). Experimental results show that the hybrid DML can provide more than 10Gbps aggregated data-rate over at least 50km, which is a requirement for future uplink PON (from the subscriber to the central office). For the silicon ring modulator, because of the high coupling loss in and out of the photonic chip, reach was limited to 20km for a data-rate higher than 10Gbps. These are the first experimental demonstrations of OFDM modulation with hybrid III/V-on-silicon lasers and silicon ring-resonator modulator. Besides, simulation results show that reach can be indeed improved up to 100km if the optical signal is amplified or the coupling loss reduced. A modulation technique called Single-Side Band (SSB)-OFDM is known to improve the [bandwidth x reach] product of the link, as compared to IM/DD (Dual-Side Band (DSB)) systems. However, it requires expensive transmitters with several discrete optical components. As silicon photonics technology allows a very high level of integration between different optical components and between electrical and optical devices, a silicon optical IQ modulator enabling ac{SSB}-ac{OFDM} technique is investigated. Simulation results of a study-case reveal that a relatively low optical budget penalty (up to 3dB) of the silicon photonics transmitters as compared to the LiNbO3 modulator is achieved. The solutions presented in this thesis are demonstrated to be compliant with future PON in terms of data-rate, with relatively low bandwidth (<6.25GHz) electronics. This is a great asset for the considered application. The driving voltages required for typical IM/DD systems showed to be closer to what CMOS driving circuitry can provide (about 2Vpp). Recent developments on high-speed digital signal processors and D/A-A/D converters, using CMOS technologies, make optical-OFDM an attractive solution for future PONs as full-Silicon-transmitters could be used.
|
392 |
Mesure acoustique passive du transport par charriage dans les rivières / Passive hydrophone monitoring of bedload transport in gravel bed riversGeay, Thomas 04 December 2013 (has links)
L'analyse des variations spatio-temporelles du charriage est un élément important pour la compréhension de la dynamique fluviale. Ce manuscrit présente les recherches réalisées sur le développement d'une méthode de mesure du transport solide par acoustique passive. Un capteur de pression acoustique est utilisé pour mesurer le bruit généré par le transport par charriage au fond du lit de la rivière. Cette méthode originale a fait l'objet de quelques explorations durant les dernières décennies, qui ont montré que la puissance et le contenu fréquentiel du son généré dépendaient de la granulométrie des matériaux et du flux solide. Mais les applications au milieu naturel sont restées très limitées ; elles sont donc au centre de cette recherche.La première difficulté de la mesure est liée à l'existence de bruit environnant qui se superpose au bruit du charriage. Des mesures acoustiques ont été réalisées dans différentes typologie de rivières, du torrent à la grande rivière navigable. A l'aide de ces différentes expériences et de la bibliographie, les éléments du paysage acoustique d'une rivière sont identifiés. Le paysage acoustique d'une rivière est composé par les processus hydrodynamiques que sont la turbulence, l'agitation de surface et le transport de sédiment par charriage. Le charriage produit des bruits larges bandes, dans la partie haute du spectre et peut être masqué par les bruits de surface dans la région du kilohertz. Des outils de traitement du signal sont proposés afin de repérer les différentes dynamiques contenues dans le signal acoustique mesuré.L'interprétation du signal ne peut être faite sans une bonne compréhension des phénomènes de propagation des ondes acoustiques dans la rivière. On montre que la rivière se comporte comme un guide d'onde et une résolution de l'équation d'onde par une approche modale est proposée. On comprend alors que la propagation des ondes acoustiques est limitée par une fréquence de coupure inversement proportionnelle à la hauteur d'eau. Les observations de terrain faites sur la variation du champ de pression acoustique dans la verticale sont bien reproduites par le modèle d'un guide d'onde de Pekeris. Le modèle est alors utilisé pour montrer l'importance de la profondeur, de la constitution du fond de la rivière ou encore de la géométrie du canal sur la constitution du signal.Finalement, trois chroniques de signaux acoustiques enregistrés dans des rivières différentes sont analysées. Un descripteur est proposé pour chaque chronique de signaux, en fonction des bruits ambiants présents dans l'environnement lors de la mesure. Ce descripteur acoustique est confronté à des mesures comparatives du charriage et de bonnes corrélations sont observée. Elles montrent que la mesure hydrophone permet d'identifier la phase de l'initiation du transport par charriage et qu'elle est intégrative du transport sur une surface importante de la rivière. Ces expériences confirment la simplicité de mise en œuvre de la méthode et précisent les limites d'utilisation de l'acoustique passive, particulièrement pour les rivières à fortes pentes. Elles confirment également la validité des méthodes d'analyse du signal qui ont été utilisées et le besoin de mesures comparatives du milieu pour interpréter le signal. / Analysing the spatio-temporal variability of solid transport processes is key to the study of fluvial morphodynamics. Our research focusses on the development of passive acoustics to monitor bedload transport. A hydrophone is used to sense the acoustic pressure in the river in order to record the sound generated by inter-particle collisions. This original method has been mostly developed in laboratories during the past decades. It has been shown that the acoustic power and the frequencies of the monitored signals are linked to bedload fluxes and granulometry. The use of passive acoustics in natural streams has encountered limited success. It is the core of our research.First we address the existence of multiple sound sources in the environment. Acoustic measurements have been realised in several types of rivers: steep channels and large gravel bed rivers. These multiple experiences along with the bibliography have allowed us to describe river soundscapes. Hydrodynamics govern the soundscape, namely turbulence, agitating surfaces, and bedload transport. Inter-particle collisions generate sound in a wide range of frequencies, which depend on their sizes. It can be masked by the occurrence of agitating surface noise in the kilohertz region. Signal processing tools are proposed to study the dynamics of the different processes composing the signal.Signal interpretation could only be achieved by understanding the propagation properties of the acoustic waves in the river. It is shown that the river acts as an acoustic wave guide. A modal approach is suggested to solve the wave equation. The model points to the existence of a cutoff frequency inversely proportional to the water depth. Observations made on the vertical variation of the field pressure are correctly simulated. The signal dependence on water depth, the structure of the bed, and the geometry of the channel are studied using this model.Finally, we analyze three chronicles of acoustic signals recorded in the field. A signal descriptor is constructed for each data set, depending on the ambient noise conditions. This descriptor is compared to other measurements of bedload transport and good correlations are found. Initiation of motion is monitored and the integrative aspect of the acoustic measure is shown. These experiences highlight the simplicity of the method and show some of its limits. It is also shown that measurements of other environmental parameters are needed to interpret the results.
|
393 |
Apprentissage de modèles de mélange à large échelle par Sketching / Sketching for large-scale learning of mixture modelsKeriven, Nicolas 12 October 2017 (has links)
Les bases de données modernes sont de très grande taille, parfois divisées et distribuées sur plusieurs lieux de stockage, ou encore sous forme de flux de données : ceci soulève de nouveaux défis majeurs pour les méthodes d’apprentissage statistique. Une des méthodes récentes capable de s’adapter à ces situations consiste à d’abord compresser les données en une structure appelée sketch linéaire, puis ensuite de réaliser la tâche d’apprentissage en utilisant uniquement ce sketch, ce qui est extrêmement rapide si celui-ci est de petite taille. Dans cette thèse, nous définissons une telle méthode pour estimer un modèle de mélange de distributions de probabilités à partir des données, en utilisant uniquement un sketch de celles-ci. Ce sketch est défini en s’inspirant de plusieurs notions venant du domaine des méthodes à noyaux : le plongement par noyau moyen et les approximations aléatoires de noyaux. Défini comme tel, le sketch correspond à des mesures linéaires de la distribution de probabilité sous-jacente aux données. Ainsi nous analysons le problème en utilisant des outils venant du domaine de l’acquisition comprimée, dans lequel un signal est mesuré aléatoirement sans perte d’information, sous certaines conditions. Nous étendons certains résultats de l’acquisition comprimée à la dimension infinie, donnons des conditions génériques garantissant le succès de notre méthode d’estimation de modèles de mélanges, et les appliquons à plusieurs problèmes, dont notamment celui d’estimer des mélanges de distributions stables multivariées, pour lequel il n’existait à ce jour aucun estimateur. Notre analyse est basée sur la construction d’opérateurs de sketch construits aléatoirement, qui satisfont une Propriété d’Isométrie Restreinte dans l’espace de Banach des mesures finies signées avec forte probabilité. Dans une second partie, nous introduisons un algorithme glouton capable heuristiquement d’estimer un modèle de mélange depuis un sketch linéaire. Cet algorithme est appliqué sur données simulées et réelles à trois problèmes : l’estimation de centres significatifs dans les données, pour lequel on constate que la méthode de sketch est significativement plus rapide qu’un algorithme de k-moyennes classique, l’estimation de mélanges de Gaussiennes, pour lequel elle est plus rapide qu’un algorithme d’Espérance-Maximisation, et enfin l’estimation de mélange de distributions stables multivariées, pour lequel il n’existait à ce jour, à notre connaissance, aucun algorithme capable de réaliser une telle tâche. / Learning parameters from voluminous data can be prohibitive in terms of memory and computational requirements. Furthermore, new challenges arise from modern database architectures, such as the requirements for learning methods to be amenable to streaming, parallel and distributed computing. In this context, an increasingly popular approach is to first compress the database into a representation called a linear sketch, that satisfies all the mentioned requirements, then learn the desired information using only this sketch, which can be significantly faster than using the full data if the sketch is small. In this thesis, we introduce a generic methodology to fit a mixture of probability distributions on the data, using only a sketch of the database. The sketch is defined by combining two notions from the reproducing kernel literature, namely kernel mean embedding and Random Features expansions. It is seen to correspond to linear measurements of the underlying probability distribution of the data, and the estimation problem is thus analyzed under the lens of Compressive Sensing (CS), in which a (traditionally finite-dimensional) signal is randomly measured and recovered. We extend CS results to our infinite-dimensional framework, give generic conditions for successful estimation and apply them analysis to many problems, with a focus on mixture models estimation. We base our method on the construction of random sketching operators such that some Restricted Isometry Property (RIP) condition holds in the Banach space of finite signed measures with high probability. In a second part we introduce a flexible heuristic greedy algorithm to estimate mixture models from a sketch. We apply it on synthetic and real data on three problems: the estimation of centroids from a sketch, for which it is seen to be significantly faster than k-means, Gaussian Mixture Model estimation, for which it is more efficient than Expectation-Maximization, and the estimation of mixtures of multivariate stable distributions, for which, to our knowledge, it is the only algorithm capable of performing such a task.
|
394 |
Formalisme des impédances thermiques généralisées : application à la caractérisation thermique de parois de bâtiments / Formalism of generalized thermal impedances. Application to the thermal characterization of building walls.Vogt Wu, Tingting 17 June 2011 (has links)
Le travail de recherche concerne l'aide au diagnostic énergétique de bâtiments par le développement d'outils et de procédures d'auscultation basés sur les transferts thermiques. L'objectif de ce travail est d'étudier le comportement thermique de parois constituant l'enveloppe de bâtiments, c'est à dire d'identifier les principales caractéristiques thermiques (conductivité thermique, chaleur volumique...) ainsi que les phénomènes de déphasage de sollicitations, en conditions de laboratoire et in situ. L'instrumentation est basée sur l'utilisation de capteurs fluxmétriques qui est spécifique et innovante, elle est associée à des procédures de traitement des données, dans le domaine fréquentiel (impédance thermique), basées à la fois sur des modèles de comportement et des études de sensibilités aux différents paramètres induits par procédure expérimentale. Au-delà des objectifs réglementaires, il est nécessaire de pouvoir estimer l'influence de la mise en œuvre des composants des parois mais également l'évolution de leurs caractéristiques thermiques en fonction des sollicitations micro-climatiques (évolution de leur teneur en eau). La caractérisation est basée sur des mesures de laboratoire, dites "classiques", sur des échantillons de matériaux de petites dimensions (quelques dm²), mais également sur des parois reconstituées de dimensions moyennes (quelques m²). Enfin les résultats sont comparés à des mesures réalisées in situ sur des bâtiments existants pendant une année complète en fonction des saisons. / The research is relative to the diagnosis of building energy by developing tools and non destructive testing procedures based on heat transfer. The objective of this work is to study the thermal behavior of walls constituting the building envelope, namely to identify the main thermal characteristics (thermal conductivity, volumetric heat...) and the phenomena of phase stresses in laboratory and in situ conditions. The instrumentation is based on the use of heat flux sensor thaht is specific and innovative, it is associated with procedures for data processing in the frequency domain (thermal impedance), based both on models and studies sensitivities to different parameters induced by experimental procedure. Beyond the regulatory objectives, it is necessary to estimate the influence of the implementation of the components of the walls but also the evolution of their thermal characteristics depending on the micro-climate disturbance (changes in water content). The characterization is based on laboratory measurements, "classic" on samples of materials of small dimensions (few dm²), but also on walls reconstituted medium size (several square meters). Finally the results are compared with measurements made in situ on existing buildings for a full year with the seasons.
|
395 |
Méthodes d'optimisation pour l'analyse de processus invariants d'échelle / Optimization methods for the analysis of scale invariant processesFrécon, Jordan 11 October 2016 (has links)
L'invariance d'échelle repose sur l'intuition que les dynamiques temporelles ne sont pas gouvernées par une (ou quelques) échelle(s) caratéristique(s). Cette propriété est massivement utilisée dans la modélisation et l'analyse de données univariées issues d'applications réelles. Son utilisation pratique se heurte pourtant à deux difficultés dans les applications modernes : les propriétés d'invariance d'échelle ne sont plus nécessairement homogènes en temps ou espace ; le caractère multivarié des données rend fortement non linéaires et non convexes les fonctionnelles à minimiser pour l'estimation des paramètres d'invariance d'échelle. La première originalité de ce travail est d'envisager l'étude de l'invariance d'échelle inhomogène comme un problème conjoint de détection/segmentation et estimation et d'en proposer une formulation par minimisation de fonctionnelles vectorielles, construites autour de pénalisation par variation totale, afin d'estimer à la fois les frontières délimitant les changements et les propriétés d'invariance d'échelle de chaque région. La construction d'un algorithme de débruitage par variation totale vectorielle à la volée est proposée. La seconde originalité réside dans la conception d'une procédure de minimisation de fonctionnelle non convexe type « branch and bound » pour l'identification complète de l'extension bivariée, du mouvement brownien fractionnaire, considéré comme référence pour la modélisation de l'invariance d'échelle univariée. Cette procédure est mise en œuvre en pratique sur des données de trafic Internet dans le contexte de la détection d'anomalies. Dans un troisième temps, nous proposons des contributions spécifiques au débruitage par variation totale : modèle poissonnien d'attache aux données en relation avec un problème de détection d'états pour la fluorescence intermittente ; sélection automatique du paramètre de régularisation. / Scale invariance relies on the intuition that temporal dynamics are not driven by one (or a few) characteristic scale(s). This property is massively used in the modeling and analysis of univariate data stemming from real-world applications. However, its use in practice encounters two difficulties when dealing with modern applications: scaling properties are not necessarily homogenous in time or space ; the multivariate nature of data leads to the minimization of highly non-linear and non-convex functionals in order to estimate the scaling parameters.The first originality of this work is to investigate the study of non-homogenous scale invariance as a joint problem of detection/segmentation and estimation, and to propose its formulation by the minimization of vectorial functionals constructed around a total variation penalization, in order to estimate both the boundaries delimiting the changes and the scaling properties within each region.The second originality lies in the design of a branch and bound minimization procedure of non-convex functional for the full identification of the bivariate extension of fractional Brownian motion, considered as the reference for modeling univariate scale invariance. Such procedure is applied in practice on Internet traffic data in the context of anomaly detection.Thirdly, we propose some contributions specific to total variation denoising: Poisson data-fidelity model related to a state detection problem in intermittent fluorescence ; automatic selection of the regularization parameter.
|
396 |
Autopsy of a quantum electrical current / Autopsie d'un courant électrique quantiqueRoussel, Benjamin 15 December 2017 (has links)
Les expériences de physique quantique ont atteint un niveau de contrôle permettant de préparer avec précision l'état quantique de nombreux systèmes physiques. Cela a mené à la naissance de l'optique quantique électronique, un sujet émergent qui vise à préparer, manipuler et caractériser l'état de courants électriques contenant quelques excitations électroniques se propageant dans un conducteur quantique ballistique. Ceci est un défi conséquent qui se heurte à la difficulté de caractériser un état quantique à N corps.Le sujet de cette thèse sera le développement de méthodes de traitement du signal quantique permettant d'accéder à une connaissance partielle d'un tel état pour des courants électriques quantiques. Une première méthode consiste à les analyser à nombre d'excitations fixé au travers des cohérences électroniques. Pour cela, nous élaborons une analyse de la cohérence à un électron en termes d'atomes de signaux électroniques. En combinant cela au protocole de tomographie par interférometrie HOM, nous présentons la première autopsie, fonction d'onde par fonction d'onde, d'un courant électrique quantique.Une autre approche consiste à examiner des indicateurs sondant directement l'état à N corps. Nous étudions le rayonnement émis par un conducteur quantique ainsi que la décohérence électronique d'une excitation à un électron. Ensuite nous analysons la distribution de probabilité de la chaleur dissipée par un système quantique mésoscopique. Dans ce cadre, nous développons une théorie de l'effet Joule en régime quantique et à explorons comment celle-ci pourrait permettre de sonder l'état à N corps / Quantum physics experiments have reached a level of precision and control that allows quantum state engineering for many systems. This has led to the birth of electron quantum optics, an emerging field which aims at generating, manipulating and characterizing quantum electrical currents built from few-electron excitations propagating within ballistic quantum conductors. This is challenging since it is generically impossible in practice to fully characterize the many-body state of a beam containing indistinguishable electrons. The thesis presents new quantum signal processing approaches for accessing, at least partially, to the quantum many-body state of quantum electrical currents.A first approach is to access such a state at few-particle levels through electronic coherences. We will thus present a new representation of single-electron coherence in terms of electronic "atoms of signal". Combining this signal processing algorithm to HOM tomography enables us to present the first autopsy, wavefunction by wavefunction, of an experimental electrical quantum current. Another method is to look for indicators giving information directly at the many-body level. We will investigate the radiation emitted by a quantum conductor and address the problem of decoherence of a general single-electron excitation. Finally, we will look at the heat deposited by a mesoscopic quantum system, leading to a quantum version of Joule heating and discuss how it gives an insight on the many-body state of the electron fluid
|
397 |
Nouvelles méthodes de traitement de signaux multidimensionnels par décomposition suivant le théorème de Superposition de Kolmogorov / Novel processing methods for multidimensional signals using decompositions by the Kolmogorov superposition theoremLeni, Pierre-Emmanuel 23 November 2010 (has links)
Le traitement de signaux multidimensionnels reste un problème délicat lorsqu’il s’agit d’utiliser des méthodes conçues pour traiter des signaux monodimensionnels. Il faut alors étendre les méthodes monodimensionnelles à plusieurs dimensions, ce qui n’est pas toujours possible, ou bien convertir les signaux multidimensionnels en signaux 1D. Dans ce cas, l’objectif est de conserver le maximum des propriétés du signal original. Dans ce contexte, le théorème de superposition de Kolmogorov fournit un cadre théorique prometteur pour la conversion de signaux multidimensionnels. En effet, en 1957, Kolmogorov a démontré que toute fonction multivariée pouvait s’écrire comme sommes et compositions de fonctions monovariées. Notre travail s’est focalisé sur la décomposition d’images suivant le schéma proposé par le théorème de superposition, afin d’´etudier les applications possibles de cette d´ecomposition au traitement d’image. Pour cela, nous avons tout d’abord ´etudi´e la construction des fonctions monovari´ees. Ce probl`eme a fait l’objet de nombreuses ´etudes, et r´ecemment, deux algorithmes ont ´et´e propos´es. Sprecher a propos´e dans [Sprecher, 1996; Sprecher, 1997] un algorithme dans lequel il d´ecrit explicitement la m´ethode pour construire exactement les fonctions monovari´ees, tout en introduisant des notions fondamentales `a la compr´ehension du th´eor`eme. Par ailleurs, Igelnik et Parikh ont propos´e dans [Igelnik and Parikh, 2003; Igelnik, 2009] un algorithme pour approximer les fonctions monovariéees par un réseau de splines. Nous avons appliqué ces deux algorithmes à la décomposition d’images. Nous nous sommes ensuite focalisés sur l'étude de l’algorithme d’Igelnik, qui est plus facilement modifiable et offre une repréesentation analytique des fonctions, pour proposer deux applications originales répondant à des problématiques classiques de traitement de l’image : pour la compression : nous avons étudié la qualité de l’image reconstruite par un réseau de splines généré avec seulement une partie des pixels de l’image originale. Pour améliorer cette reconstruction, nous avons proposé d’effectuer cette décomposition sur des images de détails issues d’une transformée en ondelettes. Nous avons ensuite combiné cette méthode à JPEG 2000, et nous montrons que nous améliorons ainsi le schéma de compression JPEG 2000, même à bas bitrates. Pour la transmission progressive : en modifiant la génération du réseau de splines, l’image peut être décomposée en une seule fonction monovariée. Cette fonction peut être transmise progressivement, ce qui permet de reconstruire l’image en augmentant progressivement sa résolution. De plus, nous montrons qu’une telle transmission est résistante à la perte d’information. / The processing of multidimensional signal remains difficult when using monodimensional-based methods. Therefore, it is either required to extend monodimensional methods to several dimensions, which is not always possible, or to convert the multidimensional signals into 1D signals. In this case, the priority is to preserve most of the properties of the original signal. In this context, the Kolmogorov Superposition Theorem offers a promising theoretical framework for multidimensional signal conversion. In 1957, Kolmogorov demonstrated that any multivariate function can be written as sums and compositions of monovariate functions.We have focused on the image decomposition according to the superposition theorem scheme, to study the possible applications of this decomposition to image processing. We have first studied the monovariate function constructions. Various studies have dealt with this problem, and recently, two algorithms have been proposed. Sprecher has proposed in [Sprecher, 1996; Sprecher, 1997] an algorithm in which the method to exactly build the monovariate functions is described, as well as fundamental notions for the understanding of the theorem. Igelnik and Parikh have proposed in [Igelnik and Parikh, 2003; Igelnik, 2009] an algorithm to approximate the monovariate functions by a Spline network. We have applied both algorithms to image decomposition. We have chosen to use Igelnik’s algorithm which is easier to modify and provides an analytic representation of the functions, to propose two novel applications for classical problems in image processing : for compression : we have studied the quality of a reconstructed image using a spline network built with only a fraction of the pixels of the original image. To improve this reconstruction, we have proposed to apply this decomposition on images of details obtained by wavelet transform. We have then combined this method with JPEG 2000, and we show that the JPEG 2000 compression scheme is improved, even at low bitrates. For progressive transmission : by modifying the spline network construction, the image can be decomposed into one monovariate function. This function can be progressively transmitted, which allows to reconstruct the image by progressively increasing its resolution. Moreover, we show that such a transmission is resilient to information lost.
|
398 |
Contributions to active visual estimation and control of robotic systems / Contributions à la perception active et à la commande de systèmes robotiquesSpica, Riccardo 11 December 2015 (has links)
L'exécution d'une expérience scientifique est un processus qui nécessite une phase de préparation minutieuse et approfondie. Le but de cette phase est de s'assurer que l'expérience donne effectivement le plus de renseignements possibles sur le processus que l'on est en train d'observer, de manière à minimiser l'effort (en termes, par exemple, du nombre d'essais ou de la durée de chaque expérience) nécessaire pour parvenir à une conclusion digne de confiance. De manière similaire, la perception est un processus actif dans lequel l'agent percevant (que ce soit un humain, un animal ou un robot) fait de son mieux pour maximiser la quantité d'informations acquises sur l'environnement en utilisant ses capacités de détection et ses ressources limitées. Dans de nombreuses applications robotisées, l'état d'un robot peut être partiellement récupéré par ses capteurs embarqués. Des schémas d'estimation peuvent être exploités pour récupérer en ligne les «informations manquantes» et les fournir à des planificateurs/contrôleurs de mouvement, à la place des états réels non mesurables. Cependant, l'estimation doit souvent faire face aux relations non linéaires entre l'environnement et les mesures des capteurs qui font que la convergence et la précision de l'estimation sont fortement affectées par la trajectoire suivie par le robot/capteur. Par exemple, les techniques de commande basées sur la vision, telles que l'Asservissement Visuel Basé-Image (IBVS), exigent normalement une certaine connaissance de la structure 3-D de la scène qui ne peut pas être extraite directement à partir d'une seule image acquise par la caméra. On peut exploiter un processus d'estimation (“Structure from Motion - SfM”) pour reconstruire ces informations manquantes. Toutefois, les performances d'un estimateur SfM sont grandement affectées par la trajectoire suivie par la caméra pendant l'estimation, créant ainsi un fort couplage entre mouvement de la caméra (nécessaire pour, par exemple, réaliser une tâche visuelle) et performance/précision de l'estimation 3-D. À cet égard, une contribution de cette thèse est le développement d'une stratégie d'optimisation en ligne de trajectoire qui permet de maximiser le taux de convergence d'un estimateur SfM affectant (activement) le mouvement de la caméra. L'optimisation est basée sur des conditions classiques de persistance d'excitation utilisée en commande adaptative pour caractériser le conditionnement d'un problème d'estimation. Cette mesure est aussi fortement liée à la matrice d'information de Fisher employée dans le cadre d'estimation probabiliste à des fins similaires. Nous montrons aussi comment cette technique peut être couplé avec l'exécution simultanée d'une tâche d'asservissement visuel en utilisant des techniques de résolution et de maximisation de la redondance. Tous les résultats théoriques présentés dans cette thèse sont validés par une vaste campagne expérimentale en utilisant un robot manipulateur équipé d'une caméra embarquée. / As every scientist and engineer knows, running an experiment requires a careful and thorough planning phase. The goal of such a phase is to ensure that the experiment will give the scientist as much information as possible about the process that she/he is observing so as to minimize the experimental effort (in terms of, e.g., number of trials, duration of each experiment and so on) needed to reach a trustworthy conclusion. Similarly, perception is an active process in which the perceiving agent (be it a human, an animal or a robot) tries its best to maximize the amount of information acquired about the environment using its limited sensor capabilities and resources. In many sensor-based robot applications, the state of a robot can only be partially retrieved from his on-board sensors. State estimation schemes can be exploited for recovering online the “missing information” then fed to any planner/motion controller in place of the actual unmeasurable states. When considering non-trivial cases, however, state estimation must often cope with the nonlinear sensor mappings from the observed environment to the sensor space that make the estimation convergence and accuracy strongly affected by the particular trajectory followed by the robot/sensor. For instance, when relying on vision-based control techniques, such as Image-Based Visual Servoing (IBVS), some knowledge about the 3-D structure of the scene is needed for a correct execution of the task. However, this 3-D information cannot, in general, be extracted from a single camera image without additional assumptions on the scene. One can exploit a Structure from Motion (SfM) estimation process for reconstructing this missing 3-D information. However performance of any SfM estimator is known to be highly affected by the trajectory followed by the camera during the estimation process, thus creating a tight coupling between camera motion (needed to, e.g., realize a visual task) and performance/accuracy of the estimated 3-D structure. In this context, a main contribution of this thesis is the development of an online trajectory optimization strategy that allows maximization of the converge rate of a SfM estimator by (actively) affecting the camera motion. The optimization is based on the classical persistence of excitation condition used in the adaptive control literature to characterize the well-posedness of an estimation problem. This metric, however, is also strongly related to the Fisher information matrix employed in probabilistic estimation frameworks for similar purposes. We also show how this technique can be coupled with the concurrent execution of a IBVS task using appropriate redundancy resolution and maximization techniques. All of the theoretical results presented in this thesis are validated by an extensive experimental campaign run using a real robotic manipulator equipped with a camera in-hand.
|
399 |
Contrôle de santé des matériaux et structures par analyse de la coda ultrasonore / Contrôle de santé des matériaux et structures par analyse de la coda ultrasonoreZhang, Yuxiang 20 September 2013 (has links)
La coda ultrasonore présente une haute sensibilité aux perturbations du milieu de propagation. L'analyse de la coda par la Coda Wave Interferometry (CWI) permet d'évaluer précisément la variation de la vitesse de propagation (résolution en relatif de 0,001 %). Une telle évaluation peut être utilisée pour le contrôle non destructif (ECND) d’un matériau ou d'une structure.Un essai expérimental est présenté au début comme exemple d’utilisation de la CWI pour l’ECND du béton. Face aux problèmes inhérents au degré de précision de cet essai, nous présentons un protocole conçu pour améliorer la fiabilité des résultats CWI. Nous vérifions expérimenta vérifient que ce protocole peut améliorer la répétabilité de l’essai en réduisant les biais provenant des fluctuations de température ambiante et des procédures expérimentales. Avec ce protocole, une étude du comportement de béton sous un chargement uni-axial en traction directe a été effectuée en utilisant la CWI. Les comportements élastique (l’effet acoustoélastique) et anélastique (l’effet Kaiser) du béton sont observés via les résultats CWI. Un coefficient acoustoélastique effectif (Bêta) a été déterminé et utilisé pour la détection d’un endommagement léger du béton.La CWI est ensuite utilisée pour la détection globale de défauts dans un milieu initialement linéaire (verre) en observant la modulation non linéaire. L’apparition de ce phénomène non linéaire est due à la présence des défauts et détectée par la variation des résultats CWI en fonction de l’amplitude de l’onde de pompe. Nous montrons que cette méthode permet la détection des défauts et d’évaluation du niveau d’endommagement d’une manière globale sans zone aveugle. / With their long and complex propagation paths, coda waves can probe the propagation medium repeatedly and show a high sensitivity to the perturbations to the medium, i.e. variations in propagation velocity. Since such variations may indicate the modification of elastic properties and Coda Wave interferometry (CWI) can determine it precisely (relative resolution of 0.001%), CWI is considered a promising method for non destructive testing and evaluation (NDT&E). An experimental test is presented as an example of the CWI use on concrete for NDT&E purpose. For solving the experimental repeatability issue revealed in this test, a bias-control protocol is designed to reduce the experimental bias in CWI results. It is experimentally confirmed that this protocol can remarkably improve the reliability of CWI results and the experimental repeatability. Together with this bias-control protocol, the CWI is used to study the behaviors of concrete under uni-axial load in direct tension. Both elastic (acoustoealstic effect) and inelastic (Kaiser effect) behaviors are observed via CWI results. Effective value of acoustoelastic coefficient is then determined from CWI results and used for the detection of an early-stage damage that artificially induced to the concrete specimen. A defect-detection method of an initially linear medium (glass) is then developed by using the CWI. Due to the nonlinearity brought by the defects, acoustic mixing effect occurred, and the observation of such effect is the indication of damage. The use of a broadband pump wave and the CWI makes possible to 1) detect the damage globally without blind zone and 2) assess the damage level in an effective manner.
|
400 |
Classification partiellement supervisée par SVM : application à la détection d’événements en surveillance audio / Partially Supervised Classification Based on SVM : application to Audio Events Detection for SurveillanceLecomte, Sébastien 09 December 2013 (has links)
Cette thèse s’intéresse aux méthodes de classification par Machines à Vecteurs de Support (SVM) partiellement supervisées permettant la détection de nouveauté (One-Class SVM). Celles-ci ont été étudiées dans le but de réaliser la détection d’événements audio anormaux pour la surveillance d’infrastructures publiques, en particulier dans les transports. Dans ce contexte, l’hypothèse « ambiance normale » est relativement bien connue (même si les signaux correspondants peuvent être très non stationnaires). En revanche, tout signal « anormal » doit pouvoir être détecté et, si possible, regroupé avec les signaux de même nature. Ainsi, un système de référence s’appuyant sur une modélisation unique de l’ambiance normale est présenté, puis nous proposons d’utiliser plusieurs SVM de type One Class mis en concurrence. La masse de données à traiter a impliqué l’étude de solveurs adaptés à ces problèmes. Les algorithmes devant fonctionner en temps réel, nous avons également investi le terrain de l’algorithmie pour proposer des solveurs capables de démarrer à chaud. Par l’étude de ces solveurs, nous proposons une formulation unifiée des problèmes à une et deux classes, avec et sans biais. Les approches proposées ont été validées sur un ensemble de signaux réels. Par ailleurs, un démonstrateur intégrant la détection d’événements anormaux pour la surveillance de station de métro en temps réel a également été présenté dans le cadre du projet Européen VANAHEIM / This thesis addresses partially supervised Support Vector Machines for novelty detection (One-Class SVM). These have been studied to design abnormal audio events detection for supervision of public infrastructures, in particular public transportation systems. In this context, the null hypothesis (“normal” audio signals) is relatively well known (even though corresponding signals can be notably non stationary). Conversely, every “abnormal” signal should be detected and, if possible, clustered with similar signals. Thus, a reference system based on a single model of normal signals is presented, then we propose to use several concurrent One-Class SVM to cluster new data. Regarding the amount of data to process, special solvers have been studied. The proposed algorithms must be real time. This is the reason why we have also investigated algorithms with warm start capabilities. By the study of these algorithms, we have proposed a unified framework for One Class and Binary SVMs, with and without bias. The proposed approach has been validated on a database of real signals. The whole process applied to the monitoring of a subway station has been presented during the final review of the European Project VANAHEIM
|
Page generated in 0.0957 seconds