• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 365
  • 211
  • 190
  • Tagged with
  • 770
  • 770
  • 519
  • 397
  • 375
  • 349
  • 348
  • 335
  • 332
  • 314
  • 311
  • 301
  • 298
  • 93
  • 69
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
641

Theory and numerical integration of subsurface light transport

Milaenen, David 08 1900 (has links)
En synthèse d’images, reproduire les effets complexes de la lumière sur des matériaux transluminescents, tels que la cire, le marbre ou la peau, contribue grandement au réalisme d’une image. Malheureusement, ce réalisme supplémentaire est couteux en temps de calcul. Les modèles basés sur la théorie de la diffusion visent à réduire ce coût en simulant le comportement physique du transport de la lumière sous surfacique tout en imposant des contraintes de variation sur la lumière incidente et sortante. Une composante importante de ces modèles est leur application à évaluer hiérarchiquement l’intégrale numérique de l’illumination sur la surface d’un objet. Cette thèse révise en premier lieu la littérature actuelle sur la simulation réaliste de la transluminescence, avant d’investiguer plus en profondeur leur application et les extensions des modèles de diffusion en synthèse d’images. Ainsi, nous proposons et évaluons une nouvelle technique d’intégration numérique hiérarchique utilisant une nouvelle analyse fréquentielle de la lumière sortante et incidente pour adapter efficacement le taux d’échantillonnage pendant l’intégration. Nous appliquons cette théorie à plusieurs modèles qui correspondent à l’état de l’art en diffusion, octroyant une amélioration possible à leur efficacité et précision. / In image synthesis, reproducing the complex appearance of objects with subsurface light scattering, such as wax, marble and skin, greatly contributes to the realism of an image. Unfortunately, this added realism comes at a high computational cost. Models based on diffusion theory aim to reduce this computational cost by simulating the physical behaviour of subsurface light scattering while imposing smoothness constraints on the incident and outgoing light fields. An important component of these models is how they are employed to hierarchically evaluate the numerical integral of lighting over the surface of an object. This thesis will first review the existing literature on realistic subsurface lighting simulation, before investigating in more depth the application and extension of modern diffusion models in image synthesis. In doing so, we propose and evaluate a new hierarchical numerical integration technique that uses a novel frequency analysis of the incident and outgoing light fields to reliably adapt the sampling rate during integration. We realize our resulting theory in the context of several state-of-the-art diffusion models, providing a marked improvement in their efficiency and accuracy.
642

Propriétés optiques et caractérisation par photoréflectance de cellules solaires à base de couches minces CIGS électrodéposées

Moreau, Antonin 25 March 2013 (has links)
Dans le domaine des cellules photovoltaïques à base de couches minces, l'alliage de Cu(In1-x,Gax)Se2 (CIGSe) constitue l'une des filières les plus avancées. Le passage à l'échelle industrielle soulève cependant de nouvelles problématiques. En effet, si le procédé standard de co-évaporation permet d'atteindre des rendements records supérieurs à 20 %, il reste relativement couteux à mettre en place. C'est ainsi que dans un contexte toujours plus compétitif, l'électrodépôt apparait comme une alternative de choix pour diminuer les coûts de production tout en garantissant des rendements compétitifs sur de grandes surfaces. Néamoins, de nombreuses propriétés spécifiques à ce mode de dépôt restent méconnues. En particulier les propriétés optiques à l'origine du photo-courant. Le premier objectif de cette thèse est donc de déterminer les constantes optiques de chaque couche du dispositif par ellipsométrie. Une attention particulière est donnée à la couche absorbante de CIGSe électrodéposée pour laquelle un protocole spécifique est employé. Une seconde partie de la thèse est dédiée à la réalisation d'un outil de caractérisation sans contact : la photoréflectance (PR). La PR va permettre de mesurer avec précision les énergies de transition interbandes d'un semi-conducteur, dont l'énergie de gap. Nous décrivons dans le détail le dispositif expérimental. Une implémentation originale utilisant une double modulation des sources a été développée et permet de réduire le bruit de mesure induit par la rugosité et la diffusion. L'étude de 14 échantillons de CIGS permet finalement de corréler des paramètres opto-électriques issus des caractéristiques courant-tension aux spectres PR. / Regarding, thin film photovoltaic market, Cu(In1-x,Gax)Se2 (CIGSe) based material is one of the most advanced technologies. Its high absorption coefficient allows it to absorb an important part of the solar spectrum with only two micron thickness. But while moving from fundamental research to the development of batch flow production, issues still remain. If the standard co-evaporation process lead to the best efficiency up to 20 %, high energy consumption is needed. In an increasingly competitive market, electroplating allows to reduce operating cost related to vacuum processes while guaranteeing competitive efficiencies on large scale modules. Nevertheless, due to the specificities of electroplating, new issues occur and some properties may differ from vacuum routes. In particular, optical properties which are responsible for photo-current generation. The first part of this thesis is thus devoted to obtain the optical constants for each layer of the device by spectroscopic ellipsometry. We pay special attention to the electrodeposited CIGSe absorber layer for which a specific method have been used in order to perform measurements on the back side. The second part of this thesis is dedicated to the development of an caracterisation tool : the photoreflectance (PR). The experimental setup is precisely described. An special implementation, using dual modulation technique, increases accuracy by removing luminescence and scattering perturbations. The study of 14 CIGS samples allows finally to correlate opto-electrical parameters from I(V) curves with PR spectra.
643

Interprétation des signaux cérébraux pour l’autonomie des handicapés : Système de reconnaissance de mots imaginés / Cerebral signal processing for the autonomy of the handicapped : Imagery recognition system

Abdallah, Nassib 20 December 2018 (has links)
Les interfaces Cerveau Machine représentent une solution pour rétablir plusieurs fonctions comme le mouvement, la parole, etc. La construction de BCI se compose de quatre phases principales: "Collecte des données", "Prétraitement du signal", "Extraction et sélection de caractéristiques", "Classification". Dans ce rapport nous présentons un nouveau système de reconnaissance de mots imaginées basé sur une technique d’acquisition non invasive (EEG) et portable pour faciliter aux personnes ayant des handicaps spécifiques, leurs communications avec le monde extérieur. Cette thèse inclut un système nommé FEASR pour la construction d’une base de données pertinente et optimisée. Cette base a été testée avec plusieurs méthodes de classification pour obtenir un taux maximal de reconnaissance de 83.4% pour cinq mots imaginés en arabe. De plus, on discute de l’impact des algorithmes d’optimisations (Sélection des capteurs de Wernicke, Analyse en composante principale et sélection de sous bandes résultant de la décomposition en ondelette) sur les pourcentages de reconnaissance en fonction de la taille de notre base de données et de sa réduction. / The Brain Machine interfaces represent a solution to restore several human issues such as movement, speech, etc. The construction of BCI consists of four main phases: "Data Recording", "Signal preprocessing", "Extraction and Selection of Characteristics", and "Classification". In this report we present a new imagery recognition system based on a non-invasive (EEG) and portable acquisition technique to facilitate communication with the outside world for people with specific disabilities.This thesis includes a system called FEASR for the construction of a relevant and optimized database. This database has been tested with several classification methods to obtain a maximum recognition rate of 83.4% for five words imagined in Arabic. In addition, we discuss the impact of optimization algorithms (Wernicke sensor selection, principal component analysis algorithm and the selection of subbands resulting from the discrete wavelet transform decomposition) on recognition percentages according to the size of our database and its reduction.
644

Advanced Signal Processing Methods for GNSS Positioning with NLOS/Multipath Signals / Approches avancées de traitement de signal pour la navigation GNSS en présence des signaux multi-trajets ou sans ligne de vue directe (NLOS)

Kbayer, Nabil 09 October 2018 (has links)
Les avancées récentes dans le domaine de navigation par satellites (GNSS) ontconduit à une prolifération des applications de géolocalisation dans les milieux urbains. Pourde tels environnements, les applications GNSS souffrent d’une grande dégradation liée à laréception des signaux satellitaires en lignes indirectes (NLOS) et en multitrajets (MP). Cetravail de thèse propose une méthodologie originale pour l’utilisation constructive des signauxdégradés MP/NLOS, en appliquant des techniques avancées de traitement du signal ou àl’aide d’une assistance d’un simulateur 3D de propagation des signaux GNSS. D’abord, nousavons établi le niveau maximal réalisable sur la précision de positionnement par un systèmeGNSS "Stand-Alone" en présence de conditions MP/NLOS, en étudiant les bornes inférieuressur l’estimation en présence des signaux MP/NLOS. Pour mieux améliorer ce niveau deprécision, nous avons proposé de compenser les erreurs NLOS en utilisant un simulateur 3D dessignaux GNSS afin de prédire les biais MP/NLOS et de les intégrer comme des observationsdans l’estimation de la position, soit par correction des mesures dégradées ou par sélectiond’une position parmi une grille de positions candidates. L’application des approches proposéesdans un environnement urbain profond montre une bonne amélioration des performances depositionnement dans ces conditions. / Recent trends in Global Navigation Satellite System (GNSS) applications inurban environments have led to a proliferation of studies in this field that seek to mitigatethe adverse effect of non-line-of-sight (NLOS). For such harsh urban settings, this dissertationproposes an original methodology for constructive use of degraded MP/NLOS signals, insteadof their elimination, by applying advanced signal processing techniques or by using additionalinformation from a 3D GNSS simulator. First, we studied different signal processing frameworks,namely robust estimation and regularized estimation, to tackle this GNSS problemwithout using an external information. Then, we have established the maximum achievablelevel (lower bounds) of GNSS Stand-Alone positioning accuracy in presence of MP/NLOSconditions. To better enhance this accuracy level, we have proposed to compensate for theMP/NLOS errors using a 3D GNSS signal propagation simulator to predict the biases andintegrate them as observations in the estimation method. This could be either by correctingdegraded measurements or by scoring an array of candidate positions. Besides, new metricson the maximum acceptable errors on MP/NLOS errors predictions, using GNSS simulations,have been established. Experiment results using real GNSS data in a deep urban environmentshow that using these additional information provides good positioning performance enhancement,despite the intensive computational load of 3D GNSS simulation.
645

Analyse harmonique sur graphes dirigés et applications : de l'analyse de Fourier aux ondelettes / Harmonic Analysis on directed graphs and applications : From Fourier analysis to wavelets

Sevi, Harry 22 November 2018 (has links)
La recherche menée dans cette thèse a pour but de développer une analyse harmonique pour des fonctions définies sur les sommets d'un graphe orienté. À l'ère du déluge de données, de nombreuses données sont sous forme de graphes et données sur ce graphe. Afin d'analyser d'exploiter ces données de graphes, nous avons besoin de développer des méthodes mathématiques et numériquement efficientes. Ce développement a conduit à l'émergence d'un nouveau cadre théorique appelé le traitement de signal sur graphe dont le but est d'étendre les concepts fondamentaux du traitement de signal classique aux graphes. Inspirées par l'aspect multi échelle des graphes et données sur graphes, de nombreux constructions multi-échelles ont été proposé. Néanmoins, elles s'appliquent uniquement dans le cadre non orienté. L'extension d'une analyse harmonique sur graphe orienté bien que naturelle, s'avère complexe. Nous proposons donc une analyse harmonique en utilisant l'opérateur de marche aléatoire comme point de départ de notre cadre. Premièrement, nous proposons des bases de type Fourier formées des vecteurs propres de l'opérateur de marche aléatoire. De ces bases de Fourier, nous en déterminons une notion fréquentielle en analysant la variation de ses vecteurs propres. La détermination d'une analyse fréquentielle à partir de la base des vecteurs de l'opérateur de marche aléatoire nous amène aux constructions multi-échelles sur graphes orientés. Plus particulièrement, nous proposons une construction en trames d'ondelettes ainsi qu'une construction d'ondelettes décimées sur graphes orientés. Nous illustrons notre analyse harmonique par divers exemples afin d'en montrer l'efficience et la pertinence. / The research conducted in this thesis aims to develop a harmonic analysis for functions defined on the vertices of an oriented graph. In the era of data deluge, much data is in the form of graphs and data on this graph. In order to analyze and exploit this graph data, we need to develop mathematical and numerically efficient methods. This development has led to the emergence of a new theoretical framework called signal processing on graphs, which aims to extend the fundamental concepts of conventional signal processing to graphs. Inspired by the multi-scale aspect of graphs and graph data, many multi-scale constructions have been proposed. However, they apply only to the non-directed framework. The extension of a harmonic analysis on an oriented graph, although natural, is complex. We, therefore, propose a harmonic analysis using the random walk operator as the starting point for our framework. First, we propose Fourier-type bases formed by the eigenvectors of the random walk operator. From these Fourier bases, we determine a frequency notion by analyzing the variation of its eigenvectors. The determination of a frequency analysis from the basis of the vectors of the random walk operator leads us to multi-scale constructions on oriented graphs. More specifically, we propose a wavelet frame construction as well as a decimated wavelet construction on directed graphs. We illustrate our harmonic analysis with various examples to show its efficiency and relevance.
646

Nouvelle méthode de traitement des potentiels évoqués visuels pour l’estimation de l’acuité visuelle chez le jeune enfant / New signal processing method of visual evoked potentials for visual acuity assessment in infants

Cabon, Maelenn 27 April 2016 (has links)
L’examen PEV (Potentiel Évoqué Visuel) avec stimulation par balayage de fréquence spatiale est reconnu pour l’estimation de l’acuité visuelle (AV) chez le jeune enfant en raison de son objectivité et de sa faible durée d’examen. Néanmoins, plusieurs études ont souligné la variabilité des réponses et pour certains cas, des atténuations à certaines fréquences spatiales. Dans cette thèse, nous démontrons la relation entre la phase du signal et ces atténuations lorsque la transformée de Fourier à court terme (TFCT) est utilisée. Nous présentons une nouvelle méthode de traitement dusignal qui prend en compte les variations de phase, basée sur la transformée en ondelettes discrète stationnaire (TODS) pour le débruiter le signal et sur le filtre de Kalman étendu (FKE) pour l’estimer la réponse du système visuel. La nouvelle méthode est testée sur deux ensembles d’examens. Le premier provient du CHRU de Lille et le second de notre laboratoire. La TODS améliore le rapport signal sur bruit de 10.9 dB en moyenne (IC95 [6.3,15.6]) et réduit les artéfacts dus aux clignements et aux mouvements. Le FKE permet une estimation de la réponse du système visuel plus précise. Grâce à la prise en compte de la phase du signal, la forme de la réponse présente moins de variations. La dispersion entre les balayages est divisée par 1.4 en comparaison à la méthode actuelle. La corrélation entre l’AV ETDRS et l’estimation de l’acuité visuelle de la nouvelle méthode est meilleure (indice de Spearman=0.64, valeur-p=6 10-4, écart-type=0.34 logMAR) que celle de la méthode actuelle (indice de Spearman=0.57, valeur-p=1.1 10-3, écart type=0.45 logMAR). / Sweep VEP (visual evoked potentials) is known to be a valuable exam to estimate visual acuity (VA) in infants because of its objectivity and its rapidity. Nevertheless, several studies have pointed out the variability of the responses and sometimes attenuations at some spatial frequencies called “notches”. In this thesis, we demonstrate a relationship between the phase of the signal and these attenuations when the short-time discrete Fourier transform (STDFT) is used. We introduce a new method of signal processing which takes in account the phase shifting, based on stationary discrete wavelet transform (SDWT) for the denoising and on extended Kalman filtering (EKF) for the estimation of the visual system response. The new method is tested on two sets of exams. The first one comes from the CHRU of Lille and the second one from our laboratory. The SDWT improves the signal to noise ratio on average by 10.9 dB (CI95 [6.3,15.6]) and reduces artefacts caused by blinking or eyes movements. Thanks to the EKF, the estimation of the response of the visual system is more precise. By taking into account the phase of the signal, the shape of the reponse presentsless variations. The dispersion among the sweeps is divided by 1.4 compared to the DSTFT. The correlation between ETDRS VA and the VA estimation of the new method (Spearman’s correlation= 0.64, p-value=6 10-4, root mean squared error (RMSE)=0.34 logMAR) is better than that of the current method (Spearman’s correlation=0.58, p-value=1.1 10-3, RMSE=0.45 logMAR).
647

Trajectory generation and data fusion for control-oriented advanced driver assistance systems / Génération de trajectoires et fusion de données pour des systèmes de commande d'aide à la conduite avancés

Daniel, Jérémie 01 December 2010 (has links)
Depuis l'invention de l'automobile à la fin du 19eme siècle, la taille du parc ainsi que l'importance du trafic routier n'ont cessées d'augmenter. Ceci a malheureusement été suivi par l'augmentation constante du Nombre d'accidents routiers. Un grand nombre d'études et notamment un rapport fourni par l'Organisation Mondiale de la Santé, a présenté un état alarmant du nombre de blessés et de décès liés aux accidents routiers. Afin de réduire ces chiffres, une solution réside dans le Développement de systèmes d'aide à la conduite qui ont pour but d'assister le conducteur dans sa tâche de conduite. La recherche dans le domaine des aides à la conduite s'est montrée très dynamique et productive durant les vingt dernières années puisque des systèmes tels que l'antiblocage de sécurité (ABS), le programme de stabilité électronique (ESP), le régulateur de vitesse intelligent (ACC), l'assistant aux manœuvres de parking (PMA), les phares orientables (DBL), etc. sont maintenant commercialisés et acceptés par la majorité des conducteurs. Cependant, si ces systèmes ont permis d'améliorer la sécurité des conducteurs, de nombreuses pistes sont encore à explorer. En effet, les systèmes d'aide à la conduite existants ont un comportement microscopique, en d'autres termes ils se focalisent uniquement sur la tâche qu'ils ont à effectuer. Partant du principe que la collaboration entre toutes ces aides à la conduite est plus efficace que leur utilisation en parallèle, une approche globale d'aide à la conduite devient nécessaire. Ceci se traduit par la nécessité de développer une nouvelle génération d'aide à la conduite, prenant en compte d'avantage d'informations et de contraintes liées au véhicule, au conducteur et à son environnement. [...] / Since the origin of the automotive at the end of the 19th century, the traffic flow is subject to a constant increase and, unfortunately, involves a constant augmentation of road accidents. Research studies such as the one performed by the World Health Organization, show alarming results about the number of injuries and fatalities due to these accidents. To reduce these figures, a solution lies in the development of Advanced Driver Assistance Systems (ADAS) which purpose is to help the Driver in his driving task. This research topic has been shown to be very dynamic and productive during the last decades. Indeed, several systems such as Anti-lock Braking System (ABS), Electronic Stability Program (ESP), Adaptive Cruise Control (ACC), Parking Manoeuvre Assistant (PMA), Dynamic Bending Light (DBL), etc. are yet market available and their benefits are now recognized by most of the drivers. This first generation of ADAS are usually designed to perform a specific task in the Controller/Vehicle/Environment framework and thus requires only microscopic information, so requires sensors which are only giving local information about an element of the Vehicle or of its Environment. On the opposite, the next ADAS generation will have to consider more aspects, i.e. information and constraints about of the Vehicle and its Environment. Indeed, as they are designed to perform more complex tasks, they need a global view about the road context and the Vehicle configuration. For example, longitudinal control requires information about the road configuration (straight line, bend, etc.) and about the eventual presence of other road users (vehicles, trucks, etc.) to determine the best reference speed. [...]
648

Propriétés de moyennage d'ensemble des signaux acoustiques en milieu réverbérant et applications potentielles au contrôle et à la caractérisation des structures. / Ensemble-averaging properties of acoustic signals in reverberant media and potential applications to control and characterization of structures

Achdjian, Hossep 05 December 2014 (has links)
La propagation des ondes acoustiques ou élastiques dans un milieu fini à faible atténuation se traduit par des signaux mesurés de longue durée (réverbération). Dans les techniques de contrôle non destructif et imagerie conventionnelles, seuls les premiers paquets d’ondes sont ordinairement exploités et l’information potentiellement contenue dans les codas de réverbération est alors perdue. Le travail présenté dans cette thèse a pour objectif d’exploiter le comportement d’ensemble des codas enregistrées dans des structures de type plaques, afin d’extraire le maximum d’information à partir d’un nombre limité de capteurs et traitement simple. Nous avons développé des modèles statistiques permettant de prévoir le comportement des ondes acoustiques réverbérantes dans une plaque (sous la forme de moyennes d’ensemble), à partir d’un ensemble limité de paramètres accessibles expérimentalement. Ainsi, il est montré que les moyennes des enveloppes, des corrélations ou de l’intégrale dite de Schroeder des signaux de réverbération reçus par quelques points contiennent des informations potentiellement utiles sur les propriétés structurelles du milieu, des sources ou des défauts. Après une validation numérique et expérimentale des modèles, des applications potentielles sont présentées telles que l’estimation de propriétés structurelles d’une plaque ou la localisation d’une source. La particularité de ces estimations est qu’elles ne nécessitent pas de mesure de temps, ni de synchronisation entre les capteurs, ce qui pourrait autoriser une implémentation avec peu de ressources embarquées. Ce type de méthode pourrait également être utilisé pour caractériser un défaut dans une structure réverbérante, de façon éventuellement complémentaire aux techniques classiques de CND et contrôle-santé de structures. / The propagation of acoustic and elastic waves in a finite media with low attenuation leads to measured signals of long durations (reverberation). In conventional techniques for non-destructive testing and imaging, only the first wave packets are usually exploited, and the information potentially contained in reverberation codas is lost. The work presented in this thesis aims to exploit the overall behavior of codas recorded in plate-like structures, in order to extract the maximum information from a limited number of sensors and simple processing. We have developed statistical models to predict the behavior of reverberant acoustic waves in a plate (in the form of ensemble-averages), from a limited set of experimentally accessible parameters. Thus, it is shown that theoretical expressions for the mathematical expectations of the envelopes, the correlation functions or the so-called Schroeder’s integral of reverberant signals received at some points contain potentially useful information about the structural properties of the medium, the sources or the defects. After numerical and experimental validation, potential applications are presented, such as the estimate of structural properties of a plate or source location. In addition, these techniques do not require any time measurement or even trigger synchronization between the input channels of instrumentation, thus implying low hardware constraints. Such methods could also be used to characterize a defect in a reverberant structure and can be considered as complementary to conventional NDT techniques and structural health monitoring.
649

Echantillonnage compressif appliqué à la microscopie de fluorescence et à la microscopie de super résolution / Compressive fluorescence microscopy for biological imaging and super resolution microscopy.

Chahid, Makhlad 19 December 2014 (has links)
Mes travaux de thèse portent sur l’application de la théorie de l’échantillonnagecompressif (Compressed Sensing ou Compressive Sampling, CS) à la microscopie defluorescence, domaine en constante évolution et outil privilégié de la recherche fondamentaleen biologie. La récente théorie du CS a démontré que pour des signauxparticuliers, dits parcimonieux, il est possible de réduire la fréquence d’échantillonnagede l’information à une valeur bien plus faible que ne le prédit la théorie classiquede l’échantillonnage. La théorie du CS stipule qu’il est possible de reconstruireun signal, sans perte d’information, à partir de mesures aléatoires fortement incomplèteset/ou corrompues de ce signal à la seule condition que celui-ci présente unestructure parcimonieuse.Nous avons développé une approche expérimentale inédite de la théorie du CSà la microscopie de fluorescence, domaine où les signaux sont naturellement parcimonieux.La méthode est basée sur l’association d’une illumination dynamiquestructurée à champs large et d’une détection rapide à point unique. Cette modalitépermet d’inclure l’étape de compression pendant l’acquisition. En outre, nous avonsmontré que l’introduction de dimensions supplémentaires (2D+couleur) augmentela redondance du signal, qui peut être pleinement exploitée par le CS afin d’atteindredes taux de compression très importants.Dans la continuité de ces travaux, nous nous sommes intéressés à une autre applicationdu CS à la microscopie de super résolution, par localisation de moléculesindividuelles (PALM/STORM). Ces nouvelles techniques de microscopie de fluorescenceont permis de s’affranchir de la limite de diffraction pour atteindre des résolutionsnanométriques. Nous avons exploré la possibilité d’exploiter le CS pour réduiredrastiquement les temps d’acquisition et de traitement.Mots clefs : échantillonnage compressif, microscopie de fluorescence, parcimonie,microscopie de super résolution, redondance, traitement du signal, localisation demolécules uniques, bio-imagerie / My PhD work deals with the application of Compressed Sensing (or CompressiveSampling, CS) in fluorescence microscopy as a powerful toolkit for fundamental biologicalresearch. The recent mathematical theory of CS has demonstrated that, for aparticular type of signal, called sparse, it is possible to reduce the sampling frequencyto rates well below that which the sampling theorem classically requires. Its centralresult states it is possible to losslessly reconstruct a signal from highly incompleteand/or inaccurate measurements if the original signal possesses a sparse representation.We developed a unique experimental approach of a CS implementation in fluorescencemicroscopy, where most signals are naturally sparse. Our CS microscopecombines dynamic structured wide-field illumination with fast and sensitive singlepointfluorescence detection. In this scheme, the compression is directly integratedin the measurement process. Additionally, we showed that introducing extra dimensions(2D+color) results in extreme redundancy that is fully exploited by CS to greatlyincrease compression ratios.The second purpose of this thesis is another appealing application of CS forsuper-resolution microscopy using single molecule localization techniques (e.g.PALM/STORM). This new powerful tool has allowed to break the diffraction barrierdown to nanometric resolutions. We explored the possibility of using CS to drasticallyreduce acquisition and processing times.
650

Algorithmes pour la diagonalisation conjointe de tenseurs sans contrainte unitaire. Application à la séparation MIMO de sources de télécommunications numériques / Algorithms for non-unitary joint diagonalization of tensors. Application to MIMO source separation in digital telecommunications

Maurandi, Victor 30 November 2015 (has links)
Cette thèse développe des méthodes de diagonalisation conjointe de matrices et de tenseurs d’ordre trois, et son application à la séparation MIMO de sources de télécommunications numériques. Après un état, les motivations et objectifs de la thèse sont présentés. Les problèmes de la diagonalisation conjointe et de la séparation de sources sont définis et un lien entre ces deux domaines est établi. Par la suite, plusieurs algorithmes itératifs de type Jacobi reposant sur une paramétrisation LU sont développés. Pour chacun des algorithmes, on propose de déterminer les matrices permettant de diagonaliser l’ensemble considéré par l’optimisation d’un critère inverse. On envisage la minimisation du critère selon deux approches : la première, de manière directe, et la seconde, en supposant que les éléments de l’ensemble considéré sont quasiment diagonaux. En ce qui concerne l’estimation des différents paramètres du problème, deux stratégies sont mises en œuvre : l’une consistant à estimer tous les paramètres indépendamment et l’autre reposant sur l’estimation indépendante de couples de paramètres spécifiquement choisis. Ainsi, nous proposons trois algorithmes pour la diagonalisation conjointe de matrices complexes symétriques ou hermitiennes et deux algorithmes pour la diagonalisation conjointe d’ensembles de tenseurs symétriques ou non-symétriques ou admettant une décomposition INDSCAL. Nous montrons aussi le lien existant entre la diagonalisation conjointe de tenseurs d’ordre trois et la décomposition canonique polyadique d’un tenseur d’ordre quatre, puis nous comparons les algorithmes développés à différentes méthodes de la littérature. Le bon comportement des algorithmes proposés est illustré au moyen de simulations numériques. Puis, ils sont validés dans le cadre de la séparation de sources de télécommunications numériques. / This thesis develops joint diagonalization of matrices and third-order tensors methods for MIMO source separation in the field of digital telecommunications. After a state of the art, the motivations and the objectives are presented. Then the joint diagonalisation and the blind source separation issues are defined and a link between both fields is established. Thereafter, five Jacobi-like iterative algorithms based on an LU parameterization are developed. For each of them, we propose to derive the diagonalization matrix by optimizing an inverse criterion. Two ways are investigated : minimizing the criterion in a direct way or assuming that the elements from the considered set are almost diagonal. Regarding the parameters derivation, two strategies are implemented : one consists in estimating each parameter independently, the other consists in the independent derivation of couple of well-chosen parameters. Hence, we propose three algorithms for the joint diagonalization of symmetric complex matrices or hermitian ones. The first one relies on searching for the roots of the criterion derivative, the second one relies on a minor eigenvector research and the last one relies on a gradient descent method enhanced by computation of the optimal adaptation step. In the framework of joint diagonalization of symmetric, INDSCAL or non symmetric third-order tensors, we have developed two algorithms. For each of them, the parameters derivation is done by computing the roots of the considered criterion derivative. We also show the link between the joint diagonalization of a third-order tensor set and the canonical polyadic decomposition of a fourth-order tensor. We confront both methods through numerical simulations. The good behavior of the proposed algorithms is illustrated by means of computing simulations. Finally, they are applied to the source separation of digital telecommunication signals.

Page generated in 0.0702 seconds