Spelling suggestions: "subject:"traitement dde designal"" "subject:"traitement dde absignal""
691 |
Exploration architecturale pour le décodage de codes polaires / Hardware architecture exploration for the decoding of Polar CodesBerhault, Guillaume 09 October 2015 (has links)
Les applications dans le domaine des communications numériques deviennent de plus en plus complexes et diversifiées. En témoigne la nécessité de corriger les erreurs des messages transmis. Pour répondre à cette problématique, des codes correcteurs d’erreurs sont utilisés. En particulier, les Codes Polaires qui font l’objet de cette thèse. Ils ont été découverts récemment (2008) par Arıkan. Ils sont considérés comme une découverte importante dans le domaine des codes correcteurs d’erreurs. Leur aspect pratique va de paire avec la capacité à proposer une implémentation matérielle de décodeur. Le sujet de cette thèse porte sur l’exploration architecturale de décodeurs de Codes Polaires implémentant des algorithmes de décodage particuliers. Ainsi, le sujet gravite autour de deux algorithmes de décodage : un premier algorithme de décodage à décisions dures et un autre algorithme de décodage à décisions souples.Le premier algorithme de décodage, à décisions dures, traité dans cette thèse repose sur l’algorithme par annulation successive (SC) comme proposé originellement. L’analyse des implémentations de décodeurs montre que l’unité de calcul des sommes partielles est complexe. De plus,la quantité mémoire ressort de cette analyse comme étant un point limitant de l’implémentation de décodeurs de taille importante. Les recherches menées afin de palier ces problèmes montrent qu’une architecture de mise à jour des sommes partielles à base de registres à décalages permet de réduire la complexité de cette unité. Nous avons également proposé une nouvelle méthodologie permettant de revoir la conception d’une architecture de décodeur déjà existante de manière relativement simple afin de réduire le besoin en mémoire. Des synthèses en technologie ASIC et sur cibles FPGA ont été effectués pour caractériser ces contributions. Le second algorithme de décodage, à décisions souples, traité dans ce mémoire, est l’algorithme SCAN. L’étude de l’état de l’art montre que le seul autre algorithme à décisions souples implémenté est l’algorithme BP. Cependant, il nécessite une cinquantaine d’itérations pour obtenir des performances de décodages au niveau de l’algorithme SC. De plus, son besoin mémoire le rend non implémentable pour des tailles de codes élevées. L’intérêt de l’algorithme SCAN réside dans ses performances qui sont meilleures que celles de l’algorithme BP avec seulement 2 itérations.De plus, sa plus faible empreinte mémoire le rend plus pratique et permet l’implémentation de décodeurs plus grands. Nous proposons dans cette thèse une première implémentation de cetalgorithme sur cibles FPGA. Des synthèses sur cibles FPGA ont été effectuées pour pouvoir comparer le décodeur SCAN avec les décodeurs BP de l’état de l’art.Les contributions proposées dans cette thèse ont permis d’apporter une réduction de la complexité matérielle du calcul des sommes partielles ainsi que du besoin général du décodeur en éléments de mémorisation. Le décodeur SCAN peut être utilisé dans la chaîne de communication avec d’autres blocs nécessitant des entrées souples. Cela permet alors d’ouvrir le champ d’applications des Codes Polaires à ces blocs. / Applications in the field of digital communications are becoming increasingly complex and diversified. Hence, the need to correct the transmitted message mistakes becomes an issue to be dealt with. To address this problem, error correcting codes are used. In particular, Polar Codes that are the subject of this thesis. They have recently been discovered (2008) by Arikan. They are considered an important discovery in the field of error correcting codes. Their practicality goes hand in hand with the ability to propose a hardware implementation of a decoder. The subject of this thesis focuses on the architectural exploration of Polar Code decoders implementing particular decoding algorithms. Thus, the subject revolves around two decoding algorithms: a first decoding algorithm, returning hard decisions, and another decoding algorithm, returning soft decisions.The first decoding algorithm, treated in this thesis, is based on the hard decision algorithm called "successive cancellation" (SC) as originally proposed. Analysis of implementations of SC decoders shows that the partial sum computation unit is complex. Moreover, the memory amount from this analysis limits the implementation of large decoders. Research conducted in order to solve these problems presents an original architecture, based on shift registers, to compute the partial sums. This architecture allows to reduce the complexity and increase the maximum working frequency of this unit. We also proposed a new methodology to redesign an existing decoder architecture, relatively simply, to reduce memory requirements. ASIC and FPGA syntheses were performed to characterize these contributions.The second decoding algorithm treated in this thesis is the soft decision algorithm called SCAN. The study of the state of the art shows that the only other implemented soft decision algorithm is the BP algorithm. However, it requires about fifty iterations to obtain the decoding performances of the SC algorithm. In addition, its memory requirements make it not implementable for huge code sizes. The interest of the SCAN algorithm lies in its performances which are better than those of the BP algorithm with only two iterations. In addition, its lower memory footprint makes it more convenient and allows the implementation of larger decoders. We propose in this thesis a first implementation of this algorithm on FPGA targets. FPGA syntheses were carried out in order to compare the SCAN decoder with BP decoders in the state of the art.The contributions proposed in this thesis allowed to bring a complexity reduction of the partial sum computation unit. Moreover, the amount of memory required by an SC decoder has been decreased. At last, a SCAN decoder has been proposed and can be used in the communication field with other blocks requiring soft inputs. This then broadens the application field of Polar Codes.
|
692 |
Spectrométrie de masse COINTOF : Conception et d'un analyseur à temps de vol et développement de la méthode d'analyse / COINTOF mass spectrometry : design of time-of-flight analyzer and development of the analysis methodTeyssier, Cécile 28 September 2012 (has links)
Le Dispositif d'Irradiation d'Agrégats Moléculaires (DIAM) est conçu pour l'étude de mécanismes de dissociation résultant de l'interaction de nanosystèmes moléculaires avec des protons de 20-150 keV. Une technique originale de spectrométrie de masse appelée COINTOF (Correlated Ion and Neutral Time Of Flight) permet la mesure corrélée du temps de vol des fragments neutres et chargés issus de la dissociation d'un système moléculaire sélectionné en masse. Une stratégie de traitement des signaux a été développée afin de pouvoir distinguer des fragments proches en temps (< 1ns). Les données collectées sont structurées dans le logiciel ROOT® pour l'analyse statistique des corrélations. Le fonctionnement de la technique COINTOF est illustré par des expériences de dissociation induite par collision d'agrégats d'eau protonés sur une cible gazeuse. La méthodologie d'analyse des données est exposée à travers l'étude du canal de dissociation du trimère d'eau protoné produisant l'ion chargé H3O+ et deux molécules d'eau. La distribution de la différence de temps de vol entre les deux fragments neutres est mesurée, mettant en évidence une énergie libérée de quelques eV. En parallèle, un second spectromètre de masse à temps de vol adapté à l'évolution du dispositif a été développé. Il associe un temps de vol linéaire et un temps de vol orthogonal et intègre un détecteur à position (ligne à retard). Des simulations ont démontré les potentialités du nouvel analyseur. Enfin, des travaux ont été menés au laboratoire R.-J. A. Lévesque (Université de Montréal) portant sur les capacités d'imagerie de détecteurs à position multi-pixel de la collaboration MPX-ATLAS. / DIAM (Dispositif d'Irradiation d'Agrégats Moléculaires) is a n ewly designed experimental setup to investigate processes resulting from the irradaition of molecular nano-systems by 20-150 keV protrons. One of its specificities relies on the original techique of mass spectrometry named COINTOF (Correlated Ion and Neutral Time of Flight) consisting in correlated measurments of the time of fkight of charged and neutral fragments produced by the dissociation of a single molecular ion parent. A strategy of treatment and analysis of the detection signals was developed to distinguish two fragments close in time (<1ns). The collected data are structured in the software ROOT for the statistical analysis of the correlations. The COINTOF technique is illustrated in the case of collision induced dissociation of protonated water clusters on atomic targets. The methodology of the analysis is explained through the study of dissociation channel of the protonated water trimer producing the charged fragment H3O+ and two water molecules. The distribution of the time of flight difference between the two neutral fragments is measured providing a,n estimate of the kinetic energy release of a few eV. In parallel, a second time-of-flight mass spectrometer was designed. It associated a linear time-of-flight and an orthogonal time-of-flight and integrates position detectors (delay line anode). Simulations demonstrate the potentials of the new analyzer. Finally, research works were led at the laboratory R.-J. A. Lévesque (Université de Montréal) on the imaging capabilities of the multi-pixel detectors of the MPX-ATLAS collaboration.
|
693 |
Détection d'un défaut localisé dans un multiplicateur d'éolienne : approche par analyse des grandeurs électromécaniques / Detection of located fault in a wind turbine gearbox : analysis of electromechanical quantities approachMasmoudi, Mohamed Lamine 10 April 2015 (has links)
Le travail présenté dans ce mémoire a été effectué dans le cadre du projet FEDER ”Maintenance prédictive des éoliennes et maîtrise des impacts environnementaux”. Un des objectifs du projet a été de développer, dans le Poitou-Charentes, des compétences dans le domaine de l’éolien en lien avec les activités des laboratoires LIAS et LaSIE. Pour le LIAS, il a été décidé de lancer une nouvelle activité de recherche sur le diagnostic de défauts mécaniques. Le cadre du projet concernant l’éolien, les défauts localisés dans les multiplicateurs ont été privilégiés. Par ailleurs, nous avons restreint l’étude au régime stationnaire afin de simplifier l’apprentissage des différents phénomènes mis en jeu et des techniques de traitement du signal utilisées. Dans une première partie, nous avons étudié les signatures de défaut sur les signaux vibratoires. Cette phase a été facilitée par l’utilisation des données expérimentales mise à disposition par le Bearing Data Center de la Case Western Reserve - University de Cleveland. Parmi les méthodes de traitement de signal utilisées, nous avons opté pour l’analyse d’enveloppe mise en oeuvre dans les techniques de type Time Synchronous Analysis (TSA). A cette occasion, nous avons défini une procédure complète de détection de défaut que nous avons conservée tout au long de cette étude en appliquant une technique d’identification de type PNL qui nous a permis d’obtenir des résultats comparables à des méthodes haute résolution de type ESPRIT. Par la suite, nous nous sommes recentrés sur l’application éolienne en réalisant un banc d’essai original permettant d’émuler un défaut au niveau de l’accouplement de deux machines électriques. L’idée principale a été de recenser l’ensemble des signaux exploitables dans le cadre de la détection du défaut émulé et de fournir une classification entre les courants électriques, le couple mécanique et la vitesse des machines. Par ailleurs, un comparatif entre signaux mesurés et signaux estimés a été présenté. Il en ressort qu’il est possible d’obtenir un signal observé plus riche que la mesure directe en terme de composantes spectrales liées au défaut. Cette amélioration est rendue possible par une synthèse adéquate des gains d’observation qui a été obtenue après linéarisation de l’observateur étudié. En marge de l’application éolienne, le cas d’un moteur commandé vectoriellement a été abordé. L’idée a été d’exploiter les performances de la boucle de vitesse afin d’amplifier les composantes recherchées dans les courants électriques. L’ensemble de ces pistes de recherches a été testé en simulation et expérimentalement. / The work presented in this thesis was carried out under the FEDER project ”Maintenance prédictive des éoliennes et maîtrise des impacts environnementaux”. One of the project objectives was to develop, in Poitou-Charentes, expertise in the field of wind power in connection with the activities of LIAS and LaSIE laboratories. For LIAS, it was decided to launch a new research activity on the diagnosis of mechanical faults. The localized defects in gearbox were privileged. Furthermore, we restricted the study to the stationary system to simplify the learning of different phenomena involved and signal processing techniques. In the first part, we studied the fault signatures on the vibration signals. This phase was facilitated by the use of experimental data available from the Bearing Data Center of the Case Western Reserve - Cleveland University. Among the signal processing methods, we opted for envelope analysis implemented in the Synchronous Time Averaging (TSA). On this occasion, we defined a comprehensive fault detection procedure that we have maintained throughout this study by applying a NLP identification technique where we obtained similar results compared to high-resolution methods as ESPRIT. There after, we refocused on wind power applications by making an original test bench capable of emulating a fault in the coupling of two electrical machines. The main idea was to identify all usable signals in the context of emulated fault detection and to provide a classification between electric currents, mechanical torque and speed of the machines. Moreover, a comparison between measured signals and estimated ones was discussed. It shows that it is possible to get an observed signal richer than direct signal measurement in terms of spectral components related to the defect. This improvement is made possible by an appropriate synthesis of gains observer which was obtained after linearization of the studied observer. In the margin of wind application, the case of a motor controlled by vector was also discussed. The idea was to exploit the speed loop performance to amplify the fault components in electrical currents. All these researches have been tested in simulation and experimentally.
|
694 |
Modulation formats and digital signal processing for fiber-optic communications with coherent detectionFickers, Jessica 12 September 2014 (has links)
A débit de données élevé, typiquement supérieur à 10 Gsymboles/s, les lignes de<p>télécommunication optique à fibre monomode souffrent de façon accrue des distorsions<p>inhérentes à la fibre et à l’architecture de transmission. Nous pouvons classer les<p>effets de fibre en plusieurs catégories:<p>– Les effets linéaires. La dispersion chromatique est entraînée par la dépendance en<p>fréquence de l’indice de réfraction de la fibre. Il en résulte un élargissement des<p>bits optiques. La dispersion des modes de polarisation prend son origine dans<p>la biréfringence de la fibre. La modélisation de cet effet est compliquée par son<p>caractère stochastique et variable dans le temps.<p>– Les effets non linéaires prennent leur origine dans un indice de réfraction de<p>fibre qui dépend du champ optique. Ces effets peuvent être classés en deux<p>catégories. Premièrement, les effets intérieurs à un canal dont le plus influant<p>est l’automodulation de phase qui découle de l’effet Kerr optique :l’intensité<p>d’une impulsion lumineuse influence sa propre propagation. Deuxièmement, il<p>existe des conséquences de l’effet Kerr par lesquelles les différents canaux, se<p>propageant au sein de la même fibre, s’influencent mutuellement. Le phénomène<p>le plus influent parmi ces derniers est la modulation de phase croisée :l’intensité<p>d’un canal influence la propagation dans un canal voisin.<p>– Les pertes par diffusion Rayleigh sont compensées par les amplificateurs distribués<p>le long de la ligne de transmission. L’amplification optique par l’intermédiaire<p>d’émission stimulée dans des dispositifs dopés aux ions Erbium est<p>accompagnée d’émission spontanée amplifiée. Ceci entraîne la présence d’un<p>bruit blanc gaussien se superposant au signal à transmettre.<p>– La gestion des canaux dans le réseau optique implique la présence dans les noeuds<p>du réseau de filtres de sélection, des multiplexeurs et démultiplexeurs.<p>Nous examinerons aussi les effets de ligne non inhérents à la fibre mais à l’architecture<p>de transmission. Les modèles de l’émetteur et du récepteur représentent les imperfections<p>d’implémentation des composants optiques et électroniques.<p>Un premier objectif est de définir et évaluer un format de modulation robuste aux<p>imperfections introduites sur le signal par la fibre optique et par l’émetteur/récepteur.<p>Deux caractéristiques fondamentales du format de modulation, determinants pour la<p>performance du système, sont étudiés dans ce travail :<p>– La forme d’ onde. Les symboles complexes d’information sont mis en forme par<p>un filtre passe-bas dont le profil influence la robustesse du signal vis-à-vis des<p>effets de ligne.<p>– La distribution des fréquences porteuses. Les canaux de communication sont<p>disposés sur une grille fréquentielle qui peut être définie de manière électronique<p>par traitement de signal, de manière optique ou dans une configuration hybride.<p>Lorsque des porteuses optiques sont utilisées, le bruit de phase relatif entre lasers<p>entraîne des effets d’ influence croisée entre canaux. En revanche, les limites des<p>implémentations électroniques sont données par la puissance des architectures<p>numériques.<p>Le deuxième objectif est de concevoir des techniques de traitement numérique du<p>signal implémentées après échantillonnage au récepteur afin de retrouver l’information<p>transmise. Les fonctions suivantes seront implémentées au récepteur :<p>– Les techniques d’estimation et d’égalisation des effets linéaires introduits par la<p>fibre optique et par l’émetteur et le récepteur. Le principe de l’égalisation dans<p>le domaine fréquentiel est de transformer le canal convolutif dans le domaine<p>temporel en un canal multiplicatif qui peut dès lors être compensé à une faible<p>complexité de calcul par des multiplications scalaires. Les blocs de symboles<p>émis doivent être rendus cycliques par l’ajout de redondance sous la forme d’un<p>préfixe cyclique ou d’une séquence d’apprentissage. Les techniques d’égalisation<p>seront comparées en termes de performance (taux d’erreurs binaires, efficacité<p>spectrale) et en termes de complexité de calcul. Ce dernier aspect est particulièrement<p>crucial en vue de l’optimisation de la consommation énergétique du<p>système conçu.<p>– Les techniques de synchronisation des signaux en temps/fréquence. Avant de<p>pouvoir égaliser les effets linéaires introduits dans la fibre, le signal reçu devra<p>être synchronisé en temps et en fréquence sur le signal envoyé. La synchronisation<p>est généralement accomplie en deux étapes principales :l’acquisition réalisée<p>avant de recevoir les symboles d’information don’t l’objectif est une première<p>estimation/compensation des effets de manière "grossière", le tracking réalisé en<p>parallèle à l’estimation des symboles d’information dont l’objectif est l’estimation<p>/compensation des effets de manière "fine". Les algorithmes d’acquisition et<p>de tracking peuvent nécessiter l’envoi d’informations connues du récepteur.<p>– Les techniques d’estimation et de compensation des imperfections de fonctionnement<p>de l’émetteur et du récepteur. Une structure de compensation des effets<p>introduits par les composants optiques et électroniques sera développée afin de<p>relâcher les contraintes d’implémentation de l’émetteur et du récepteur.<p>Etant donné la très haute cadence à laquelle les échantillons du signal sont produits<p>(plusieurs dizaines de Gech/s), une attention particulière est portée à la complexité de<p>calcul des algorithmes proposés. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
|
695 |
Analyse de la parole continue en vue de la caractérisation des troubles de la voix: traitement du signal, indices acoustiques et évaluation perceptiveKacha, Abdellah 13 October 2006 (has links)
L’analyse du signal de parole offre un moyen privilégié pour l’évaluation clinique de la qualité de la voix en vue d’un diagnostique et d’une documentation quantitative des pathologies du larynx. Une analyse acoustique présente plusieurs avantages. En plus du coût peu élevé du système d’évaluation, elle est simple à mettre en œuvre, présente un caractère non invasif et documente quantitativement le degré d’enrouement perçu par le clinicien.<p>L’objectif de l’analyse du signal acoustique est d’extraire des indices pertinents permettant de déterminer les caractéristiques de la voix afin de renseigner sur l’état du larynx du locuteur. Dans ce contexte, plusieurs indices acoustiques sont utilisés pour caractériser la parole produite par des locuteurs dysphoniques. Un nombre de ces indices reflète la déviation du signal de parole voisée par rapport à la périodicité parfaite. Les causes de ces dyspériodicités sont diverses :vibrations non modales des cordes vocales, bruit de modulation comprenant les variations cycle à cycle de la durée de cycle (jitter) et de l’amplitude (shimmer) dues aux perturbations externes, bruit additif dû à une turbulence excessive, etc.<p>Les indices acoustiques des dyspériodicités vocales sont souvent obtenus à partir de fragments stationnaires de voyelles soutenues. La raison en est que les voyelles sans attaques et déclins sont faciles à analyser parce que les hypothèses de cyclicité et de stationnarité utilisées par les méthodes d’analyse sont valables pour beaucoup de locuteurs. En effet, les voyelles soutenues peuvent être supposées avec une bonne précision comme produites en maintenant invariant dans le temps les caractéristiques de la source vocale, du conduit vocal et des articulateurs et, donc, les paramètres des perturbations et du bruit sont facilement calculés pour les voyelles soutenues.<p>La plupart des cliniciens considèrent la parole continue plus informative que les voyelles soutenues. Plusieurs arguments en faveur de l’analyse de la parole continue peuvent être avancés. La vibration des cordes vocales doit commuter continuellement pour donner lieu à l’apparition ou l’extinction du voisement, le voisement doit être maintenu alors que l’impédance supra-glottique change constamment, plus particulièrement durant les obstruents, et le larynx doit descendre et monter continuellement. Le larynx fonctionne donc dans des conditions non stationnaires et très variables. La parole continue contient donc les caractéristiques dynamiques de la source de la voix et du conduit vocal tels que l’attaque et le déclin et les variations dans la fréquence fondamentale et l’amplitude. De même, il semble que les locuteurs compensent moins pour leurs problèmes de voix lors de la production de la parole continue que lorsqu’ils produisent des voyelles soutenues.<p>Les méthodes de traitement du signal de parole pour la caractérisation des troubles de la voix sont basées sur les hypothèses de stationnarité et de périodicité locales qui conduisent à des approches heuristiques permettant de détecter et d’isoler les périodes fondamentales ou les harmoniques spectrales. Comme conséquence, des erreurs d’insertion ou d’omission se produisent souvent lors de l’analyse des signaux fortement perturbés. Ces erreurs biaisent numériquement les indices acoustiques. Les mesures objectives ne sont donc fiables que lorsque l’analyse est effectuée sur des voyelles soutenues produites par des locuteurs faiblement ou modérément enroués.<p>La précision des méthodes d’analyse dans le cadre de l’estimation des dyspériodicités vocales est une caractéristique fondamentale. En effet, les perturbations cycle à cycle des durées de cycle peuvent être inférieures à 1 % alors que les perturbations cycle à cycle de l’amplitude peuvent être inférieures à 10 %. Donc, les méthodes de traitement doivent être appliquées avec précaution vis à vis de la précision de mesure pour ne pas biaiser les valeurs numériques. Le bruit de quantification par exemple peut affecter la précision d’estimation s’il n’est pas pris en considération.<p>Cette thèse se focalise sur le développement de méthodes robustes d’analyse acoustiques du signal de parole continue en vue de la caractérisation des troubles de la voix, la définition et l’évaluation d’indices acoustiques pour quantifier les dyspériodicités vocales et le développement d’une méthode d’évaluation perceptive fiable permettant de mesurer et comparer les performances des différentes méthodes d’analyse développées.<p>Les méthodes développées sont de deux types :des méthodes d’analyse par bloc qui opèrent sur des trames de courte durée du signal et des méthodes adaptatives qui permettent d’analyser le signal à chaque échantillon en tenant compte de son caractère non stationnaire.<p>Deux indices acoustiques sont utilisés pour quantifier les dyspériodicités vocales dans le signal de parole. Le premier indice, utilisé conventionnellement dans le cadre de l’évaluation objective de la qualité de la voix, est le rapport signal à dyspériodicité global. La valeur numérique de l’indice global est principalement déterminée par les segments vocaliques et donc il peut masquer certains évènements locaux, notamment dans le cas de l’analyse de la parole continue. Le second indice proposé comme alternative à l’indice global est le rapport signal à dyspériodicité segmental. Il a pour objectif de donner une plus forte pondération aux segments bruités de faibles niveaux qui sont peu pondérés dans le calcul de l’indice global.<p>La méthode d’évaluation perceptive développée est basée sur la comparaison de paires de signaux. Elle permet d’obtenir des résultats fiables même lorsque l’évaluation est réalisée par des auditeurs naïfs n’ayant pas d’expérience dans l’évaluation de la qualité de la voix et permet une grande concordance inter-juges et intra-juges. Les performances de la méthode d’évaluation perceptive basée sur la comparaison de paires de signaux sont comparées à celles de la méthode conventionnelle utilisée en milieu clinique.<p>Les performances des différentes méthodes d’analyse et des indices acoustiques sont mesurées en les testant sur des corpus comprenant des voyelles soutenues et de la parole continue. Les stimuli sont produits par des locuteurs normophoniques et dysphoniques et comprennent une large gamme de pathologies.<p> / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
696 |
Caractérisation spectrale locale à l'aide de la microscopie interférométrique : simulations et mesures / Local spectral characterization using coherence scanning interferometry : simulations and measurementsClaveau, Rémy 08 December 2017 (has links)
La microscopie interférométrique est une méthode de mesure qui repose sur l’acquisition et le traitement du signal issu de l’interaction de deux ondes, dites ondes « objet » et de « référence ». Ces ondes proviennent des réflexions de la lumière sur un miroir de référence et sur l’échantillon étudié. Bien qu’étant généralement utilisées pour les analyses topographiques ou tomographiques d’un échantillon, les données interférométriques peuvent être exploitées pour réaliser des caractérisations spectrales locales résolues dans les trois directions de l’espace. Dans ce projet, nous avons étudié les performances de cette technique ainsi que ses limitations lorsque l’échantillon se complexifie (dégradation du signal d’interférences). L’analyse a été appliquée à des matériaux réfléchissants pour des mesures en surface puis à des couches transparentes et diffusantes pour aller sonder le milieu en profondeur et extraire la réponse spectrale individuelle de structures localisées dans ce milieu. / White light interference microscopy is a measurement method based on the acquisition and processing of the signal coming from the interaction between two wave fronts, known as the “object” and “reference” wave-fronts. These waves come from the reflection of the light on a reference mirror and the sample studied. Usually used for topographic or tomographic analysis of a sample, the interferometric data can be exploited for spectroscopic purposes. The resulting spectral characterizations are spatially resolved in the three directions of space. In this project, we have studied the performance of this technique, as well as the associated limitations when the sample becomes more complex (degradation of the interferometric signal). The analysis has been first applied to reflective materials for surface measurements and subsequently to transparent and scattering layers for probing within the depth of the medium and then extracting the individual spectral response of the buried structures.
|
697 |
Spatio-Temporal Adaptive Sampling Techniques for Energy Conservation in Wireless Sensor Networks / Techniques d'échantillonnage spatio-temporelles pour la conservation de l'énergie dans les réseaux de capteurs sans filKandukuri, Somasekhar Reddy 07 October 2016 (has links)
La technologie des réseaux de capteurs sans fil démontre qu'elle peut être très utile dans de nombreuses applications. Ainsi chaque jour voit émerger de nouvelles réalisations dans la surveillance de notre environnement comme la détection des feux de forêt, l'approvisionnement en eau. Les champs d'applications couvrent aussi des domaines émergents et sensibles pour la population avec les soins aux personnes âgées ou les patients récemment opérés dans le cadre. L'indépendance des architectures RCSFs par rapport aux infrastructures existantes permet aux d'être déployées dans presque tous les sites afin de fournir des informations temporelles et spatiales. Dans les déploiements opérationnels le bon fonctionnement de l'architecture des réseaux de capteurs sans fil ne peut être garanti que si certains défis sont surmontés. La minisation de l'énergie consommée en fait partie. La limitation de la durée de vie des nœuds de capteurs est fortement couplée à l'autonomie de la batterie et donc à l'optimisation énergétique des nœuds du réseau. Nous présenterons plusieurs propositions à ces problèmes dans le cadre de cette thèse. En résumé, les contributions qui ont été présentées dans cette thèse, abordent la durée de vie globale du réseau, l'exploitation des messages de données redondantes et corrélées et enfin le fonctionnement nœud lui-même. Les travaux ont conduit à la réalisation d'algorithmes de routage hiérarchiques et de filtrage permettant la suppression des redondances. Ils s'appuient sur les corrélations spatio-temporelles des données mesurées. Enfin, une implémentation de ce réseau de capteurs multi-sauts intégrant ces nouvelles fonctionnalités est proposée. / Wireless sensor networks (WSNs) technology have been demonstrated to be a usefulmeasurement system for numerous bath indoor and outdoor applications. There is avast amount of applications that are operating with WSN technology, such asenvironmental monitoring, for forest fire detection, weather forecasting, water supplies, etc. The independence nature of WSNs from the existing infrastructure. Virtually, the WSNs can be deployed in any sort of location, and provide the sensor samples accordingly in bath time and space. On the contrast, the manual deployments can only be achievable at a high cost-effective nature and involve significant work. ln real-world applications, the operation of wireless sensor networks can only be maintained, if certain challenges are overcome. The lifetime limitation of the distributed sensor nodes is amongst these challenges, in order to achieve the energy optimization. The propositions to the solution of these challenges have been an objective of this thesis. ln summary, the contributions which have been presented in this thesis, address the system lifetime, exploitation of redundant and correlated data messages, and then the sensor node in terms of usability. The considerations have led to the simple data redundancy and correlated algorithms based on hierarchical based clustering, yet efficient to tolerate bath the spatio-temporal redundancies and their correlations. Furthermore, a multihop sensor network for the implementation of propositions with more features, bath the analytical proofs and at the software level, have been proposed.
|
698 |
Identification of fall-risk factors degradation using quality of balance measurements / Identification des dégradations des facteurs de risque de chute à partir de mesures de la qualité de l'équilibre posturalBassement, Jennifer 04 December 2014 (has links)
Les chutes touchent un tiers des personnes âgées de 65 ans et plus et conduit à une perte de mobilité. La détection des risques facteurs de chutes est essentielle pour une intervention précoce.Six facteurs intrinsèques de chute : vision, système vestibulaire, amplitude articulaire, force musculaire, proprioception articulaire et plantaire ont été évalué par des tests cliniques avant et après une dégradation temporaire. L’équilibre a été évalué sur une plateforme de force pour le calcul de 198 paramètres.Les paramètres ont été utilisés comme variables pour la construction de modèle de réseaux de neurones et de régression logistique avec pour objectif de diagnostiquer les détériorations des facteurs testés. Les paramètres pertinents ont été sélectionnés pour être inclus aux modèles. Des modèles comprenant entre 3 et 10 conditions ont été développé, néanmoins seuls les modèles de 5 conditions et moins se sont révélés efficaces. La précision a réussi à atteindre 92% pour le modèle incluant l’amplitude de la cheville, la fatigue et la vision des contrastes.Les mesures de qualité d’équilibre ont permis de détecter des détériorations des facteurs intrinsèques testés. Cependant, ces modèles ne sont efficaces qu’avec peu de conditions. Pour construire un modèle performant avec plusieurs conditions il est nécessaire d’inclure plus de participants lors de la construction du modèle. Un outil de la sorte est intéressant pour la mise en place de programmes de prévention et de rééducation / Falls concern a third of the people aged over 65y and lead to the loss of functional ability. The detection of risks factors of falls is essential for early intervention. Six intrinsic risk factors of fall: vision, vestibular system, joint range of motion, leg muscle strength, joint proprioception and foot cutaneous proprioception were assessed with clinical tests before and after temporarily degradation. Standing balance was recorded on a force plate.From the force plate, 198 parameters of the centre of pressure displacement were computed. The parameters were used as variables to build neural network and logistic regression model for discriminating conditions. Feature selection analysis was performed to reduce the number of variables.Several models were built including 3 to 10 conditions. Models with 5 or less conditions appeared acceptable but better performance was found with models including 3 conditions. The best accuracy was 92% for a model including ankle range of motion, fatigue and vision contrast conditions. Qualities of balance parameters were able to diagnose impairments. However, the efficient models included only a few conditions. Models with more conditions could be built but would require a larger number of cases to reach high accuracy. The study showed that a neural network or a logistic model could be used for the diagnosis of balance impairments. Such a tool could seriously improve the prevention and rehabilitation practice
|
699 |
Modèles biomathématiques des effets de la stimulation électrique directe et indirecte sur la dynamique neuronale : application à l'épilepsie / Modeling the effects of direct and indirect electrical stimulation on neuronal dynamics : application to epilepsyMina, Faten 03 December 2013 (has links)
Les effets de la stimulation électrique sur la dynamique des systèmes neuronaux épileptiques sont encore méconnus. L'objectif principal de cette thèse est de progresser dans la compréhension des effets attendus en fonction des paramètres de stimulation. Dans la première partie du manuscrit, un modèle mésoscopique (population neuronale) de la boucle thalamocorticale est proposé pour étudier en détails les effets de stimulation indirecte (thalamique), avec une attention particulière sur la fréquence. Des signaux EEG intracérébraux acquis chez un patient souffrant d'épilepsie pharmaco-résistante ont d'abord été analysés selon une approche temps-fréquence (algorithme de type Matching Pursuit). Les caractéristiques extraites ont ensuite été utilisées pour identifier les paramètres du modèle proposé en utilisant une approche exhaustive (minimisation de la distance entre signaux simulés et réels). Enfin, le comportement dynamique du modèle a été étudié en fonction de la fréquence du signal de stimulation. Les résultats montrent que le modèle reproduit fidèlement les signaux observés ainsi que la relation non linéaire entre la fréquence de stimulation et ses effets sur l'activité épileptique. Ainsi, dans le modèle, la stimulation à basse fréquence (SBF ; fs <20 Hz) , et la stimulation à haute fréquence (SHF ; fs > 60 Hz) permettent d'abolir les dynamiques épileptiques, alors que la stimulation à fréquence intermédiaire (SFI; 20 < fs < 60 Hz) n'ont pas d'effet , comme observé cliniquement. De plus, le modèle a permis d'identifier des mécanismes cellulaires et de réseau impliqués dans les effets modulateurs de la stimulation. La deuxième partie du manuscrit porte sur les effets polarisants de la stimulation directe en courant continu (CC) de la zone épileptogène dans le contexte de l'épilepsie mésiale du lobe temporal (EMLT). Un modèle biomathématique bien connu de la région hippocampique CA1 a été adapté pour cette étude. Deux modifications sont été intégrées au modèle, 1) une représentation physiologique de l'occurrence des décharges paroxystiques hippocampiques (DPH) basée sur une identification de leurs statistiques d'occurrence basée sur des données expérimentales (modèle in vivo d'EMLT)et 2) une représentation électrophysiologiquement plausible de la stimulation prenant en compte l'interface électrode-électrolyte. L'analyse de la sortie du modèle en fonction de la polarité de stimulation, a montré qu'une réduction (resp. augmentation) significative des DPH (en durée et en fréquence) sous stimulation anodale (resp. cathodole). Un protocole expérimental a ensuite été proposé et utilisé afin de valider les prédictions du modèle. / The effects of electrical stimulation on the dynamics of epileptic neural systems are still unknown. The main objective of this thesis is to progress the understanding of the expected effects as a function of stimulation parameters. In the first part of the manuscript, a mesoscopic model (neural population) of the thalamocortical loop is proposed to study in details the effects of indirect stimulation (thalamic), with a particular attention to stimulation frequency. Intracerebral EEG signals acquired from a patient with drug-resistant epilepsy were first analyzed using a time-frequency approach (Matching Pursuit algorithm). The extracted features were then used to optimize the parameters of the proposed model using a Brute-Force approach (minimizing the distance between simulated and real signals). Finally, the dynamical behavior of the model was studied as a function of the frequency of the stimulation input. The results showed that the model reproduces the real signals as well as the nonlinear relationship between the frequency of stimulation and its effects on epileptic dynamics. Thus, in the model, low-frequency stimulation (LFS; fs <20 Hz) and high-frequency stimulation (HFS; fs > 60 Hz) suppress epileptic dynamics, whereas intermediate-frequency stimulation (IFS; 20 < fs <60 Hz) has no effect, as observed clinically. In addition, the model was used to identify the cellular and network mechanisms involved in the modulatory effects of stimulation. The second part of the manuscript addresses the polarizing effects of direct current (DC) stimulation of the epileptogenic zone in the context of the mesial temporal lobe epilepsy (MTLE). A well-known computational model of the hippocampal CA1 region was adapted for this study. Two modifications were added to the model: 1) a physiological representation of the occurrence of hippocampal paroxysmal discharges (HPD) based on the statistical identification of their occurrence in experimental data (in vivo model of MTLE) and 2) an electrophysiologically plausible representation of the stimulation inputs taking into account the electrode-electrolyte interface. The analysis of the model output as a function of the polarity of stimulation, showed a significant reduction (resp. increase) of HPDs (duration and frequency) in anodal stimulation (resp. cathodol). An experimental protocol was then proposed and used to validate the model predictions.
|
700 |
Signal processing methods for fast and accurate reconstruction of digital holograms / Méthodes de traitement du signal pour la reconstruction rapide et précise des hologrammes numériquesSeifi, Mozhdeh 03 October 2013 (has links)
Le développement de techniques de microscopie quantitatives tridimensionnelles et résolues en temps est fondamental dans de nombreux domaines. Dans ce cadre, l’holographie numérique en ligne recèle un fort potentiel, en raison de sa relative simplicité de mise en œuvre (imagerie sans lentille), de son caractère tridimensionnel et de sa résolution temporelle. Le but de cette thèse est l’amélioration des algorithmes de reconstruction des hologrammes par une approche « problèmes inverses ». Dans le cadre de la reconstruction d’objets paramétriques, des travaux antérieurs ont permis de proposer un algorithme glouton permettant de résoudre le problème inverse de reconstruction (intrinsèquement mal posé) par une maximisation de la vraisemblance entre un modèle de formation d’hologramme et les données. Une première contribution de ce travail de thèse a été de réduire le temps de calcul de cet algorithme en utilisant une approche multi-résolution (algorithme FAST). Dans une deuxième contribution, une approche reconnaissance de forme de type « matching pursuit » est utilisée pour la reconstruction d’objets quelconques en recherchant les éléments d’un dictionnaire les plus proches des figures de diffraction composant l’hologramme. La réduction des dimensions du dictionnaire est proposée en utilisant une décomposition en valeurs singulières tronquée. La troisième contribution de cette thèse a été réalisée en collaboration avec le LMFA. L’algorithme glouton a été utilisé sur un cas réel : la reconstruction et le suivi de gouttelettes d’éther évaporantes en chute libre. Dans tous ces développements une attention particulière a été portée sur la précision des reconstructions, sur la réduction du nombre de paramètres à régler par l’utilisateur (algorithmes peu ou non supervisés). Une boîte à outils Matlab® (en ligne) a été développée dans le cadre de cette thèse / Techniques for fast, 3D, quantitative microscopy are of great interest in many fields. In this context, in-line digital holography has significant potential due to its relatively simple setup (lensless imaging), its three-dimensional character and its temporal resolution. The goal of this thesis is to improve existing hologram reconstruction techniques by employing an “inverse problems” approach. For applications of objects with parametric shapes, a greedy algorithm has been previously proposed which solves the (inherently ill-posed) inversion problem of reconstruction by maximizing the likelihood between a model of holographic patterns and the measured data. The first contribution of this thesis is to reduce the computational costs of this algorithm using a multi-resolution approach (FAST algorithm). For the second contribution, a “matching pursuit” type of pattern recognition approach is proposed for hologram reconstruction of volumes containing parametric objects, or non-parametric objects of a few shape classes. This method finds the closest set of diffraction patterns to the measured data using a diffraction pattern dictionary. The size of the dictionary is reduced by employing a truncated singular value decomposition to obtain a low cost algorithm. The third contribution of this thesis was carried out in collaboration with the laboratory of fluid mechanics and acoustics of Lyon (LMFA). The greedy algorithm is used in a real application: the reconstruction and tracking of free-falling, evaporating, ether droplets. In all the proposed methods, special attention has been paid to improvement of the accuracy of reconstruction as well as to reducing the computational costs and the number of parameters to be tuned by the user (so that the proposed algorithms are used with little or no supervision). A Matlab® toolbox (accessible on-line) has been developed as part of this thesis
|
Page generated in 0.0805 seconds