• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 235
  • 105
  • Tagged with
  • 340
  • 340
  • 334
  • 87
  • 50
  • 43
  • 42
  • 41
  • 37
  • 37
  • 35
  • 35
  • 33
  • 33
  • 32
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Ré-observabilité des points caractéristiques pour le calibrage et le positionnement d'un capteur multi-caméra

Ouellet, Jean-Nicolas 17 April 2018 (has links)
Le calibrage et le positionnement de caméras reposent sur l'extraction de caractéristiques dans l'image et leur reconnaissance dans les images subséquentes. Une caractéristique est une région de l'image localement saillante à laquelle sont associées une position et une description de l'apparence de cette région. Les algorithmes de calibrage et de positionnement reposent sur l'hypothèse qu'un ensemble de caractéristiques correspondantes est l'observation du même point physique de la scène. Toutefois, cette hypothèse n'est pas nécessairement respectée par toutes les caractéristiques correspondantes. Les causes de la présence de ces caractéristiques nuisibles sont multiples, allant de biais induits par la méthode de localisation dans l'image, jusqu'à la déformation de l'image lorsque la caméra change de point de vue. Le principal défi du calibrage et du positionnement est donc l'identification de caractéristiques fiables. Pour pallier ce problème, nous introduisons le concept de ré-observabilité d'une caractéristique. Ce concept regroupe l'unicité du point physique et la reconnaissance. Un point de la scène est défini par ses observations dans les images et par les poses associées à ces images. Ainsi, une caractéristique doit être localisée le plus précisément possible dans l'image. Pour ce faire, nous avons identifié les biais affectant la localisation des caractéristiques dans l'image en calibrage pour une scène contrôlée et en positionnement où le capteur évolue dans une scène inconnue. Pour chaque biais, nous proposons une solution simple permettant de réduire, voire éliminer le biais. Ceci a mené au développement de nouveaux détecteurs de caractéristiques. Ensuite, à partir de plusieurs images, nous évaluons la cohérence entre les observations et les poses de la caméra à l'aide de critères multi-vue. Les caractéristiques nuisibles peuvent alors être identifiées. L'aspect reconnaissance est traité en évaluant la distinction des caractéristiques qui peuvent être distinctes localement ou globalement dans la scène. Une application directe de ce concept concerne la visibilité des caractéristiques où l'observation d'une caractéristique distincte globalement renforce la probabilité d'observer une caractéristique distincte localement si elles ont été observées conjointement. Chacun des concepts de la ré-observabilité est appuyé par une application réelle de calibrage et de positionnement d'un capteur multi-caméra.
112

Modulation adaptative multiporteuses : étude et implantation matérielle

Veilleux, James 11 April 2018 (has links)
Ce mémoire est consacré à l'étude de la modulation adaptative dans le contexte de communications sans fil à large bande utilisant la modulation OFDM. Cette étude est plus particulièrement centrée sur l'analyse des performances et sur l'implantation matérielle d'un modèle de système de modulation adaptative multiporteuses qui incorpore plusieurs éléments d'un système qui serait utilisé de façon pratique. Un survol des communications sans fil à large bande et de la modulation adaptative est tout d'abord fait. Un modèle de chaîne de communications utilisant la modulation adaptative multiporteuses est ensuite proposé. Ce modèle tient compte de certains phénomènes imputables à l'utilisation d'un système pratique tels que les délais de traitement et de feedback, l'estimation de canal et les erreurs dans le canal de feedback. L'impact de ces phénomènes est étudié à partir des performances obtenues. Une architecture matérielle pour une chaîne de modulation adaptative est ensuite étudiée. Cette architecture proposée est ensuite implantée en utilisant une technologie FPGA. Les performances de l'implantation matérielle de la chaîne sont ensuite obtenues par simulation accélérée par matériel.
113

Data reconciliation for mineral and metallurgical processes : Contributions to uncertainty tuning and dynamic balancing : Application to control and optimization

Vasebi, Amir 23 April 2018 (has links)
Pour avoir un fonctionnement de l'usine sûr et bénéfique, des données précises et fiables sont nécessaires. D'une manière générale, une information précise mène à de meilleures décisions et, par conséquent, de meilleures actions pour aboutir aux objectifs visés. Dans un environnement industriel, les données souffrent de nombreux problèmes comme les erreurs de mesures (autant aléatoires que systématiques), l'absence de mesure de variables clés du procédé, ainsi que le manque de consistance entre les données et le modèle du procédé. Pour améliorer la performance de l'usine et maximiser les profits, des données et des informations de qualité doivent être appliquées à l'ensemble du contrôle de l'usine, ainsi qu'aux stratégies de gestion et d'affaires. Comme solution, la réconciliation de données est une technique de filtrage qui réduit l'impact des erreurs aléatoires, produit des estimations cohérentes avec un modèle de procédé, et donne également la possibilité d'estimer les variables non mesurées. Le but de ce projet de recherche est de traiter des questions liées au développement, la mise en œuvre et l'application des observateurs de réconciliation de données pour les industries minéralurgiques et métallurgiques. Cette thèse explique d’abord l'importance de régler correctement les propriétés statistiques des incertitudes de modélisation et de mesure pour la réconciliation en régime permanent des données d’usine. Ensuite, elle illustre la façon dont les logiciels commerciaux de réconciliation de données à l'état statique peuvent être adaptés pour faire face à la dynamique des procédés. La thèse propose aussi un nouvel observateur de réconciliation dynamique de données basé sur un sous-modèle de conservation de la masse impliquant la fonction d'autocovariance des défauts d’équilibrage aux nœuds du graphe de l’usine. Pour permettre la mise en œuvre d’un filtre de Kalman pour la réconciliation de données dynamiques, ce travail propose une procédure pour obtenir un modèle causal simple pour un circuit de flottation. Un simulateur dynamique basé sur le bilan de masse du circuit de flottation est développé pour tester des observateurs de réconciliation de données et des stratégies de contrôle automatique. La dernière partie de la thèse évalue la valeur économique des outils de réconciliation de données pour deux applications spécifiques: une d'optimisation en temps réel et l’autre de commande automatique, couplées avec la réconciliation de données. En résumé, cette recherche révèle que les observateurs de réconciliation de données, avec des modèles de procédé appropriés et des matrices d'incertitude correctement réglées, peuvent améliorer la performance de l'usine en boucle ouverte et en boucle fermée par l'estimation des variables mesurées et non mesurées, en atténuant les variations des variables de sortie et des variables manipulées, et par conséquent, en augmentant la rentabilité de l'usine. / To have a beneficial and safe plant operation, accurate and reliable plant data is needed. In a general sense, accurate information leads to better decisions and consequently better actions to achieve the planned objectives. In an industrial environment, data suffers from numerous problems like measurement errors (either random or systematic), unmeasured key process variables, and inconsistency between data and process model. To improve the plant performance and maximize profits, high-quality data must be applied to the plant-wide control, management and business strategies. As a solution, data reconciliation is a filtering technique that reduces impacts of random errors, produces estimates coherent with a process model, and also gives the possibility to estimate unmeasured variables. The aim of this research project is to deal with issues related to development, implementation, and application of data reconciliation observers for the mineral and metallurgical industries. Therefore, the thesis first presents how much it is important to correctly tune the statistical properties of the model and measurement uncertainties for steady-state data reconciliation. Then, it illustrates how steady-state data reconciliation commercial software packages can be used to deal with process dynamics. Afterward, it proposes a new dynamic data reconciliation observer based on a mass conservation sub-model involving a node imbalance autocovariance function. To support the implementation of Kalman filter for dynamic data reconciliation, a procedure to obtain a simple causal model for a flotation circuit is also proposed. Then a mass balance based dynamic simulator of froth flotation circuit is presented for designing and testing data reconciliation observers and process control schemes. As the last part of the thesis, to show the economic value of data reconciliation, two advanced process control and real-time optimization schemes are developed and coupled with data reconciliation. In summary, the study reveals that data reconciliation observers with appropriate process models and correctly tuned uncertainty matrices can improve the open and closed loop performance of the plant by estimating the measured and unmeasured process variables, increasing data and model coherency, attenuating the variations in the output and manipulated variables, and consequently increasing the plant profitability.
114

Modulateur à réseau de Bragg intégré sur silicium pour les télécommunications dans les centres de données et leurs applications

Angermaier, Jérémie 24 April 2018 (has links)
Récemment, beaucoup d’efforts ont été investis afin de développer des modulateurs sur silicium pour les télécommunications optiques et leurs domaines d’applications. Ces modulateurs sont utiles pour les centres de données à courte portée et à haut débit. Ainsi, ce travail porte sur la caractérisation de deux types de modulateurs à réseau de Bragg intégré sur silicium comportant une jonction PN entrelacée dont le but est de réaliser une modulation de la longueur d’onde de Bragg par le biais de l’application d’un tension de polarisation inverse réalisant une déplétion des porteurs au sein du guide d’onde. Pour le premier modulateur à réseau de Bragg, la période de la jonction PN est différente de celle du réseau de Bragg tandis que le deuxième modulateur à réseau de Bragg a la période de sa jonction PN en accord avec celle du réseau de Bragg. Ces différences apporteront un comportement différent du modulateur impliquant donc une transmission de données de qualité différente et c’est ce que nous cherchons à caractériser. L’avantage de ce modulateur à réseau de Bragg est qu’il est relativement simple à designer et possède un réseau de Bragg uniforme dont on connaît déjà très bien les caractéristiques. La première étape dans la caractérisation de ces modulateurs fut de réaliser des mesures optiques, uniquement, afin de constater la réponse spectrale en réflexion et en transmission. Par la suite, nous sommes passé par l’approche usuelle, c’est à dire en réalisant des mesures DC sur les modulateurs. Ce mémoire montre également les résultats pratiques sur le comportement des électrodes et de la jonction PN. Mais il rend compte également des résultats de la transmission de données de ces modulateurs par l’utilisation d’une modulation OOK et PAM-4 et permet de mettre en évidence les différences en terme d’efficacité de modulation de ces deux modulateurs. Nous discutons alors de la pertinence de ce choix de design par rapport à ce que l’on peut trouver actuellement dans la littérature. / Recently, much effort has been invested to develop silicon modulators for optical telecommunications and their application areas. These modulators are useful for data centers and short-range high capacity links. Thus, this work focuses on the characterization of two types of integrated Bragg grating modulators on silicon waveguide and having an interleaved PN junction whose goal is to achieve a modulation of the Bragg wavelength through the application of an reverse bias voltage creating a carrier depleted region in the waveguide. For the first integrated Bragg grating modulator, the period of the PN junction is not matched to the Bragg grating period while the second integrated Bragg grating modulator has the PN junction matched to the Bragg grating period. This difference brings a different behaviour of the modulator thus resulting in a different quality of data that we seek to characterize. The advantage of this Bragg grating modulator is that it is relatively simple to design and has a uniform Bragg grating which has well known characteristics. The first step in the characterization of these modulators was making optical measurements, only to see the spectral response in reflection and transmission. Afterwards, we went through the usual approach, i.e by making DC measurements on the modulators. This thesis shows the practical results on the behaviour of the electrodes and the PN junction. And it also reports the results of the data transmission of these modulators by using an OOK modulation and PAM-4 modulation highlighting the differences in terms of modulation efficiency of these two modulators. We then discuss the relevance of this design choice compared to what we can currently find in the literature.
115

Annulation des interférences inter-cellulaires pour les systèmes MIMO massif dans les réseaux hétérogènes 5G

Chouk, Marwa 18 October 2019 (has links)
De nos jours, le nombre des utilisateurs mobiles est en train d’exploser et cela va de même pour la demande en débit. En effet, cette demande croissante ainsi que le nombre considérable d’appareils qui sont appelés à être connectés (plus de 29 milliards d’ici 2022 selon Ericsson) oblige à entièrement repenser les technologies de communication mobile. De nouveaux systèmes doivent être développés afin de proposer une solution aux nouveaux usages qui vont naître de cette évolution. Le MIMO massif est une nouvelle technologie caractéristique de la 5G. Au lieu de mettre en place une seule antenne réceptrice-émettrice, le MIMO massif combine plusieurs antennes à la fois afin de renforcer le signal et réduire les interférences. Un tel système est très souvent étudié pour des transmissions multi-utilisateurs grâce à son potentiel à focaliser l’énergie. Parmi les nombreuses technologies caractéristiques de la 5G, nous considérons comme un bon candidat un système fonctionnant à des longueurs d’onde millimétriques afin de satisfaire le besoin du débit élevé sur des petites zones cibles. Cependant, plusieurs difficultés de conception apparaissent à une telle échelle de fréquence. Particulièrement, l’utilisation d’un nombre élevé de chaînes RF en parallèle semble plus compliquée. Pour remédier à ce problème, des systèmes dits hybrides ont vu le jour et ils sont identifiés comme des solutions pertinentes afin de contourner ces difficultés. Malgré les avantages apportés par les systèmes MIMO massifs à ondes millimétriques, il est important de comprendre ces innovations d’un point de vue d’évolution de l’architecture des réseaux. De nos jours, l’architecture moderne des réseaux cellulaires devient de plus en plus hétérogène, pour de bonnes raisons. Dans ces réseaux hétérogènes, les stations de base sont souvent augmentées avec un grand nombre de petites cellules. Ces dernières consistent en de petites stations de base, utilisées pour améliorer la couverture dans des environnements denses et pour augmenter la capacité du réseau. Cependant, plusieurs problèmes techniques naissent du déploiement dense de ces petites cellules. Particulièrement, leur coexistence avec les réseaux traditionnels et les différents niveaux de puissance de transmission peuvent être la source de fortes interférences entre les cellules. Le travail de ce mémoire se concentre sur la gestion des interférences intercellulaires dans un réseau hétérogène à spectre partagé. Ces interférences sont dues principalement au fait que les utilisateurs sont forcés de s’associer aux petites cellules en présence de macrocellules avoisinantes. Par conséquent, nous proposons une nouvelle architecture d’un réseau hétérogène comprenant plusieurs petites cellules qui coexistent avec une macrocellule équipée d’un grand nombre d’antennes au niveau de la macro station de base (MBS). L’objectif est de concevoir un nouveau schéma de précodage hybride permettant d’annuler les interférences intercellulaires sur le lien descendant (DL). Nous proposons d’appliquer uniquement un contrôle de phase pour coupler les sorties de la chaîne RF aux antennes d’émission, en utilisant des déphaseurs RF économiques. Un précodage numérique est ensuite effectué à la station de base pour gérer les interférences intercellulaires et multi-utilisateurs en s’appuyant sur l’espace nul des canaux d’interférences. Enfin, des résultats de simulations démontrant l’efficacité spectrale de l’approche proposée sont présentées et comparées avec diverses techniques de précodage / Nowadays, the number of mobile users and the demand for bandwidth are exploding. Indeed, this growing demand and the considerable number of devices to be connected (more than 29 billion by 2022 according to Ericsson) requires a complete rethink of the mobile communication technologies. New systems must be developed in order to provide a solution to the new uses that will emerge from this evolution. Massive MIMO is a new technology characteristic of 5G. Instead of implementing a single transmitting/receiving antenna, massive MIMO system combines several antennas to rein-force the signal and reduce the interference. Such a system is very often studied for multi-user transmissions thanks to its potential to focus energy. Among the many characteristic technologies of 5G, we consider as good candidates, those operating at millimetre wavelengths to satisfy the need for high throughput in small targeted areas. However, several design difficulties occur at such a frequency scale. In particular, the use of a large number of RF chains in parallel is more complicated. To remedy this problem, hybrid systems have emerged and are identified as relevant solutions to overcome these difficulties. Despite the benefits of massive MIMO systems and millimetre wave, it is important to understand these innovations from the perspective of network architecture evolution. Nowadays, the modern architecture of cellular networks is becoming more and more heterogeneous, for good reasons. In these heterogeneous networks, base stations are often augmented with a large number of small cells. It consists of small base stations, used to improve coverage in dense environments and increase network capacity. However, several technical problems arise from the dense deployment of these small cells. In particular, their coexistence with traditional networks and the different levels of transmission power can be the source of strong interferences between cells. In this thesis, we focus on the intercellular interference management in a heterogeneous shared spectrum network. This interference is mainly due to the fact that users are forced to be associated with small cells in the presence of surrounding macrocells. Therefore, we propose a new architecture of a heterogeneous network comprising several small cells that coexist with a macrocell equipped with a large number of antennas at the macro base station (MBS). The goal is to design a new hybrid precoding scheme to cancel intercellular interference on the downlink transmissions (DL). We propose to apply only phase control to couple the outputs of the RF chain to the transmitting antennas, using economical RF phase shifters. Digital precoding is then performed at the base station to manage intercellular and multi-user interference based on the null space of the interference channels. Finally, simulation results demonstrating the spectral efficiency of the proposed approach are presented and compared with various precoding techniques
116

Calage en ligne de modèles hydrauliques simplifiés pour la gestion en temps réel de réseaux de drainage urbain

Fradet, Olivier 16 April 2018 (has links)
L'objectif de cette maîtrise est d'évaluer différents modèles hydrauliques simplifiés, ainsi que des méthodes de calage en ligne pour la gestion en temps réel de réseaux d'assainissement par commande prédictive. Les qualités recherchées sont : robustesse, rapidité d'exécution, précision de prédiction, intégration dans le schéma de contrôle et adaptabilité. Les modèles hydrauliques linéaires d'écoulement MA et ARMA, ainsi que onze méthodes de calage (moindres carrés simples, algorithme à facteur d'oubli variable et trace constante, filtre de Kalman et filtre de Kalman augmenté sans et avec contraintes, identification prédictive, quatre variantes de programmation non linéaire) ont été définies et analysées. Des tests ont été faits avec des données simulées à l'aide de SWMM, puis avec des mesures provenant du réseau d'égouts de la Ville de Québec. Les tests présentés dans ce mémoire montrent que les modèles MA couplés aux méthodes de programmation non linéaire produisent les meilleurs résultats.
117

Une étude sur la réduction du PAPR dans un système OFDM

Arab, Samir 16 April 2018 (has links)
Les systèmes de communications ont beaucoup évolué ces dernières années, surtout les systèmes sans fil, et de plus en plus la nécessité d'utilisation d'une grande vitesse de transmission de données s'impose. Mais la technologie existante a des contraintes pour suivre la progression de la vitesse de transmission nécessaire ; plusieurs méthodes et techniques ont vu le jour pour remédier à ce problème. Le multiplexage par division en fréquences orthogonales (OFDM) est une alternative due à sa robustesse contre les évanouissements sélectifs en fréquence et sa résistance aux interférences entre symboles (IES). Ce dernier (IES) est un problème dans la communication de données à grande vitesse.L'émission pour les systèmes sans fil à grande distance nécessite l'utilisation d'amplificateurs de puissance (AP), mais l'utilisation des systèmes OFDM, entre autres, présente de forts pics d'amplitude de l'enveloppe du signal modulé et donc des variations importantes en puissance instantanée. Pour les systèmes OFDM on doit prendre en considération le paramètre (PAPR) "Peak-to- Aver age Power Ratio" qui a une influence directe sur l'AP. Parmi les techniques de réduction du PAPR, on retrouve les techniques qui consistent à traiter le signal avant l'émission. Ces méthodes sont en général simple à implémenter. Dans ce travail, on parle des différentes méthodes de réduction de PAPR, en mettant l'emphase sur la méthode d'écrêtage.
118

Numerical modeling of pulse thermography experiments for defect characterisation purposes

Susa, Mirela 16 April 2018 (has links)
La méthode des éléments finis est un outil mathématique puissant qui permet la résolution des équations différentielles décrivant un processus physique donné. Elle est particulièrement adaptée à la résolution de problèmes non linéaires ayant des géométries complexes. Une de ces applications est la modélisation du transfert de chaleur dans un objet soumis à une inspection par la technique de thermographie infrarouge pulsée (PT). Les résultats de ce travail ont prouvé que les solutions obtenues numériquement correspondent aux résultats expérimentaux, ceci malgré les contraintes liées à la puissance de l'ordinateur utilisé (capacité mémoire, disque, etc.) afin de résoudre le problème d'une manière adéquate. Par conséquent, le modèle numérique peut être considéré comme un outil complémentaire à la caractérisation des défauts par la PT. Dans le cas d'une procédure d'inspection où les différenst types de défauts présents dans le spécimen sont connus a priori, la modélisation numérique peut être utilisée efficacement afin d'améliorer la caractérisation de ces défauts, grâce à la combinaison modélisation MEF / expérience. En se basant sur l'analyse qualitative de l'évolution temporelle des profils de température obtenus en pratique, on a démotnré qu'il est possible de déterminer le type de défaut par une simple comparaison de la forme expérimentale de l'évolution du contraste qui est dépendante du type de défaut, avec les résultats obtenus grâce au modèle numérique. Une fois que le défaut est connu, en cas de structures complexes de type "sandwich", sa profondeur peut être réduite automatiquement puisque la plupart de ces défauts typiques apparaît sur les interfaces des couches de l'échantillon. Afin de procéder à la détermination de la taille du défaut, tâche qui est souvent très difficile en cas de structures multicouches à cause du contraste flou observé sur le défaut, provoqué par les effets latéraux de diffusion de chaleur, les expressions de régression obtenues à partir des résultats de modélisation peuvent être utilisées. Dans ce contexte, comme il a été démontré, la valeur du contraste thermique maximal obtenue expérimentalement n'est pas un paramètre fiable qui peut être utilisée avec confiance comme indicateur quantitatif des caractéristiques du défaut (dans ce cas-ci, sa taille latérale). Ceci est principalement dû au niveau élevé de l'incertitude sur le contraste maximal de température [delta]Tmax déterminé à partir de l'expérience, ainsi qu'à la force dépendance de [delta]Tmax à l'égard de la puissance de la source de chlauer appliquée. Ce problème devient signficatif dans le contexte de chauffage non-uniforme inévitablement présent dans les expériences de thermographie pulsée. En ce qui concerne l'incertitude des mesures, dans les cas où le signal thermique du défaut est faible, l'incertitude peut devenir égale ou même plus grande que la [delta]Tmax obtenu. Cependant, dans la plupart des cas, elle représente un pourcentage significatif du [delta]Tmax déterminé expérimentalement. D'autre part, les effets de l'excitation non-uniforme se sont avérés partiellement éliminés quand la procédure proposée pour la sélection de la région saine adéquate est utilisée. La procédure est basée sur l'utilisation de l'Image de Distribution de Source (IDS) reconstruite à partir de plusieurs thermogrammes initiaux acquis juste après que l'excitation soit appliquée à l'échantillon (alors que les effets possibles des défauts ne sont pas encore visibles sur la surface du spécimen). Une fois appliquée, la méthodologie s'assure que les régions défectueuses et saines aient reçu une quantité égale d'énergie (chaleur) durant l'excitation (jusqu'à une différence tolérable donnée). Cependant, aucune des corrections et mesures de précaution ne peuvent éliminer la nature fortement incertaine des valeurs expérimentales de [delta]Tmax. D'un autre côté, la période T max d'apparition de [delta]Tmax semble être beaucoup moins affectée par dse incertitudes de mesure et est relativement sensible aux caractéristiques du défaut (telles que sa taille et sa profondeur). On a démontré que même s'il existe des différences dans les valeurs absolues, les périodes de contraste maximal de température obtenues expérimentalement et numériquement peuvent être reliées par une simple relation algébrique, qui est réduite à une différence à une constante donnée. Une fois que ce rapport est établi, la régression obtenue par la modélisation peut être utilisée efficacement afin de fournir les informations désirées sur les caractéristiques inconnues du défaut. D'ailleurs, dans plusieurs cas où seulement un nombre limité de défauts est disponible dans l'échantillon calibré, pour que le procédé d'inversion soit établi, ou quand les données de mesure sont trop bruitées pour permettre la formulation d'une méthodologie d'inversion fiable, la modélisation numérique permet la déterminaison plus simple et plus directe des relations de régression pour de futures caractérisations de défauts. Par conséquent, le nombre illimité de simulations peu coûteuses pouvant être effectuées permet la création d'ensemble global et complet de relations entre les caractéristiques de défauts et les variables significatives de la PT, telle que la période d'apparition du contraste maximal de température.
119

Étude de l'emploi du signal XM comme source d'opportunité d'un système non coopératif pour la détection passive cohérente

Gill, Louis-Philippe. 17 April 2018 (has links)
Cette thèse présente l'étude de l'utilisation du signal XM comme source d'opportunité d'un système radar de détection passive cohérente. Par la réception simultanée d'un écho radar et du signal direct, une mesure de la corrélation est possible afin d'extraire de la détection les paramètres de la cible. Tout d'abord, une étude de la résolution qu'offre le signal employé et un bilan de puissance sont réalisés desquels deux principaux problèmes sont identifiés : l'effet hautement interféreur du signal direct sur un écho potentiel et la faiblesse de la puissance de cet écho provenant de la réflexion du signal sur une cible caractéristique. La méthode des sous-espaces, en utilisant une antenne-réseau à la réception, est proposée pour supprimer le signal direct par la projection dans son sous-espace orthogonal. Pour pallier le problème de la faiblesse de la puissance de l'écho, un gain directif est aussi proposé par l'utilisation d'un réseau à chevauchement d'éléments permettant d'obtenir ce gain tout en gardant une résolution nécessaire à la méthode des sous-espaces. Le choix du nombre de sous-réseaux employé est ensuite optimisé pour un gain maximal tout en évitant la présence de points nuls pour certaines valeurs de sous-réseaux engendrant la présence du signal direct malgré l'opération visant sa suppression. L'impact de l'estimation de la soustraction de la matrice de covariance du bruit est aussi étudié. Le système de détection intégré est ensuite présenté pour la détection de la cible caractéristique afin d:en vérifier l'efficacité.
120

Étude et développement d'une plateforme microfluidique pour l'imagerie électrochimique

Kara, Adnane 24 April 2018 (has links)
Ce mémoire traite la conception, la microfabrication et la caractérisation d’une matrice de microélectrodes dans une architecture microfluidique pour l’analyse par imagerie électrochimique des substances biochimique. Un nouveau procédé de microfabrication des moules des canaux microfluidiques a été développé en utilisant un procédé de photolithographie d’une résine photosensible sèche et solide. Le microcanal est fabriqué à partir de 2 substrats collés par plasma avec une matrice de 200 microélectrodes (ME). Les dimensions de chaque électrode sont de 340 μm x 340 μm fabriqués sur un circuit imprimé (PCB : printed circuit bord). La surface des électrodes a été modifiée par électrodéposition du nickel et de l’Au pour améliorer les courbes cyclo voltamétriques. Une caractérisation électro-analytique du micro-dispositif est réalisée par voltamétrie cyclique en écoulement laminaire. Le nouveau dispositif proposé nous a permis d’obtenir des images électrochimiques en pixélisant le microcanal avec la MME. Cette pixellisation du microcanal est une cartographie de l’intensité du courant et donc de la concentration des molécules dans le microcanal. Des simulations numériques 2D de la vitesse, pression ainsi que de la diffusion chimique ont été réalisées en utilisant un logiciel de modélisation par éléments finis (COMSOL). Des images microscopiques ont été aussi analysées afin de localiser la distribution des molécules à l’intérieur du canal microfluidique. Mots Clés : Microélectrodes, microfluidique, laboratoire sur puce, analyse électrochimique, circuit imprimé, oxydoréduction. / In this project we present a complete microfluidic platform with integrated 200 electrodes for in situ screening and imaging of biochemical samples through a lab-on-chip system. We incorporated electrochemical sensor arrays (20x10) connected to a PCB into a 200 μm tall microfluidic channel. The micro-channel contains three inlets, two of which where used to introduce phosphate buffer saline (PBS), which confined a central stream of ferrocynide solution. A custom multiplexer and potentiostat were used to sequentially perform cyclic voltammetry on each electrode. The behaviour of the system was linear in term of variation of current versus concentration. A pseudo real-time interface collected currents from each electrode. It was then analyzed to detect different species and their concentrations at different locations on-chip. An electrochemical image was generated presenting the concentration distribution inside the microfluidic device. A numerical calculation with COMSOL was achieved to solve Navier-Stocks equation to confirm experimental results, finally microscopic image analyzed to show the position of the confined flow. Key words : Microelectrodes, microfluidics, lab-on-a-chip, electrochemical analysis, printed circuit board, redox reaction.

Page generated in 0.0311 seconds