• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 13
  • 3
  • Tagged with
  • 16
  • 16
  • 16
  • 16
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Solutions de navigation pour lanceurs de satellites : observabilité et nouvelles approches

Beaudoin, Yanick 24 April 2019 (has links)
Cette recherche évalue de nouvelles approches pour améliorer la performance des solutions de navigation pour lanceurs de satellite. La première est l’utilisation des données de la trajectoire de référence. L’idée de cette approche est de pondérer, tout au long de la mission, la confiance sur le fait que le lanceur suit la trajectoire prédite afin d’exploiter les données d’attitude de la trajectoire de référence dans la solution de navigation. La seconde approche est l’ajout d’un modèle stochastique du lanceur à la solution de navigation. Pour ce modèle, l’accélération et la vélocité angulaire sont représentées par une marche aléatoire dont la variance est ajustée en fonction de la connaissance des forces agissantes sur le lanceur. Finalement, l’usage de plusieurs unités de mesures inertielles bas de gamme est comparé à l’usage d’une seule unité de mesures inertielles de meilleure qualité. Le recours à plusieurs unités de mesures inertielles permet de répartir celles-ci sur la structure du lanceur. L’effet du positionnement de ces unités de mesures est évalué en comparant des solutions de navigation dont tous les capteurs sont placés dans la tête du lanceur à une solution où les capteurs sont répartis dans la tête de chacun des étages du lanceur. Quelques approches pour effectuer la fusion des unités de mesures inertielles sont testées ; fusion de toutes les unités de mesures dans une seule centrale inertielle, fusion de plusieurs centrales inertielles et fusion de plusieurs centrales inertielles avec contraintes géométrique. Pour plusieurs des solutions proposées ainsi que pour plusieurs autres déjà existantes, une étude exhaustive de l’observabilité est effectuée. L’observabilité est vérifiée à l’aide de la matrice d’observabilité, de l’étude de la propagation de la matrice de covariance et de l’analyse à la sensibilité à une mesure aberrante. Finalement, une méthode simplifiée pour évaluer les performances des solutions de navigation inertielle sur une trajectoire fixe est présentée. Les résultats montrent que l’usage des données de la trajectoire de référence permet de réduire l’erreur d’estimation du roulis. Cependant, l’ajout de ces données n’améliore pas l’observabilité du modèle de base sur lequel celles-ci sont ajoutées. Le recours à un modèle stochastique de la dynamique du lanceur n’apporte que des gains marginaux sur les estimations d’attitude, de vélocité et de position. Par contre, cette approche améliore substantiellement les estimations d’accélération et de vélocité angulaire. La distribution des capteurs inertiels sur la structure du lanceur n’améliore pas la précision de navigation. Cette dernière est même dégradée lorsque des capteurs sont perdus en raison des largages d’étages. La fusion de plusieurs unités de mesures inertielles à l’aide d’une centrale inertielle offre des performances équivalentes à celles obtenues avec une seule unité de mesure. Par contre, la fusion de plusieurs centrales inertielles permet de réduire l’erreur d’estimation. Qui plus est, des gains additionnels peuvent être obtenus lorsque des contraintes géométriques sur l’attitude, la vélocité et la position relatives entre les centrales inertielles sont ajoutées à cette dernière approche. Les tests d’observabilité ont montré que la modélisation des biais de capteurs par un processus de Markov plutôt que par une marche aléatoire a peu d’impact sur l’observabilité du modèle. De plus, sur une mission de courte durée, le choix du modèle pour représenter les biais de capteurs n’a qu’un effet négligeable sur la précision des estimations. Les analyses d’observabilité ont aussi montré que le recours à un seul récepteur GPS n’est pas suffisant pour assurer l’observabilité du roulis et que le biais de mesure de position du récepteur GPS n’est pas observable. / This research evaluates new approaches to improve the performance of navigation solutions for satellite launchers. The first is the use of data from the reference trajectory. The idea of this approach is to weigh, throughout the mission, the confidence that the launcher follows the predicted trajectory in order to exploit the attitude data of the reference trajectory in the navigation solution. The second approach is to add a stochastic model of the launcher to the navigation solution. For this model, the acceleration and the angular velocity are represented by a random walk whose variance is adjusted according to the knowledge of the forces acting on the launcher. Finally, the use of several low-end inertial measurement units is compared to the use of a single higher quality inertial measurement unit. The use of several inertial measurement units makes it possible to distribute these on the structure of the launcher. The effect of the positioning of these measurement units is evaluated by comparing navigation solutions of which all the sensors are placed in the head of the launcher to a solution where the sensors are distributed in the head of each stage of the launcher. Some approaches for merging the inertial measurement units data are tested; fusion of all the inertial measurement units in a single inertial navigation system, fusion of several inertial navigation systems and fusion of several inertial navigation systems with geometric constraints. For many of the proposed solutions as well as for several others already in existence, an exhaustive study of the observability is carried out. The observability is verified using the observability matrix, the study of the propagation of the covariance matrix and the analysis of the sensitivity to measurement outliers. Finally, a simplified method for evaluating the performance of inertial navigation solutions on a fixed trajectory is presented. The results show that the use of the reference trajectory data makes it possible to improve the roll estimate. However, adding these data does not improve the observability of the base model on which they are added. The use of a stochastic model of the launcher dynamics provides marginal gains on attitude, velocity and position estimates. On the other hand, this approach substantially improves the acceleration and angular velocity estimates. The distribution of inertial sensors on the launcher structure does not improve navigation accuracy. The latter is even degraded when sensors are lost due to stage jettisoning. Merging several inertial measurement units with a single inertial navigation system provides performance equivalent to that achieved with a single inertial measurement unit. On the other hand, the fusion of several inertial navigation systems makes it possible to reduce the estimation error. Moreover, additional gains can be obtained when geometric constraints on the relative attitude, velocity and position between inertial navigation systems are added to this latter approach. Observability tests have shown that modelling sensor biases by a Markov process rather than a random walk has little impact on the observability of the model. In addition, on a short-term mission, the choice of the model to represent the sensor bias has only a negligible effect on the precision of the estimates. Observability analyzes have also shown that the use of a single GPS receiver is not sufficient to ensure the observability of the roll and that the position measurement bias of the GPS receiver is not observable.
2

Solutions de navigation pour lanceurs de satellites : observabilité et nouvelles approches

Beaudoin, Yanick 24 April 2019 (has links)
Cette recherche évalue de nouvelles approches pour améliorer la performance des solutions de navigation pour lanceurs de satellite. La première est l’utilisation des données de la trajectoire de référence. L’idée de cette approche est de pondérer, tout au long de la mission, la confiance sur le fait que le lanceur suit la trajectoire prédite afin d’exploiter les données d’attitude de la trajectoire de référence dans la solution de navigation. La seconde approche est l’ajout d’un modèle stochastique du lanceur à la solution de navigation. Pour ce modèle, l’accélération et la vélocité angulaire sont représentées par une marche aléatoire dont la variance est ajustée en fonction de la connaissance des forces agissantes sur le lanceur. Finalement, l’usage de plusieurs unités de mesures inertielles bas de gamme est comparé à l’usage d’une seule unité de mesures inertielles de meilleure qualité. Le recours à plusieurs unités de mesures inertielles permet de répartir celles-ci sur la structure du lanceur. L’effet du positionnement de ces unités de mesures est évalué en comparant des solutions de navigation dont tous les capteurs sont placés dans la tête du lanceur à une solution où les capteurs sont répartis dans la tête de chacun des étages du lanceur. Quelques approches pour effectuer la fusion des unités de mesures inertielles sont testées ; fusion de toutes les unités de mesures dans une seule centrale inertielle, fusion de plusieurs centrales inertielles et fusion de plusieurs centrales inertielles avec contraintes géométrique. Pour plusieurs des solutions proposées ainsi que pour plusieurs autres déjà existantes, une étude exhaustive de l’observabilité est effectuée. L’observabilité est vérifiée à l’aide de la matrice d’observabilité, de l’étude de la propagation de la matrice de covariance et de l’analyse à la sensibilité à une mesure aberrante. Finalement, une méthode simplifiée pour évaluer les performances des solutions de navigation inertielle sur une trajectoire fixe est présentée. Les résultats montrent que l’usage des données de la trajectoire de référence permet de réduire l’erreur d’estimation du roulis. Cependant, l’ajout de ces données n’améliore pas l’observabilité du modèle de base sur lequel celles-ci sont ajoutées. Le recours à un modèle stochastique de la dynamique du lanceur n’apporte que des gains marginaux sur les estimations d’attitude, de vélocité et de position. Par contre, cette approche améliore substantiellement les estimations d’accélération et de vélocité angulaire. La distribution des capteurs inertiels sur la structure du lanceur n’améliore pas la précision de navigation. Cette dernière est même dégradée lorsque des capteurs sont perdus en raison des largages d’étages. La fusion de plusieurs unités de mesures inertielles à l’aide d’une centrale inertielle offre des performances équivalentes à celles obtenues avec une seule unité de mesure. Par contre, la fusion de plusieurs centrales inertielles permet de réduire l’erreur d’estimation. Qui plus est, des gains additionnels peuvent être obtenus lorsque des contraintes géométriques sur l’attitude, la vélocité et la position relatives entre les centrales inertielles sont ajoutées à cette dernière approche. Les tests d’observabilité ont montré que la modélisation des biais de capteurs par un processus de Markov plutôt que par une marche aléatoire a peu d’impact sur l’observabilité du modèle. De plus, sur une mission de courte durée, le choix du modèle pour représenter les biais de capteurs n’a qu’un effet négligeable sur la précision des estimations. Les analyses d’observabilité ont aussi montré que le recours à un seul récepteur GPS n’est pas suffisant pour assurer l’observabilité du roulis et que le biais de mesure de position du récepteur GPS n’est pas observable. / This research evaluates new approaches to improve the performance of navigation solutions for satellite launchers. The first is the use of data from the reference trajectory. The idea of this approach is to weigh, throughout the mission, the confidence that the launcher follows the predicted trajectory in order to exploit the attitude data of the reference trajectory in the navigation solution. The second approach is to add a stochastic model of the launcher to the navigation solution. For this model, the acceleration and the angular velocity are represented by a random walk whose variance is adjusted according to the knowledge of the forces acting on the launcher. Finally, the use of several low-end inertial measurement units is compared to the use of a single higher quality inertial measurement unit. The use of several inertial measurement units makes it possible to distribute these on the structure of the launcher. The effect of the positioning of these measurement units is evaluated by comparing navigation solutions of which all the sensors are placed in the head of the launcher to a solution where the sensors are distributed in the head of each stage of the launcher. Some approaches for merging the inertial measurement units data are tested; fusion of all the inertial measurement units in a single inertial navigation system, fusion of several inertial navigation systems and fusion of several inertial navigation systems with geometric constraints. For many of the proposed solutions as well as for several others already in existence, an exhaustive study of the observability is carried out. The observability is verified using the observability matrix, the study of the propagation of the covariance matrix and the analysis of the sensitivity to measurement outliers. Finally, a simplified method for evaluating the performance of inertial navigation solutions on a fixed trajectory is presented. The results show that the use of the reference trajectory data makes it possible to improve the roll estimate. However, adding these data does not improve the observability of the base model on which they are added. The use of a stochastic model of the launcher dynamics provides marginal gains on attitude, velocity and position estimates. On the other hand, this approach substantially improves the acceleration and angular velocity estimates. The distribution of inertial sensors on the launcher structure does not improve navigation accuracy. The latter is even degraded when sensors are lost due to stage jettisoning. Merging several inertial measurement units with a single inertial navigation system provides performance equivalent to that achieved with a single inertial measurement unit. On the other hand, the fusion of several inertial navigation systems makes it possible to reduce the estimation error. Moreover, additional gains can be obtained when geometric constraints on the relative attitude, velocity and position between inertial navigation systems are added to this latter approach. Observability tests have shown that modelling sensor biases by a Markov process rather than a random walk has little impact on the observability of the model. In addition, on a short-term mission, the choice of the model to represent the sensor bias has only a negligible effect on the precision of the estimates. Observability analyzes have also shown that the use of a single GPS receiver is not sufficient to ensure the observability of the roll and that the position measurement bias of the GPS receiver is not observable.
3

Multimodal implantable neural interfacing microsystem

Rezaei, Masoud 12 September 2019 (has links)
Afin d’étudier le cerveau humain dans le but d’aider les patients souffrant de maladies neurologiques, on a besoin d’une interface cérébrale entièrement implantable pour permettre l’accès direct aux neurones et enregistrer et analyser l’activité neuronale. Dans cette thèse, des interfaces cerveau-machine implantables (IMC) à très faible puissance basées sur plusieurs circuits et innovations de systèmes ont été étudiées pour être utilisées comme analyseur neuronal. Un tel système est destiné à recueillir l’activité neuronale émise par centaines de neurones tout en les activant à la demande en utilisant des moyens d’actionnement tels que l’électro- et / ou la photo-stimulation. Un tel système doit fournir plusieurs canaux d’enregistrement, tout en consommant très peu d’énergie, et présente une taille extrêmement réduite pour la sécurité et la biocompatibilité. Typiquement, un microsystème d’interfaçage avec le cerveau comprend plusieurs blocs, tels qu’un bloc analogique d’acquisition (AFE), un convertisseur analogique-numérique (ADC), des modules de traitement de signal numérique et un émetteur-récepteur de données sans fil. Un IMC extrait les signaux neuronaux du bruit, les numérise et les transmet à une station de base sans interférer avec le comportement naturel du sujet. Cette thèse se concentre sur les blocs analogiques d’acquisition à très faible consommation à utiliser dans l’IMC. Cette thèse présente des frontaux avec plusieurs stratégies innovantes pour consommer moins d’énergie tout en permettant des données de haute résolution et de haute qualité. Premièrement, nous présentons une nouvelle structure frontale utilisant un schéma de réutilisation du courant. Cette structure est extensible à un très grand nombre de canaux d’enregistrement, grâce à sa petite taille de silicium et à sa faible consommation d’énergie. L’AFE à réutilisation de courant proposée, qui comprend un amplificateur à faible bruit (LNA) et un amplificateur à gain programmable (PGA), utilise une nouvelle topologie de miroir de courant entièrement différentielle utilisant moins de transistors et améliorant plusieurs paramètres de conception, tels que la consommation d’énergie et du bruit, par rapport aux mises en oeuvre de circuit d’amplificateur de réutilisation de courant précédentes. Ensuite, dans la deuxième partie de cette thèse, nous proposons un nouveau convertisseur sigmadelta multicanal qui convertit plusieurs canaux indépendamment en utilisant un seul amplificateur et plusieurs condensateurs de stockage de charge. Par rapport aux techniques conventionnelles, cette méthode applique un nouveau schéma de multiplexage entrelacé, qui ne nécessite aucune phase de réinitialisation pour l’intégrateur lors du passage à un nouveau canal, ce qui améliore sa résolution. Lorsque la taille des puces n’est pas une priorité, d’autres approches peuvent être plus attrayantes, et nous proposons une nouvelle stratégie d’économie d’énergie basée sur un nouveau convertisseur sigma-delta à très basse consommation conçu pour réduire la consommation d’énergie. Ce nouveau convertisseur utilise une architecture basse tension basée sur une topologie prédictive innovante qui minimise la non-linéarité associée à l’alimentation basse tension. / Studying brain functionality to help patients suffering from neurological diseases needs fully implantable brain interface to enable access to neural activities as well as read and analyze them. In this thesis, ultra-low power implantable brain-machine-interfaces (BMIs) that are based on several innovations on circuits and systems are studied for use in neural recording applications. Such a system is intended to collect information on neural activity emitted by several hundreds of neurons, while activating them on demand using actuating means like electro- and/or photo-stimulation. Such a system must provide several recording channels, while consuming very low energy, and have an extremely small size for safety and biocompatibility. Typically, a brain interfacing microsystem includes several building blocks, such as an analog front-end (AFE), an analog-to-digital converter (ADC), digital signal processing modules, and a wireless data transceiver. A BMI extracts neural signals from noise, digitizes them, and transmits them to a base station without interfering with the natural behavior of the subject. This thesis focuses on ultra-low power front-ends to be utilized in a BMI, and presents front-ends with several innovative strategies to consume less power, while enabling high-resolution and high-quality of data. First, we present a new front-end structure using a current-reuse scheme. This structure is scalable to huge numbers of recording channels, owing to its small implementation silicon area and its low power consumption. The proposed current-reuse AFE, which includes a low-noise amplifier (LNA) and a programmable gain amplifier (PGA), employs a new fully differential current-mirror topology using fewer transistors. This is an improvement over several design parameters, in terms of power consumption and noise, over previous current-reuse amplifier circuit implementations. In the second part of this thesis, we propose a new multi-channel sigma-delta converter that converts several channels independently using a single op-amp and several charge storage capacitors. Compared to conventional techniques, this method applies a new interleaved multiplexing scheme, which does not need any reset phase for the integrator while it switches to a new channel; this enhances its resolution. When the chip area is not a priority, other approaches can be more attractive, and we propose a new power-efficient strategy based on a new in-channel ultra-low power sigma-delta converter designed to decrease further power consumption. This new converter uses a low-voltage architecture based on an innovative feed-forward topology that minimizes the nonlinearity associated with low-voltage supply.
4

Advanced modulation for optical communication systems

Yekani Khoei, Aminreza 21 February 2019 (has links)
La demande toujours croissante pour la capacité du réseau conduit au développement de systèmes de communication optique pour couvrir les normes Terabit Ethernet récemment proposées. Les applications de courte distance nécessitent une solution peu coûteuse et peu complexe avec détection directe. Cependant, le coût de la détection cohérente diminue chaque jour et en fait un bon candidat pour les applications à courte distance futures afin d'accroître l'efficacité spectrale et d'utiliser des formats de modulation avancés. Dans cette thèse, nous étudions des solutions pour les applications court-courrier actuelles et futures. Dans la première partie, nous nous concentrons sur des solutions pour les applications de courte distance. Le premier chapitre est la première démonstration de la transmission multi-tonalité discrète (DMT) à plus de 100 Gb/s en utilisant une photonique au silicium en bande O (SiP). Nous comparons expérimentalement le DMT avec la modulation d'amplitude d'impulsion (PAM) sur la bande O. Notre expérience montre qu'en augmentant la longueur des fibres de plus de 10 km, la PAM surpasse le DMT. Pour la bande C, nous utilisons un multi-ton discret à bande latérale unique (SSB-DMT) pour éviter l'effet d'évanouissement de la puissance induit par la dispersion chromatique. Nous étudions l'effet du bruit de phase, de la dispersion chromatique et de la sensibilité du récepteur pour optimiser le signal du DMT et extraire des équations théoriques pour calculer le taux d'erreur binaire (BER) du SSB-DMT. Ensuite, nous comparons la PAM sur bande O avec le SSB-DMT sur bande C et quantifions l'impact des limitations imposées par le matériel sur les deux formats de modulation. Notre étude fournit un outil analytique pour les applications de courte distance afin de sélectionner le format et le matériel de modulation appropriés en fonction de la portée requise, du débit binaire, etc. Dans la deuxième partie, le ciblage des futurs systèmes de détection cohérents justifié l'utilisation d'un format de modulation complexe avec détection cohérente. Nous utilisons un format de modulation avancé dans lequel nous avons combiné la propagation de transformée de Fourier discrète avec le DMT pour augmenter l'efficacité spectrale. Le format de modulation hybride a un rapport de puissance crête à moyenne inférieur (vis-à-vis du DMT) et une efficacité spectrale plus élevée (vis-à-vis de la QAM _a porteuse unique). Dans la première étape, nous comparons expérimentalement les performances des modulations hybrides, DMT standard et monoporteuse en utilisant un modulateur SiP IQ. Ensuite, nous développons une stratégie de contrôle pour le format de modulation hybride en échangeant la non-linéarité de la fonction de transfert du modulateur et le rapport signal / bruit optique. Le format de modulation hybride est ensuite optimisé pour avoir un débit maximum. En utilisant une simulation de Monte Carlo, nous comparons le format de modulation hybride optimisé avec le DMT standard pour différents débits binaires. Enfin, nous avons une comparaison de complexité entre hybride et DMT pour différentes longueurs de fibre. / Ever increasing demand for network capacity is driving the development of optical communication systems to cover recently proposed Terabit Ethernet standards. Short haul applications need low cost and low complexity solutions with direct detection, as the cost of coherent detection comes down, it will become a good candidate for future short-haul applications to increase spectral efficiency and exploit advanced modulation formats. In this thesis, we investigate solutions for both current and future short-haul systems. In the first part, we focus on solutions for short haul applications. The first chapter is the first time demonstration of more than 100 Gb/s discrete multi-tone (DMT) transmission using an O-band silicon photonics (SiP). We experimentally compare DMT with pulse amplitude modulation (PAM) on O-band. Our experiment shows that by increasing fiber length more than 10 km, PAM outperforms DMT. For C-band, we use single sideband discrete multi-tone (SSB-DMT) to avoid chromatic dispersion-induced power fading e_ect. We study the effect of phase noise, chromatic dispersion, and receiver sensitivity to optimize DMT signal and extract theoretical equations to calculate bit error rate (BER) of SSB-DMT. Next, we analytically compare PAM on O-band with SSB-DMT on C-band and quantify the impact of hardware-imposed limitations on both modulation formats. Our study provides an analytical tool for short haul applications to select appropriate modulation format and hardware based on required reach, bit rate, etc. In the second part we examine complex modulation formats that will be enabled in the future by low cost, integrated components for coherent detection.. We use an advanced modulation format in which we combined discrete Fourier transform spread with DMT to increase spectral efficiency. Hybrid modulation format has a lower peak to average power ratio (vis-a-vis DMT) and higher spectral efficiency (vis-a-vis single carrier QAM). In the first step, we experimentally compare the performance of the hybrid, standard DMT, and single carrier modulations using a SiP IQ modulator. Next, we develop a driving strategy for hybrid modulation format by trading off the modulator transfer function non-linearity and optical signal to noise ratio. Then hybrid modulation format is optimized to have maximum throughput. Using Monte Carlo simulation we compare optimized hybrid modulation format with standard DMT for different bit rates. Finally, we have a complexity comparison between hybrid and DMT for different fiber lengths to motivate same investigation for long-haul applications where, we should consider fiber non-linearity, attenuation, a polarization multiplexing.
5

Noise model for a dual frequency comb beat

Perilla Rozo, Carlos Andres 11 April 2019 (has links)
Cette thèse porte sur le raffinement d’un modèle du bruit utilisé pour des mesures spectroscopiques réalisées avec des peignes de fréquences optiques. La majorité des travaux antérieurs utilisaient des peignes de fréquences où le glissement (chirp) est minimisé, en supposant que tout glissement différentiel entre les peignes allait réduire le rapport signal sur bruit. L’hypothèse sous-jacente était que l’impact du bruit multiplicatif serait augmenté, le glissement lui permettant d’agir plus longtemps sur le signal d’interférence. Cependant, d’autres recherches indiquaient plutôt contraire : le chirp pourrait améliorer la mesure. Cette thèse cherche à augmenter la compréhension du comportement du bruit lorsque les peignes ont des glissements différentiels. De plus, celle-ci apporte de nouvelles évidences sur l’utilité du chirp dans ce type de mesure. À cet effet, nous avons fait une révision bibliographique des modèles du bruit dans les peignes de fréquences optiques. Ensuite, du point de vue théorique, nous avons analysé les effets du chirp sur les bruits additifs et multiplicatifs. Pour le bruit d’intensité, nous avons proposé un modèle phénoménologique décrivant le comportement de l’émission spontanée amplifiée (ASE) dans un laser à verrouillage de mode par rotation non linéaire de polarisation. Les spectres des peignes et leurs battements ont été caractérisés en portant une attention particulière à leur relation avec l’ASE. La thèse permet de conclure que le chirp différentiel n’affecte pas les niveaux des densités spectrales de bruit. Grâce au glissement différentiel de fréquence, il est possible d’envoyer plus puissance à l’échantillon et ainsi améliorer le rapport signal sur bruit des instruments à peignes de fréquence. D’un autre côté, la caractérisation de l’ASE a établi sa nature non-stationnaire. Elle a aussi expliqué des attributs spectraux qui sont observés régulièrement dans les signaux de battement des peignes. Finalement, en supposant que l’ASE circule largement dans une cavité opérée sous le seuil, sa caractérisation fournit une méthode pour estimer le déphasage non linéaire que subit le train d’impulsions femtosecondes. / This thesis proposes a noise model refinement for spectroscopic measurements using dual optical frequency combs. Until now most studies centered their efforts on noise characterization using chirp free combs based on an unproved hypothesis: measurements would get worse with chirped combs since multiplicative noises would be present over a longer duration on the interference pattern thus leading to a greater impact. However, at least one experimental result hinted to the contrary: differential chirp would actually improve the signal to noise ratio. This thesis therefore aims at increasing the understanding of noise when a differential chirp is present in a dual comb measurement. The specific goal is to provide new insights about the usefulness of chirp in this kind of measurement. With this in mind, we conducted a literature review of noise models in optical frequency combs. We subsequently analyzed the chirp’s effect in the presence of both additive and multiplicative noise. The thesis also proposes a phenomenological model to describe the amplified spontaneous emission - ASE in short pulse lasers mode locked using non linear polarization rotation. Finally the comb spectra and their beat notes are characterized putting special attention to their relation with the ASE components. As conclusions, we can report that noise power spectral density levels do not change with a differential chirp. Chirping allows sending a greater optical power through the sample, such that the measurement signal to noise ratio can be improved. On the other hand, the ASE characterization established its non-stationary nature and explained very well characteristic features routinely observed in dual comb beat notes that were not fully understood. Finally, assuming the ASE experiences a sub threshold linear cavity allows using theses features to estimate the non linear phase shift experienced by the modelocked pulse train in the laser cavity.
6

High-coherence dual-comb interferometry with free-running lasers

Bourbeau Hébert, Nicolas 15 October 2019 (has links)
La spectroscopie double-peigne est une technique qui consiste à faire interférer deux peignes de fréquences laser légèrement désynchronisés ayant sondé un échantillon afin de retrouver sa signature spectrale avec une haute résolution et à grande vitesse. Cependant, elle requiert deux lasers qui sont mutuellement cohérents, une contrainte qui est habituellement satisfaite par stabilisation active au prix d’une plus grande complexité matérielle. Cette thèse aborde ce problème en présentant des solutions qui permettent l’utilisation de peignes en opération libre, simplifiant ainsi la technique du double-peigne. On démontre d’abord une plateforme laser compacte capable de générer une paire de peignes de fréquences qui sont affectés de manière similaire par les perturbations environnementales. Elle est basée sur une puce de verre dopée à l’erbium contenant plusieurs guides d’ondes inscrits par laser et séparés de quelques centaines de microns. Deux guides adjacents sont pompés simultanément et opérés en régime de synchronisation modale à ∼ 1 GHz dans la bande de 1.5 μm pour fournir une paire de peignes corrélés. Le bruit de fréquence en opération libre de cette source est ensuite caractérisé et on estime un temps de cohérence mutuelle qui dépasse le temps de mesure requis pour obtenir un spectre à haute résolution. Ceci est rendu possible grâce à l’utilisation de lasers qui sont intrinsèquement peu bruités, à l’intégration mécanique de la source, et à l’utilisation d’une grande différence entre les cadences des peignes. On présente aussi deux algorithmes de correction qui, lorsque combinés avec notre source double-peigne, permettent d’étendre artificiellement son temps de cohérence afin d’augmenter le temps de moyennage utile sans sacrifier la résolution spectrale. Ces algorithmes estiment et compensent la phase et le temps d’arrivée des interférogrammes mesurés, et ce sans recourir à aucune mesure externe des fluctuations des peignes. Ils sont d’abord décrits en détail puis leurs limites sont déterminées de façon quantitative à partir des paramètres des peignes et de leur bruit de fréquence relatif, où une grande différence entre les cadences apparaît comme étant la clé d’une correction réussie. Finalement, les performances du spectromètre double-peigne assisté par la correction logicielle sont démontrées en mesurant le spectre de transmission de l’acétylène et du cyanure d’hydrogène avec un échantillonnage spectral de ∼1 GHz. La qualité des mesures est validée par comparaison avec des spectres simulés à partir de données connues. / Dual-comb spectroscopy is a technique where two slightly detuned laser frequency combs are interfered together after probing a sample under study in order to retrieve its spectral signature with a high resolution and at high speed. However, it requires two lasers that are mutually coherent, a constraint that is most often satisfied by active stabilization at the cost of an increased hardware complexity. This thesis tackles this issue by presenting solutions that allow the use of free-running combs, thus simplifying the dual-comb technique. First, we demonstrate a compact laser platform able to generate a pair of frequency combs that are similarly affected by environmental perturbations. It is based on an erbium-doped glass chip containing a number of ultrafast-laser-inscribed waveguides separated by a few hundred microns. Two adjacent waveguides are pumped simultaneously and passively mode-locked at ∼1 GHz in the 1.5 μm band to deliver a pair of correlated frequency combs. The free-running frequency noise of this source is characterized thoroughly and its mutual coherence time is found to exceed the measurement time required to retrieve a high-resolution spectrum. This is made possible by the use of intrinsically low-noise waveguide lasers, by the dual-comb source’s mechanical integration, and by the use of a large repetition rate difference between the combs. We also present two correction algorithms that, when combined with our dual-comb source, allow to artificially extend its coherence time in order to increase the useful averaging time without sacrificing the spectral resolution. These algorithms work by estimating and compensating the phase and timing of the measured interferograms without relying on any external measurement of the combs’ fluctuations. They are first described in detail and their limitations are determined quantitatively in terms of the combs’ parameters and relative frequency noise, where a large repetition rate difference appears to be the key to a successful correction. Finally, the performance of the dual-comb spectrometer assisted by a software correction is demonstrated by measuring the transmission spectrum of acetylene and hydrogen cyanide with a spectral sampling of ∼1 GHz. The quality of the measurements is validated by comparison to spectra simulated from known data.
7

Système de suivi de mouvement

Rezaei, Zahra 15 November 2019 (has links)
Le comportement des petits animaux est important pour les chercheurs scientifiques et précliniques; ils veulent connaître les effets des interventions sur leur vie naturelle. Pour les maladies humaines, les rongeurs sont utilisés comme modèles. L’étude du comportement des rongeurs permet d’identifier et de développer de nouveaux médicaments pour les troubles psychiatriques et neurologiques. La surveillance des animaux peut être traitée et un grand nombre de données traitées peuvent conduire à de meilleurs résultats de recherche dans un temps plus court. Ce mémoire présente le système de suivi du comportement des rongeurs basé sur des techniques de vision numérique. En vision numérique, la détection d’un sujet consiste à balayer et à rechercher un objet dans une image ou une vidéo (qui n’est qu’une séquence d’images), mais la localisation d’un objet dans des images successives d’une vidéo est appelée suivi. Pour trouver la position d’un sujet dans une image, nous avons utilisé la détection du sujet et le suivi, car le suivi peut aider lorsque la détection échoue et vice et versa. Avec cette approche, nous pouvons suivre et détecter tout type du sujet (souris, headstage, ou par exemple un ballon). Il n’y a pas de dépendance au type de caméra. Pour trouver un sujet dans une image, nous utilisons l’algorithme AdaBoost en ligne qui est un algorithme de suivi du sujet et l’algorithme de Canny qui est un algorithme de détection du sujet, puis nous vérifions les résultats. Si l’algorithme Adaboost en ligne n’a pas pu trouver le sujet, nous utilisons l’algorithme Canny pour le trouver. En comparant les résultats de notre approche avec les résultats des algorithmes AdaBoost en ligne et Canny séparément, nous avons constaté que notre approche permet de mieux trouver le sujet dans l’image que lorsque nous utilisons ces deux algorithmes séparément. Dans ce mémoire, nous décrirons les algorithmes de détection et de suivi du sujet. / Small animal behavior is important for science and preclinical researchers; they want to know the effects of interventions in their natural life. For human diseases, rodents are used as models; studying rodent behavior is good for identifying and developing new drugs for psychiatric and neurological disorders. Animal monitoring can be processed and a large number of data can lead to better research result in a shorter time. This thesis introduces the rodents’ behavior tracking system based on computer vision techniques. In computer vision, object detection is scanning and searching for an object in an image or a video (which is just a sequence of images) but locating an object in successive frames of a video is called tracking. To find the position of an object in an image, we use object detection and object tracking together because tracking can help when detection fails and inversely. With this approach, we can track and detect any objects (mouse, headstage, or a ball). There is no dependency to the camera type. To find an object in an image we use the online AdaBoost algorithm, which is an object tracking algorithm and the Canny algorithm, which is an object detection algorithm together, then we check the results. If the online Adaboost algorithm could not find the object, we use the Canny algorithm to find the object. By comparing the results of our approach with the results of the online AdaBoost and Canny algorithms separately, we found that our approach can find the object in the image better than when we use these two algorithms separately. In this thesis, we will describe implemented object detection and tracking algorithms.
8

A Machine Learning Approach for the Smart Charging of Electric Vehicles

Lopez, Karol Lina 07 May 2019 (has links)
Avec l’adoption croissante des véhicules électriques, il y a un intérêt pour utiliser des tarifs dynamiques dont le prix dépend de la demande actuelle, pour encourager les utilisateurs à recharger leurs véhicules en période de faible demande évitant les pics d’électricité pouvant dépasser la capacité installée. Le problème que devaient affronter les utilisateurs de véhicules électriques est qu’ils doivent s’assurer que l’énergie électrique présente dans les batteries est suffisante pour les déplacements et que les périodes de recharge correspondent à des périodes où le prix de l’électricité est bas. La plupart des approches actuelles de planification de recharge supposent une connaissance parfaite des futurs prix de l’électricité et de l’utilisation du véhicule, ce qui nuit à leur applicabilité dans la pratique. Cette thèse considère la modélisation de la recharge intelligente des véhicules électriques pour déterminer, lors des sessions de connexion, les moments où le véhicule doit se recharger afin de minimiser le coût payé pour l’énergie de ses déplacements. La thèse comporte quatre principales contributions: 1) Modèle de recharge optimale des véhicules électriques pour générer une série de décisions en utilisant la connaissance a priori du prix de l’électricité et de l’énergie utilisée, en utilisant la programmation dynamique comme méthode d’optimisation. 2) Création d’un modèle de système d’information incluant des variables connexes au modèle de recharge des véhicules électriques dans un cadre guidé par des données. 3) Méthode de sélection des données pertinentes utilisant la stratification de données pouvant réduire significativement le temps requis pour entraîner les modèles de prévision avec des résultats proches de ceux obtenus en utilisant l’ensemble de données complet. 4) Modèle de classification en ligne qui permet de déterminer s’il faut charger ou non le véhicule à l’aide de modèles d’apprentissage automatique qui peuvent générer, en temps réel, une décision de recharge quasi-optimale sans tenir compte d’une connaissance de l’information future. Nous démontrons comment la combinaison d’une méthode d’optimisation hors ligne, telle que la programmation dynamique, avec des modèles d’apprentissage automatique et un système d’information adéquat peut fournir une solution très proche de l’optimum global, sans perte d’applicabilité dans le monde réel. De plus, la polyvalence de l’approche proposée permet d’envisager l’intégration d’un plus grand nombre de variables à l’entrée du modèle, ainsi que d’autres actions comme par exemple fournir d’énergie au réseau électrique pour aider à réduire les pics de demande ce qui pourrait être utile dans un contexte de vehicle-to-grid (V2G). / With the increasing adoption of electric vehicles, there is an interest to use dynamic tariffs where the price depends on the current demand, encouraging users to charge their vehicles in periods of low demand, avoiding electricity peaks that may exceed the installed capacity. The issue an electric vehicle user must tackle is that it should ensure that its electric power is sufficient for its trips and that the recharge periods correspond to periods where the price of electricity is low. Most current charge scheduling approaches assume a perfect knowledge of the future prices and car usage, which hinders their applicability in practice. This thesis considers the modelling of the intelligent recharge of electric vehicles to determine, during the connection sessions, the times when the vehicle may be charged in order to minimize the overall energy cost. The thesis has four main contributions: 1) Optimum electric vehicle recharge model to generate a series of decisions using full knowledge of the price of electricity and energy used using dynamic programming as a method of optimization. 2) Creation of an information system model which includes variables relevant to the recharging model of electric vehicles in a framework data-driven. 3) Method of selecting relevant data using the stratification by clusters which can significantly decrease the time required to train forecasting models with results close to those obtained using the complete dataset. 4) Classification model which allows the determination of whether or not to charge the vehicle using machine learning models that can generate, in real time, a near-optimal recharge decision without considering perfect knowledge of the future information. We demonstrated how combining an offline optimization method, such as dynamic programming with machine learning models and a coherent information system can provide a solution very close to the global optimum without loss of applicability in real-world. Moreover, the versatility of the proposed approach allows the consideration of the integration of a larger set of variables at the input of the model, as well as other actions such as for example supplying energy to the network to further help reducing demand peaks which could be useful in a vehicle-to-grid context (V2G).
9

Interfaces neuronales CMOS haute résolution pour l'électrophysiologie et l'optogénétique en boucle fermée

Gagnon-Turcotte, Gabriel 16 September 2019 (has links)
L’avenir de la recherche sur les maladies du cerveau repose sur le développement de nouvelles technologies qui permettront de comprendre comment cet organe si complexe traite, intègre et transfère l’information. Parmi celles-ci, l’optogénétique est une technologie révolutionnaire qui permet d’utiliser de la lumière afin d’activer sélectivement les neurones du cortex d’animaux transgéniques pour observer leur effet dans un vaste réseau biologique. Ce cadre expérimental repose typiquement sur l’observation de l’activité neuronale de souris transgéniques, car elles peuvent exprimer une grande variété de gènes et de maladies et qu’elles sont peu couteuses. Toutefois, la plupart des appareils de mesure ou de stimulation optogénétique disponible ne sont pas appropriés, car ils sont câblés, trop lourds et/ou trop simplistes. Malheureusement, peu de systèmes sans fil existent, et ces derniers sont grandement limités par la bande passante requise pour transmettre les données neuronales, et ils ne fournissent pas de stimulation optogénétique multicanal afin de stimuler et observer plusieurs régions du cerveau. Dans les dispositifs actuels, l’interprétation des données neuronales est effectuée ex situ, alors que la recherche bénéficierait grandement de systèmes sans fil assez intelligents pour interpréter et stimuler les neurones en boucle fermée, in situ. Le but de ce projet de recherche est de concevoir des circuits analogiques-numériques d’acquisition et de traitement des signaux neuronaux, des algorithmes d’analyse et de traitement de ces signaux et des systèmes electro-optiques miniatures et sans fil pour : i) Mener des expériences combinant l’enregistrement neuronal et l’optogénétique multicanal haute résolution avec des animaux libres de leurs mouvements. ii) Mener des expériences optogénétiques synchronisées avec l’observation, c.-à-d. en boucle fermée, chez des animaux libres de leurs mouvements. iii) Réduire la taille, le poids et la consommation énergétique des systèmes optogénétiques sans fil afin de minimiser l’impact de la recherche chez de petits animaux. Ce projet est en 3 phases, et ses principales contributions ont été rapportées dans dix conférences internationales (ISSCC, ISCAS, EMBC, etc.) et quatre articles de journaux publiés ou soumis, ainsi que dans un brevet et deux divulgations. La conception d’un système optogénétique haute résolution pose plusieurs défis importants. Notamment, puisque les signaux neuronaux ont un contenu fréquentiel élevé (_10 kHz), le nombre de canaux sous observation est limité par la bande passante des transmetteurs sans fil (2-4 canaux en général). Ainsi, la première phase du projet a visé le développement d’algorithmes de compression des signaux neuronaux et leur intégration dans un système optogénétique sans fil miniature et léger (2.8 g) haute résolution possédant 32 canaux d’acquisition et 32 canaux de stimulation optique. Le système détecte, compresse et transmet les formes d’onde des potentiels d’action (PA) produits par les neurones avec un field programmable gate array (FPGA) embarqué à faible consommation énergétique. Ce processeur implémente un algorithme de détection des PAs basé sur un seuillage adaptatif, ce qui permet de compresser les signaux en transmettant seulement les formes détectées. Chaque PA est davantage compressé par une transformée en ondelette discrète (DWT) de type Symmlet-2 suivie d’une technique de discrimination et de requantification dynamique des coefficients. Les résultats obtenus démontrent que cet algorithme est plus robuste que les méthodes existantes tout en permettant de reconstruire les signaux compressés avec une meilleure qualité (SNDR moyen de 25 dB _ 5% pour un taux de compression (CR) de 4.2). Avec la détection, des CR supérieurs à 500 sont rapportés lors de la validation in vivo. L’utilisation de composantes commerciales dans des systèmes optogénétiques sans fil augmente / la taille et la consommation énergétique, en plus de ne pas être optimisée pour cette application. La seconde phase du projet a permis de concevoir un système sur puce (SoC) complementary metal oxide semiconductor (CMOS) pour faire de l’enregistrement neuronal et de optogénétique multicanal, permettant de réduire significativement la taille et la consommation énergétique comparativement aux alternatives commerciales. Ceci est une contribution importante, car c’est la première puce à être doté de ces deux fonctionnalités. Le SoC possède 10 canaux d’enregistrement et 4 canaux de stimulation optogénétique. La conception du bioamplificateur inclut une bande passante programmable (0.5 Hz - 7 kHz) et un faible bruit referré à l’entré (IRN de 3.2 μVrms), ce qui permet de cibler différents types de signaux biologiques (PA, LFP, etc.). Le convertisseur analogique numérique (ADC) de type Delta- Sigma (DS) MASH 1-1-1 est conçu pour fonctionner de faibles taux de sur-échantillonnage (OSR _50) pour réduire sa consommation et possède une résolution programmable (ENOB de 9.75 Bits avec un OSR de 25). Cet ADC exploite une nouvelle technique réduisant la taille du circuit en soustrayant la sortie de chaque branche du DS dans le domaine numérique, comparativement à la méthode analogique classique. La consommation totale d’un canal d’enregistrement est de 11.2 μW. Le SoC implémente un nouveau circuit de stimulation optique basé sur une source de courant de type cascode avec rétroaction, ce qui permet d’accommoder une large gamme de LED et de tensions de batterie comparativement aux circuits existants. Le SoC est intégré dans un système optogénétique sans fil et validé in vivo. À ce jour et en excluant ce projet, aucun système sans-fil ne fait de l’optogénétique en boucle fermée simultanément au suivi temps réel de l’activité neuronale. Une contribution importante de ce travail est d’avoir développé le premier système optogénétique multicanal qui est capable de fonctionner en boucle fermée et le premier à être validé lors d’expériences in vivo impliquant des animaux libres de leurs mouvements. Pour ce faire, la troisième phase du projet a visé la conception d’un SoC CMOS numérique, appelé neural decoder integrated circuit (ND-IC). Le ND-IC et le SoC développé lors de la phase 2 ont été intégrés dans un système optogénétique sans fil. Le ND-IC possède 3 modules : 1) le détecteur de PA adaptatif, 2) le module de compression possédant un nouvel arbre de tri pour discriminer les coefficients, et 3) le module de classement automatique des PA qui réutilise les données générées par le module de détection et de compression pour réduire sa complexité. Un lien entre un canal d’enregistrement et un canal de stimulation est établi selon l’association de chaque PA à un neurone, grâce à la classification, et selon l’activité de ce neurone dans le temps. Le ND-IC consomme 56.9 μW et occupe 0.08 mm2 par canal. Le système pèse 1.05 g, occupe un volume de 1.12 cm3, possède une autonomie de 3h, et est validé in vivo. / The future of brain research lies in the development of new technologies that will help understand how this complex organ processes, integrates and transfers information. Among these, optogenetics is a recent technology that allows the use of light to selectively activate neurons in the cortex of transgenic animals to observe their effect in a large biological network. This experimental setting is typically based on observing the neuronal activity of transgenic mice, as they express a wide variety of genes and diseases, while being inexpensive. However, most available neural recording or optogenetic devices are not suitable, because they are hard-wired, too heavy and/or too simplistic. Unfortunately, few wireless systems exist, and they are greatly limited by the required bandwidth to transmit neural data, while not providing simultaneous multi-channel neural recording and optogenetic, a must for stimulating and observing several areas of the brain. In current devices, the analysis of the neuronal data is performed ex situ, while the research would greatly benefit from wireless systems that are smart enough to interpret and stimulate the neurons in closed-loop, in situ. The goal of this project is to design analog-digital circuits for acquisition and processing of neural signals, algorithms for analysis and processing of these signals and miniature electrooptical wireless systems for: i) Conducting experiments combining high-resolution multi-channel neuronal recording and high-resolution multi-channel optogenetics with freely-moving animals. ii) Conduct optogenetic experiments synchronized with the neural recording, i.e. in closed loop, with freely-moving animals. iii) Increase the resolution while reducing the size, weight and energy consumption of the wireless optogenetic systems to minimize the impact of research with small animals. This project is in 3 phases, and its main contributions have been reported in ten conferences (ISSCC, ISCAS, EMBC, etc.) and four published journal papers, or submitted, as well as in a patent and two disclosures. The design of a high resolution optogenetic system poses several challenges. In particular, since the neuronal signals have a high frequency content (10 kHz), the number of chanv nels under observation is limited by the bandwidth of the wireless transmitters (2-4 channels in general). Thus, the first phase of the project focused on the development of neural signal compression algorithms and their integration into a high-resolution miniature and lightweight wireless optogenetics system (2.8g), having 32 recording channels and 32 optical stimulation channels. This system detects, compresses and transmits the waveforms of the signals produced by the neurons, i.e. action potentials (AP), in real time, via an embedded low-power field programmable gate array (FPGA). This processor implements an AP detector algorithm based on adaptive thresholding, which allows to compress the signals by transmitting only the detected waveforms. Each AP is further compressed by a Symmlet-2 discrete wavelet transform (DWT) followed dynamic discrimination and requantification of the DWT coefficients, making it possible to achieve high compression ratios with a good reconstruction quality. Results demonstrate that this algorithm is more robust than existing approach, while allowing to reconstruct the compressed signals with better quality (average SNDR of 25 dB 5% for a compression ratio (CR) of 4.2). With detection, CRs greater than 500 are reported during the in vivo validation. The use of commercial components in wireless optogenetic systems increases the size and power consumption, while not being optimized for this application. The second phase of the project consisted in designing a complementary metal oxide semiconductor (CMOS) system-on-chip (SoC) for neural recording and multi-channel optogenetics, which significantly reduces the size and energy consumption compared to commercial alternatives. This is important contribution, since it’s the first chip to integrate both features. This SoC has 10 recording channels and 4 optogenetic stimulation channels. The bioamplifier design includes a programmable bandwidth (0.5 Hz -7 kHz) and a low input-referred noise (IRN of 3.2 μVrms), which allows targeting different biological signals (AP, LFP, etc.). The Delta-Sigma (DS) MASH 1-1-1 low-power analog-to-digital converter (ADC) is designed to work with low OSR (50), as to reduce its power consumption, and has a programmable resolution (ENOB of 9.75 bits with an OSR of 25). This ADC uses a new technique to reduce its circuit size by subtracting the output of each DS branch in the digital domain, rather than in the analog domain, as done conventionally. A recording channel, including the bioamplifier, the DS and the decimation filter, consumes 11.2 μW. Optical stimulation is performed with an on-chip LED driver using a regulated cascode current source with feedback, which accommodates a wide range of LED parameters and battery voltages. The SoC is integrated into a wireless optogenetic platform and validated in vivo. / To date and excluding this project, no wireless system is making closed-loop optogenetics simultaneously to real-time monitoring of neuronal activity. An important contribution of this work is to have developed the first multi-channel optogenetic system that is able to work in closed-loop, and the first to be validated during in vivo experiments involving freely-moving animals. To do so, the third phase of the project aimed to design a digital CMOS chip, called neural decoder integrated circuit (ND-IC). The ND-IC and the SoC developed in Phase 2 are integrated within a wireless optogenetic system. The ND-IC has 3 main cores: 1) the adaptive AP detector core, 2) the compression core with a new sorting tree for discriminating the DWT coefficients, and 3 ) the AP automatic classification core that reuses the data generated by the detection and compression cores to reduce its complexity. A link between a recording channel and a stimulation channel is established according to the association of each AP with a neuron, thanks to the classification, and according to the bursting activity of this neuron. The ND-IC consumes 56.9 μW and occupies 0.08 mm2 per channel. The system weighs 1.05 g, occupies a volume of 1.12 cm3, has an autonomy of 3h, and is validated in vivo.
10

Annulation des interférences inter-cellulaires pour les systèmes MIMO massif dans les réseaux hétérogènes 5G

Chouk, Marwa 18 October 2019 (has links)
De nos jours, le nombre des utilisateurs mobiles est en train d’exploser et cela va de même pour la demande en débit. En effet, cette demande croissante ainsi que le nombre considérable d’appareils qui sont appelés à être connectés (plus de 29 milliards d’ici 2022 selon Ericsson) oblige à entièrement repenser les technologies de communication mobile. De nouveaux systèmes doivent être développés afin de proposer une solution aux nouveaux usages qui vont naître de cette évolution. Le MIMO massif est une nouvelle technologie caractéristique de la 5G. Au lieu de mettre en place une seule antenne réceptrice-émettrice, le MIMO massif combine plusieurs antennes à la fois afin de renforcer le signal et réduire les interférences. Un tel système est très souvent étudié pour des transmissions multi-utilisateurs grâce à son potentiel à focaliser l’énergie. Parmi les nombreuses technologies caractéristiques de la 5G, nous considérons comme un bon candidat un système fonctionnant à des longueurs d’onde millimétriques afin de satisfaire le besoin du débit élevé sur des petites zones cibles. Cependant, plusieurs difficultés de conception apparaissent à une telle échelle de fréquence. Particulièrement, l’utilisation d’un nombre élevé de chaînes RF en parallèle semble plus compliquée. Pour remédier à ce problème, des systèmes dits hybrides ont vu le jour et ils sont identifiés comme des solutions pertinentes afin de contourner ces difficultés. Malgré les avantages apportés par les systèmes MIMO massifs à ondes millimétriques, il est important de comprendre ces innovations d’un point de vue d’évolution de l’architecture des réseaux. De nos jours, l’architecture moderne des réseaux cellulaires devient de plus en plus hétérogène, pour de bonnes raisons. Dans ces réseaux hétérogènes, les stations de base sont souvent augmentées avec un grand nombre de petites cellules. Ces dernières consistent en de petites stations de base, utilisées pour améliorer la couverture dans des environnements denses et pour augmenter la capacité du réseau. Cependant, plusieurs problèmes techniques naissent du déploiement dense de ces petites cellules. Particulièrement, leur coexistence avec les réseaux traditionnels et les différents niveaux de puissance de transmission peuvent être la source de fortes interférences entre les cellules. Le travail de ce mémoire se concentre sur la gestion des interférences intercellulaires dans un réseau hétérogène à spectre partagé. Ces interférences sont dues principalement au fait que les utilisateurs sont forcés de s’associer aux petites cellules en présence de macrocellules avoisinantes. Par conséquent, nous proposons une nouvelle architecture d’un réseau hétérogène comprenant plusieurs petites cellules qui coexistent avec une macrocellule équipée d’un grand nombre d’antennes au niveau de la macro station de base (MBS). L’objectif est de concevoir un nouveau schéma de précodage hybride permettant d’annuler les interférences intercellulaires sur le lien descendant (DL). Nous proposons d’appliquer uniquement un contrôle de phase pour coupler les sorties de la chaîne RF aux antennes d’émission, en utilisant des déphaseurs RF économiques. Un précodage numérique est ensuite effectué à la station de base pour gérer les interférences intercellulaires et multi-utilisateurs en s’appuyant sur l’espace nul des canaux d’interférences. Enfin, des résultats de simulations démontrant l’efficacité spectrale de l’approche proposée sont présentées et comparées avec diverses techniques de précodage / Nowadays, the number of mobile users and the demand for bandwidth are exploding. Indeed, this growing demand and the considerable number of devices to be connected (more than 29 billion by 2022 according to Ericsson) requires a complete rethink of the mobile communication technologies. New systems must be developed in order to provide a solution to the new uses that will emerge from this evolution. Massive MIMO is a new technology characteristic of 5G. Instead of implementing a single transmitting/receiving antenna, massive MIMO system combines several antennas to rein-force the signal and reduce the interference. Such a system is very often studied for multi-user transmissions thanks to its potential to focus energy. Among the many characteristic technologies of 5G, we consider as good candidates, those operating at millimetre wavelengths to satisfy the need for high throughput in small targeted areas. However, several design difficulties occur at such a frequency scale. In particular, the use of a large number of RF chains in parallel is more complicated. To remedy this problem, hybrid systems have emerged and are identified as relevant solutions to overcome these difficulties. Despite the benefits of massive MIMO systems and millimetre wave, it is important to understand these innovations from the perspective of network architecture evolution. Nowadays, the modern architecture of cellular networks is becoming more and more heterogeneous, for good reasons. In these heterogeneous networks, base stations are often augmented with a large number of small cells. It consists of small base stations, used to improve coverage in dense environments and increase network capacity. However, several technical problems arise from the dense deployment of these small cells. In particular, their coexistence with traditional networks and the different levels of transmission power can be the source of strong interferences between cells. In this thesis, we focus on the intercellular interference management in a heterogeneous shared spectrum network. This interference is mainly due to the fact that users are forced to be associated with small cells in the presence of surrounding macrocells. Therefore, we propose a new architecture of a heterogeneous network comprising several small cells that coexist with a macrocell equipped with a large number of antennas at the macro base station (MBS). The goal is to design a new hybrid precoding scheme to cancel intercellular interference on the downlink transmissions (DL). We propose to apply only phase control to couple the outputs of the RF chain to the transmitting antennas, using economical RF phase shifters. Digital precoding is then performed at the base station to manage intercellular and multi-user interference based on the null space of the interference channels. Finally, simulation results demonstrating the spectral efficiency of the proposed approach are presented and compared with various precoding techniques

Page generated in 0.0327 seconds