61 |
Contribution à l'étude de techniques pour l'affinement spectral de lasers : application aux diodes à blocage de modes destinées aux télécommunications optiques cohérentes / Contribution to the study of techniques for laser spectral narrowing : Application to mode-locked laser diodes used in optical telecommunicationsSahni, Mohamed Omar 01 June 2018 (has links)
Les peignes de fréquences optiques, issus de diodes à blocage de modes, font partie des candidats potentiels pour les réseaux de transmission à multiplexage en longueurs d’onde (WDM). Cependant, les modes composant leur peigne, exhibent généralement des largeurs de raie optiques relativement élevées ( 1-100 MHz), rendant ainsi incompatible leur utilisation sur un réseau WDM employant des formats de modulation avancés d’ordre supérieur. Cette thèse étudie, une solution pour palier à cette limitation. La technique utilisée, dite d’asservissement à correction aval hétérodyne, effectue un traitement du flux lumineux en sortie du laser sans agir sur ce dernier, permettant de réduire le bruit de fréquence présent sur chacune des raies et par conséquent leur largeur de raie optique. Dans une première approche, la technique est appliquée à un laser mono-fréquence. Cela a permis d’une part de valider son fonctionnement et d’autre part d’identifier les limites intrinsèques du dispositif expérimental mis en place. Ainsi, nous démontrons que le niveau de bruit de fréquence minimum permis par notre système, correspond à un spectre optique de largeur de raie optique instantanée de 50 Hz et une largeur de raie de 1,6 kHz pour un temps d’observation de 10 ms. La technique est par la suite appliquée à une diode à blocage de modes actif. Le peigne de fréquences optiques ainsi généré, est composé de 21 modes, ayant tous une largeur de raie optique intrinsèque inférieure à 7 kHz, dont 9 modes sont sub-kHz. Pour un temps d’observation du spectre optique de 10 ms, ces modes exhibent tous une largeur de raie d’environ 37 kHz. Nous démontrons ainsi l’impact de la gigue d’impulsions sur les performances de la technique et nous soulignons l’intérêt d’une telle cohérence, pour le domaine des télécommunications optiques cohérentes (transmissions WDM cohérentes de type m-QAM avec des constellations d’ordre élevé, compatibles avec des débits multi-Tbit/s par raie). En dernier lieu, nous abordons une seconde technique consistant à pré-stabiliser la fréquence d’un laser par asservissement en boucle fermée. Elle repose sur l’utilisation d’un interféromètre à fibre déséquilibré comme référence pour réduire le bruit de fréquence d’un laser, situé particulièrement en basses fréquences. Appliquée à un laser mono-fréquence, elle a permis de réduire son bruit de fréquence technique conduisant ainsi à une nette amélioration de sa largeur de raie intégrée sur 3 ms, de 224 kHz à 37 kHz. Ce premier résultat représente un bon support vers l’exploration du potentiel des diodes à blocage de modes pour des applications métrologiques. / Optical frequency combs obtained from mode-locked laser diodes are potential candidates for WDM networks. However, their lines exhibit usually a broad optical linewidth ( 1-100 MHz). Thus their use is incompatible for high order modulation formats WDM based systems. This thesis investigates one solution to overcome this limitation. It consists of using a feed-forward heterodyne technique to reduce the frequency noise of each comb-line and consequently their optical linewidths. In a first approach, the technique is applied to a single-mode laser. This allowed us to validate its proper working and to identify the intrinsic limits of the experimental device set up. The latter analysis enabled us to reveal that the minimum achievable frequency noise level by our system, corresponds to a 50 Hz intrinsic optical linewidth spectrum and a 1,6 kHz optical linewidth based on 10 ms observation time. This technique is then applied to an actively mode-locked laser diode demonstrating, at our system output, a 21-line optical frequency comb with intrinsic optical linewidths reduced to below 7 kHz. It is worth noting that 9 among them, exhibit sub-kHz linewidths. For an observation time of 10 ms, all lines share the same optical linewidth, almost equal to 37 kHz. We thus show that the timing jitter impacts the technique performances. We also highlight the relevance of such coherence level for coherent optical communication. Lastly, we study a laser frequency pre-stabilization technique based on a locking to an unbalanced fiber interferometer. When applied to a single-mode laser, the technique showed a reduction of its technical frequency noise, thus leading to a clear improvement of its integrated optical linewidth from 224 kHz to 37 kHz for 3 ms observation time. This first result provides a good support towards the exploration of mode-locked laser diodes potential for metrological applications.
|
62 |
Variantes non standards de problèmes d'optimisation combinatoire / Non-standard variants of combinatorial optimization problemsLe Bodic, Pierre 28 September 2012 (has links)
Cette thèse est composée de deux parties, chacune portant sur un sous-domaine de l'optimisation combinatoire a priori distant de l'autre. Le premier thème de recherche abordé est la programmation biniveau stochastique. Se cachent derrière ce terme deux sujets de recherche relativement peu étudiés conjointement, à savoir d'un côté la programmation stochastique, et de l'autre la programmation biniveau. La programmation mathématique (PM) regroupe un ensemble de méthodes de modélisation et de résolution, pouvant être utilisées pour traiter des problèmes pratiques que se posent des décideurs. La programmation stochastique et la programmation biniveau sont deux sous-domaines de la PM, permettant chacun de modéliser un aspect particulier de ces problèmes pratiques. Nous élaborons un modèle mathématique issu d'un problème appliqué, où les aspects biniveau et stochastique sont tous deux sollicités, puis procédons à une série de transformations du modèle. Une méthode de résolution est proposée pour le PM résultant. Nous démontrons alors théoriquement et vérifions expérimentalement la convergence de cette méthode. Cet algorithme peut être utilisé pour résoudre d'autres programmes biniveaux que celui qui est proposé.Le second thème de recherche de cette thèse s'intitule "problèmes de coupe et de couverture partielles dans les graphes". Les problèmes de coupe et de couverture sont parmi les problèmes de graphe les plus étudiés du point de vue complexité et algorithmique. Nous considérons certains de ces problèmes dans une variante partielle, c'est-à-dire que la propriété de coupe ou de couverture dont il est question doit être vérifiée partiellement, selon un paramètre donné, et non plus complètement comme c'est le cas pour les problèmes originels. Précisément, les problèmes étudiés sont le problème de multicoupe partielle, de coupe multiterminale partielle, et de l'ensemble dominant partiel. Les versions sommets des ces problèmes sont également considérés. Notons que les problèmes en variante partielle généralisent les problèmes non partiels. Nous donnons des algorithmes exacts lorsque cela est possible, prouvons la NP-difficulté de certaines variantes, et fournissons des algorithmes approchés dans des cas assez généraux. / This thesis is composed of two parts, each part belonging to a sub-domain of combinatorial optimization a priori distant from the other. The first research subject is stochastic bilevel programming. This term regroups two research subject rarely studied together, namely stochastic programming on the one hand, and bilevel programming on the other hand. Mathematical Programming (MP) is a set of modelisation and resolution methods, that can be used to tackle practical problems and help take decisions. Stochastic programming and bilevel programming are two sub-domains of MP, each one of them being able to model a specific aspect of these practical problems. Starting from a practical problem, we design a mathematical model where the bilevel and stochastic aspects are used together, then apply a series of transformations to this model. A resolution method is proposed for the resulting MP. We then theoretically prove and numerically verify that this method converges. This algorithm can be used to solve other bilevel programs than the ones we study.The second research subject in this thesis is called "partial cut and cover problems in graphs". Cut and cover problems are among the most studied from the complexity and algorithmical point of view. We consider some of these problems in a partial variant, which means that the cut or cover property that is looked into must be verified partially, according to a given parameter, and not completely, as it was the case with the original problems. More precisely, the problems that we study are the partial multicut, the partial multiterminal cut, and the partial dominating set. Versions of these problems were vertices are
|
63 |
Etude de la réaction 18F(p,alpha)15O par réction de transfert pour application à l'émission gamma des novaede Séréville, Nicolas 11 December 2003 (has links) (PDF)
L'émission gamma des novae à, et en dessous, de 511 keV provient essentiellement de l'annihilation des positrons venant de la décroissance beta+ du 18F. L'interprétation de cette émission, à l'aide d'observations par le satellite INTEGRAL par exemple, nécessite une bonne connaissance de la nucléosynthèse du 18F. Dans ce contexte, le taux de la réaction 18F(p,alpha)15O est le moins bien connu à cause de deux résonances correspondant aux niveaux excités Ex = 6.419 et 6.449 MeV dans le 19Ne dont les largeurs protons sont totalement inconnues. Nous avons déterminé ces largeurs protons par le biais d'une réaction de transfert d'un nucléon D(18F,p alpha)15N peuplant les niveaux analogues, dans le 19F, des niveaux d'intérêt astrophysique. Nous avons utilisé un faisceau radioactif de 18F accéléré à 14 MeV au Centre de Recherche du Cyclotron de Louvain--la--Neuve sur une cible de CD2 en cinématique inverse ainsi que le détecteur multi--piste au silicium LEDA. Une analyse en DWBA a permi de déterminer la largeur proton de ces deux résonances et a montré qu'elles ne pouvaient pas être négligées dans le calcul du taux de réaction. Une étude détaillée des incertitudes restantes sur le taux de réaction a été entreprise et particulièrement en ce qui concerne les interférences entre ces résonances et une autre résonance à plus haute énergie dans le 19Ne. Le taux de réaction ainsi établi diffère peu de l'ancien taux nominal mais repose maintenant sur des bases plus solides permettant une meilleure interprétation des futures observations gamma des novae et donc une meilleure contrainte des modèles astrophysiques.
|
64 |
SIMD-aware word length optimization for floating-point to fixed-point conversion targeting embedded processors / Optimisation SIMD de la largeur des mots pour la conversion de virgule flottante en virgule fixe pour des processeurs embarquésEl Moussawi, Ali Hassan 16 December 2016 (has links)
Afin de limiter leur coût et/ou leur consommation électrique, certains processeurs embarqués sacrifient le support matériel de l'arithmétique à virgule flottante. Pourtant, pour des raisons de simplicité, les applications sont généralement spécifiées en utilisant l'arithmétique à virgule flottante. Porter ces applications sur des processeurs embarqués de ce genre nécessite une émulation logicielle de l'arithmétique à virgule flottante, qui peut sévèrement dégrader la performance. Pour éviter cela, l'application est converti pour utiliser l'arithmétique à virgule fixe, qui a l'avantage d'être plus efficace à implémenter sur des unités de calcul entier. La conversion de virgule flottante en virgule fixe est une procédure délicate qui implique des compromis subtils entre performance et précision de calcul. Elle permet, entre autre, de réduire la taille des données pour le coût de dégrader la précision de calcul. Par ailleurs, la plupart de ces processeurs fournissent un support pour le calcul vectoriel de type SIMD (Single Instruction Multiple Data) afin d'améliorer la performance. En effet, cela permet l'exécution d'une opération sur plusieurs données en parallèle, réduisant ainsi le temps d'exécution. Cependant, il est généralement nécessaire de transformer l'application pour exploiter les unités de calcul vectoriel. Cette transformation de vectorisation est sensible à la taille des données ; plus leurs tailles diminuent, plus le taux de vectorisation augmente. Il apparaît donc un compromis entre vectorisation et précision de calcul. Plusieurs travaux ont proposé des méthodologies permettant, d'une part la conversion automatique de virgule flottante en virgule fixe, et d'autre part la vectorisation automatique. Dans l'état de l'art, ces deux transformations sont considérées indépendamment, pourtant elles sont fortement liées. Dans ce contexte, nous étudions la relation entre ces deux transformations, dans le but d'exploiter efficacement le compromis entre performance et précision de calcul. Ainsi, nous proposons d'abord un algorithme amélioré pour l'extraction de parallélisme SLP (Superword Level Parallelism ; une technique de vectorisation). Puis, nous proposons une nouvelle méthodologie permettant l'application conjointe de la conversion de virgule flottante en virgule fixe et de l'exploitation du SLP. Enfin, nous implémentons cette approche sous forme d'un flot de compilation source-à-source complètement automatisé, afin de valider ces travaux. Les résultats montrent l'efficacité de cette approche, dans l'exploitation du compromis entre performance et précision, vis-à-vis d'une approche classique considérant ces deux transformations indépendamment. / In order to cut-down their cost and/or their power consumption, many embedded processors do not provide hardware support for floating-point arithmetic. However, applications in many domains, such as signal processing, are generally specified using floating-point arithmetic for the sake of simplicity. Porting these applications on such embedded processors requires a software emulation of floating-point arithmetic, which can greatly degrade performance. To avoid this, the application is converted to use fixed-point arithmetic instead. Floating-point to fixed-point conversion involves a subtle tradeoff between performance and precision ; it enables the use of narrower data word lengths at the cost of degrading the computation accuracy. Besides, most embedded processors provide support for SIMD (Single Instruction Multiple Data) as a mean to improve performance. In fact, this allows the execution of one operation on multiple data in parallel, thus ultimately reducing the execution time. However, the application should usually be transformed in order to take advantage of the SIMD instruction set. This transformation, known as Simdization, is affected by the data word lengths ; narrower word lengths enable a higher SIMD parallelism rate. Hence the tradeoff between precision and Simdization. Many existing work aimed at provide/improving methodologies for automatic floating-point to fixed-point conversion on the one side, and Simdization on the other. In the state-of-the-art, both transformations are considered separately even though they are strongly related. In this context, we study the interactions between these transformations in order to better exploit the performance/accuracy tradeoff. First, we propose an improved SLP (Superword Level Parallelism) extraction (an Simdization technique) algorithm. Then, we propose a new methodology to jointly perform floating-point to fixed-point conversion and SLP extraction. Finally, we implement this work as a fully automated source-to-source compiler flow. Experimental results, targeting four different embedded processors, show the validity of our approach in efficiently exploiting the performance/accuracy tradeoff compared to a typical approach, which considers both transformations independently.
|
65 |
Digital control strategies for DC/DC SEPIC converters towards integration / Stratégies de commande numérique pour un convertisseur DC/DC SEPIC en vue de l’intégrationLi, Nan 29 May 2012 (has links)
L’utilisation des alimentations à découpage (SMPSs : switched mode power supplies) est à présent largement répandue dans des systèmes embarqués en raison de leur rendement. Les exigences technologiques de ces systèmes nécessitent simultanément une très bonne régulation de tension et une forte compacité des composants. SEPIC (Single-Ended Primary Inductor Converter) est un convertisseur à découpage DC/DC qui possède plusieurs avantages par rapport à d’autres convertisseurs de structure classique. Du fait de son ordre élevé et de sa forte non linéarité, il reste encore peu exploité. L’objectif de ce travail est d’une part le développement des stratégies de commande performantes pour un convertisseur SEPIC et d’autre part l’implémentation efficace des algorithmes de commande développés pour des applications embarquées (FPGA, ASIC) où les contraintes de surface silicium et le facteur de réduction des pertes sont importantes. Pour ce faire, deux commandes non linéaires et deux observateurs augmentés (observateurs d’état et de charge) sont exploités : une commande et un observateur fondés sur le principe de mode de glissement, une commande prédictive et un observateur de Kalman étendu. L’implémentation des deux lois de commande et l’observateur de Kalman étendu sont implémentés sur FPGA. Une modulation de largeur d’impulsion (MLI) numérique à 11-bit de résolution a été développée en associant une technique de modulation Δ-Σ de 4-bit, un DCM (Digital Clock Management) segmenté et déphasé de 4-bit, et un compteur-comparateur de 3-bit. L’ensemble des approches proposées sont validées expérimentalement et constitue une bonne base pour l’intégration des convertisseurs à découpage dans les alimentations embarquées. / The use of SMPS (Switched mode power supply) in embedded systems is continuously increasing. The technological requirements of these systems include simultaneously a very good voltage regulation and a strong compactness of components. SEPIC ( Single-Ended Primary Inductor Converter) is a DC/DC switching converter which possesses several advantages with regard to the other classical converters. Due to the difficulty in control of its 4th-order and non linear property, it is still not well-exploited. The objective of this work is the development of successful strategies of control for a SEPIC converter on one hand and on the other hand the effective implementation of the control algorithm developed for embedded applications (FPGA, ASIC) where the constraints of Silicon surface and the loss reduction factor are important. To do it, two non linear controls and two observers of states and load have been studied: a control and an observer based on the principle of sliding mode, a deadbeat predictive control and an Extended Kalman observer. The implementation of both control laws and the Extended Kalman observer are implemented in FPGA. An 11-bit digital PWM has been developed by combining a 4-bit Δ-Σ modulation, a 4-bit segmented DCM (Digital Clock Management) phase-shift and a 3-bit counter-comparator. All the proposed approaches are experimentally validated and constitute a good base for the integration of embedded switching mode converters
|
Page generated in 0.0425 seconds