271 |
Recherche sur des méthodes d'optimisation pour la mise en place de modèles intégrés de transport et usage des sols / Development of optimization methods for land-use and transportation modelsCapelle, Thomas 15 February 2017 (has links)
Les modèles intégrés d'usage de sol et de transport (LUTI) visent à représenter les interactions complexes entre l'utilisation du sol et l'offre et la demande de transport sur le territoire. Ils sont principalement utilisés pour évaluer différents scénarios de planification, par la simulation de leurs effets tendanciels sur les modes d'utilisation des sols et les comportements de déplacement. La mise en place d'un modèle LUTI nécessite l'estimation de plusieurs types de paramètres pour reproduire le plus fidèlement possible les observations recueillies sur la zone étudiée (données socio-économiques, enquêtes de transport, etc.). La grande majorité des approches de calibration disponibles sont semi-automatiques et estiment un sous-ensemble de paramètres à la fois, sans estimation globale intégrée.Dans ce travail, nous améliorons la procédure de calibration de Tranus, l'un des modèles LUTI les plus utilisés, en développant des outils pour l'estimation automatique et simultanée des paramètres. Parmi les améliorations proposées, nous remplaçons l'estimation de la boucle interne des paramètres endogènes (connus sous le nom de ``shadow prices'') par une procédure d'optimisation appropriée. Pour faire ça, nous examinons attentivement les mathématiques et les théories micro-économiques impliqués dans le calcul des différentes équations du modèle. Pour proposer une solution d'optimisation efficace, nous dissocions l'ensemble du problème d'optimisation en problèmes équivalents plus petits. La validation de notre algorithme d'optimisation est alors réalisée dans des modèles synthétiques où l'ensemble optimal de paramètres est connu.Deuxièmement, dans notre objectif de développer une calibration automatique entièrement intégré, nous avons développé un schéma d'estimation intégré pour les ``shadow prices'' et un sous-ensemble de paramètres difficiles à calibrer. Le système se révèle être supérieur à la qualité de calibration obtenue par l'approche classique, même lorsqu'elle est effectuée par des experts. Nous proposons également une analyse de sensibilité pour identifier les paramètres influents, puis couplés à un algorithme d'optimisation pour améliorer l'étalonnage sur les paramètres sélectionnés.Troisièmement, nous contestons le point de vue classique adopté par Tranus et divers modèles LUTI, que la calibration devrait conduire à des paramètres du modèle pour lesquels la sortie du modèle correspond parfaitement aux données observées. Cela peut en effet entraîner le risque de surparametrisation(pour Tranus, en utilisant trop de paramètres des ``shadow prices''), ce qui, à son tour, minera les capacités prédictives du modèle. Nous proposons donc un modèle de schéma de sélection des paramètres pour atteindre un bon compromis entre la complexité du modèle (dans notre cas, la nombre de ``shadow prices'') et la qualité de l'ajustement des sorties du modèle aux observations.Nos expériences montrent qu'au moins les deux tiers des ``shadow prices'' peuvent être supprimes du modèle tout en donnant un ajustement presque parfait aux observations.La contribution décrite ci-dessus est démontrée sur des modèles Tranus et les données de deux régions métropolitaines, aux États-Unis et en Europe. / Land use and transportation integrated (LUTI) models aim at representing the complex interactions between land use and transportation offer and demand within a territory. They are principally used to assess different alternative planning scenarios, via the simulation of their tendentious impacts on patterns of land use and travel behaviour. Setting up a LUTI model requires the estimation of several types of parameters to reproduce as closely as possible, observations gathered on the studied area (socio-economic data, transport surveys, etc.). The vast majority of available calibration approaches are semi-automatic and estimate one subset of parameters at a time, without a global integrated estimation.In this work, we improve the calibration procedure of Tranus, one of the most widely used LUTI models, by developing tools for the automatic and simultaneous estimation of parameters. Among the improvements proposed we replace the inner loop estimation of endogenous parameters (know as shadow prices) by a proper optimisation procedure. To do so, we carefully inspect the mathematics and micro-economic theories involved in the computation of the various model equations. To propose an efficient optimisation solution, we decouple the entire optimisation problem into equivalent smaller problems. The validation of our optimisation algorithm is then performed in synthetic models were the optimal set of parameters is known.Second, in our goal to develop a fully integrated automatic calibration, we developed an integrated estimation scheme for the shadow prices and a subset of hard to calibrate parameters. The scheme is shown to outperform calibration quality achieved by the classical approach, even when carried out by experts. We also propose a sensitivity analysis to identify influent parameters, this is then coupled with an optimisation algorithm to improve the calibration on the selected parameters.Third, we challenge the classical viewpoint adopted by Tranus and various other LUTI models, that calibration should lead to model parameters for which the model output perfectly fits observed data. This may indeed cause the risk of producing overfitting (as for Tranus, by using too many shadow price parameters), which will in turn undermine the models’ predictive capabilities. We thus propose a model selection scheme that aims at achieving a good compromise between the complexity of the model (in our case, the number of shadow prices) and the goodness of fit of model outputs to observations.Our experiments show that at least two thirds of shadow prices may be dropped from the model while still giving a near perfect fit to observations.The contribution outlined above are demonstrated on Tranus models and data from two metropolitan areas, in the USA and Europe.
|
272 |
Calcul parallèle pour les problèmes linéaires, non-linéaires et linéaires inverses en finance / Parallel computing for linear, nonlinear and linear inverse problems in financeAbbas-Turki, Lokman 21 September 2012 (has links)
De ce fait, le premier objectif de notre travail consiste à proposer des générateurs de nombres aléatoires appropriés pour des architectures parallèles et massivement parallèles de clusters de CPUs/GPUs. Nous testerons le gain en temps de calcul et l'énergie consommée lors de l'implémentation du cas linéaire du pricing européen. Le deuxième objectif est de reformuler le problème non-linéaire du pricing américain pour que l'on puisse avoir des gains de parallélisation semblables à ceux obtenus pour les problèmes linéaires. La méthode proposée fondée sur le calcul de Malliavin est aussi plus avantageuse du point de vue du praticien au delà même de l'intérêt intrinsèque lié à la possibilité d'une bonne parallélisation. Toujours dans l'objectif de proposer des algorithmes parallèles, le dernier point est l'étude de l'unicité de la solution de certains cas linéaires inverses en finance. Cette unicité aide en effet à avoir des algorithmes simples fondés sur Monte Carlo / Handling multidimensional parabolic linear, nonlinear and linear inverse problems is the main objective of this work. It is the multidimensional word that makes virtually inevitable the use of simulation methods based on Monte Carlo. This word also makes necessary the use of parallel architectures. Indeed, the problems dealing with a large number of assets are major resources consumers, and only parallelization is able to reduce their execution times. Consequently, the first goal of our work is to propose "appropriate" random number generators to parallel and massively parallel architecture implemented on CPUs/GPUs cluster. We quantify the speedup and the energy consumption of the parallel execution of a European pricing. The second objective is to reformulate the nonlinear problem of pricing American options in order to get the same parallelization gains as those obtained for linear problems. In addition to its parallelization suitability, the proposed method based on Malliavin calculus has other practical advantages. Continuing with parallel algorithms, the last point of this work is dedicated to the uniqueness of the solution of some linear inverse problems in finance. This theoretical study enables the use of simple methods based on Monte Carlo
|
273 |
Implantation des échantillonneurs passifs pour le suivi des pesticides dans les milieux aquatiques libanais / Implementation of passive samplers for monitoring pesticides in Lebanese aquatic environmentsAl Ashi, Aisha 30 October 2015 (has links)
Suite à l’utilisation massive et peu contrôlée des pesticides au LIBAN et conformément auxexigences des législations fixées par les réglementations nationales, européennes etinternationales sur la qualité de l’eau, des programmes de surveillances nationaux ont étéélaborés afin d’évaluer la qualité de l’eau dans les milieux aquatiques libanais et de jauger lesimpacts écologiques et sanitaires liés à la présence éventuelle de pesticides dansl’environnement au Liban.Dans le cadre de ces programmes de surveillance, des prélèvements périodiques ponctuelssont réalisés mais, le suivi permanant dans le temps d’une contamination étendue est trèsdifficile ce qui impose alors la multiplication des prélèvements dans le temps et dansl’espace. L’apparition récente des échantillonneurs intégratifs comme alternativesintéressantes aux techniques d’échantillonnage déjà existantes semblent relativement plusefficaces et mieux représentatifs du point de vue économique et environnemental. Ilspermettent d'effectuer un suivi moyenné sur de longues périodes d'observation allant dequelques jours à plusieurs semaines associé à une simplicité d'usage et une réduction descoûts.Le POCIS (Polar Organic Chemical Integrative Sampler) est le type d’échantillonneur adoptédurant nos travaux de thèse afin d’étudier l’applicabilité de ces POCIS au dosage des résidusde pesticides dans les milieux aquatiques libanais. Cent-neuf molécules appartenant àdifférentes familles de pesticides fréquemment utilisés par les agriculteurs libanais ont étéretenues pour l’étude. Les cinétiques d’adsorption des molécules sur les POCIS et celle de ladésorption des composés références de performance « PRC » ont été suivies par calibrationin-situ ou au laboratoire soit en flux statique ou en flux continu sous différentes conditionsayant une influence sur la rétention des pesticides.Le coefficient d’échantillonnage Rs (L.j-1) spécifique à chaque molécule, nécessaire au calculde la concentration moyenne dans le milieu d’exposition du POCIS, a été déterminé dans lesdivers milieux d’étude : Eau minérale, eau de robinet et eau de rivière. Les cinétiquesd’adsorption des molécules ont également été élaborées afin d’évaluer la durée optimaled’implantation dans les différents milieux aquatiques.Après validation du système d’échantillonnage au laboratoire, son efficacité a été vérifiée surle terrain, les POCIS ont été testés in-situ sur divers sites appartenant aux différentes régionsagricoles libanaises (Estuaire de la rivière Ibrahim, Lac Qaraoun, et Rivière Hasbani). Lesconcentrations moyennes de la totalité des pesticides ciblés ont été estimées et leurs valeursont été comparées avec celles obtenues par prélèvements actifs. Cependant, pour le futur, desétudes élaborées devraient être entreprises afin de couvrir la majorité des molécules activesde pesticides employés au Liban; il faudrait également essayer d’améliorer la reproductibilitédes POCIS pour les analyses quantitatives par l’incorporation de nouveaux composésréférences de Performance (PRC) ou par calibration in-situ systématique pour les différentssites étudiés. / Following the massive uncontrolled use of pesticides in Lebanon and to satisfy therequirements of legislative frameworks and directives concerning water quality, nationalmonitoring programs have been developed in order to evaluate the water quality in theaquatic Lebanese media and to evaluate the environmental and health impacts associated withthe presence of these nominated pesticides in the Lebanese aquatic environment.In this context, monitoring programs rely on collecting discrete grab, spot or bottle samplesof water at a given time providing only a snapshot of the levels of pollutants at the time ofsampling. However, the continuous monitoring using active sampling of this widespreadcontamination is very difficult requiring the increase of sampling frequency which iseconomically, logistically and spatially difficult. Wherefore, the integrative samplers arerecently developed as alternative approach to the existing sampling techniques to berelatively more effective and more representative economically and environmentally. Theycan perform an averaged follow-up over long observation period from a few days to severalweeks associated with ease of use and low costs.The POCIS (Polar Organic Chemical Integrative Sampler) is the type of sampler adoptedduring our thesis in order to study the applicability of this device to the evaluation ofpesticide residues levels in the Lebanese aquatic environments. One hundred nine moleculesbelonging to different families of commonly used pesticides by Lebanese farmers wereselected for the study. The kinetic adsorption constants of targeted pesticides and the kineticdesorption constants of Performance Reference Compounds "PRC" were estimated by POCISin-situ or laboratory (static or continuous flow) calibrations under different conditionsaffecting pesticides retention over POCIS receiving phase.To calculate the average concentration in the exposure media, the sampling rate (L/day),specific to each target pesticide was determined in different water studies: mineral, tap andriver water. The kinetic adsorption constants of molecules have also been determined toassess the optimal deployment duration in different aquatic environments.After validation of the sampling system in the laboratory, its effectiveness is tested in field.POCIS were tested in-situ at various sites belonging to different Lebanese agriculturalregions (Ibrahim Estuary River, Qaraoun Lake and Hasbani River). The mean concentrationsof total targeted pesticides were estimated and their values were compared with thoseobtained with active samples. However, further challenges are to cover the majority of activemolecules of pesticides used in Lebanon and to improve the reproducibility of these POCISfor quantitative analysis by incorporating new Performance Reference Compounds (PRC) orextending the implementation of in-situ calibration.
|
274 |
Développement d’un modèle continu d’enracinement, basé sur l’agrégation de l’architecture racinaire des plantes / Development of a continuous model of root growth, aggregating root architecture of plantsBonneu, Adrien 23 November 2011 (has links)
La modélisation et la simulation de la croissance racinaire des plantes en relation avec l'eau et le transfert de nutriments dans le sol constituent un défi majeur permettant des applications dans diverses thématiques de recherche. Les modèles de croissance racinaire ont été classés en SM (Structural Models), FSM (Functional Structural Models) et DBM (Density Based Models). Les modèles basés sur des représentations explicites de la structure du système racinaire simulent des systèmes de manière réaliste. Les modèles basés sur des densités agrègent le développement racinaire et décrivent l'évolution de densités racinaires dans l'espace et le temps. Le principal avantage de ce type de modèles basés sur des formulations continues est le temps de calcul qui est indépendant du nombre de racines, ce qui est particulièrement utile pour des applications à l'échelle d'une population de plantes. De plus, l'utilisation de modèles continus facilite le couplage avec d'autres modèles fonctionnels et physiques qui sont aussi basés sur des équations continues, tels que le transport de nutriments et d'eau dans le sol.Le but de la thèse est de proposer un modèle continu générique (i.e. applicable à une large diversité d'architectures racinaires) et minimal (i.e. avec le moins de paramètres possible), basé sur une équation aux dérivées partielles. Ce modèle est présenté en 3D et considère le nombre d'apex par unité de volume comme étant la variable de sortie. L'équation est composée de trois principaux phénomènes physiques, à savoir l'advection, la diffusion et la réaction, qui agrègent différents processus racinaires de développement et d'architecture, e.g. la croissance primaire, la ramification et la mortalité. Un schéma numérique basé sur la méthode de splitting d'opérateurs est proposée afin de résoudre l'équation en séparant les trois opérateurs physiques. C'est une méthode puissante et numériquement consistante qui permet de choisir des schémas numériques appropriés pour chaque opérateur. Des données observées avec leur variabilité, qui sont codées en utilisant les modèles architecturaux, sont permettent la calibration du modèle continu. Le modèle continu est donc utilisé afin de simuler l'évolution spatio-temporelle de la densité moyenne du nombre d'apex pour des systèmes racinaires dont leurs développements diffèrent. L'évaluation de cette approche de modélisation est traitée sur : 1- des racines horizontales d'eucalyptus, chacune contrôlée par un apex principal ; 2- des systèmes centralisés, e.g. les systèmes du maïs, et 3- des systèmes décentralisés, e.g. les systèmes de chiendent. Les résultats de la méthode de calibration sont satisfaisants et ont permis de définir et simuler diverses stratégies de croissance racinaire. / Modelling and simulating plant root growth in connection with soil water and nutrient transfer is an important challenge that finds applications in many fields of research. Root growth models have been classified into SM (Structural Models), FSM (Functional Structural Models) and DBM (Density Based Models). Models based on explicit representations of root system structures simulate realistic patterns. Density based models aggregate root development and describe the evolution of root densities in space and time. The main advantage of this kind of models based on continuous formulation is that the computational time is independent of the number of roots, which is especially useful for applications at the plant stand scale. Moreover, the use of continuous models facilitates coupling with other functional and physical models that are also based on continuous equations such as water and nutrient transport.The aim of the thesis is to propose a minimal (i.e. involving a minimum number of parameters) and generic (i.e. applicable to a wide range of root architectures) continuous model based on a partial differential equation. This model is presented in a 3D form and considers the number of apices per unit volume of soil as output variable. The equation includes three main physical phenomena, namely advection, diffusion andreaction, which aggregate different aspects of root architectural and developmental rules, e.g. primary growth, branching and mortality. A numerical scheme based on an operator splitting method is proposed to solve the equation by separating the three different processes. It is a powerful and consistent numerical method that allows the use of appropriate numerical scheme for each operator. Observed data with their variability, which are encoded using architectural models, are used to calibrate the continuous model. The continuous model is then used to simulate the spatio-temporal evolution of the mean density of apex number for root systems with different developmental rules. The evaluation of this modelling approach is carried out on : 1- horizontal roots of eucalyptus that are controlled by a main apex ; 2- centralizedsystems, e.g. maize root systems, and 3- decentralized root systems, e.g. couch grass root systems.The results of the calibration method were satisfactory and allowed us to define and simulate different root growth strategies.
|
275 |
Méthodes alternatives pour le test et la calibration de MEMS : application à un accéléromètre convectif / Alternative methods for test and calibration of MEMS : application to convective accelerometerRekik, Ahmed 09 December 2011 (has links)
Le test et la calibration des MEMS sont des enjeux complexes à cause de leur nature multi-domaines. Ils nécessitent l'application de stimuli physiques, en utilisant des équipements de test coûteux, afin de tester et de calibrer leurs spécifications. L'objectif de cette thèse est de développer des méthodes alternatives et purement électriques pour tester et calibrer un accéléromètre MEMS convectif. Premièrement, un modèle comportemental du capteur est développé et validé en se basant sur des simulations FEM. Il inclut l'influence de tous les paramètres géométriques sur la sensibilité du capteur. Deuxièmement, le modèle est utilisé pour simuler des fautes dans le but d'identifier la corrélation qui peut exister entre la sensibilité du capteur à l'accélération et certains paramètres électriques. Troisièmement, cette corrélation est exploitée pour développer des méthodes de test et de calibration alternatives où la sensibilité est estimée en effectuant uniquement des mesures électriques et sans appliquer de stimuli physiques (accélérations). L'efficacité de ces méthodes est ainsi démontrée. Finalement, deux architectures permettant l'auto-test et l'auto-calibration sur puce sont proposées. / MEMS test and calibration are challenging issues due to the multi-domain nature of MEMS devices. They therefore require the application of physical stimuli, using expensive test equipments, to test and to calibrate their specifications. The main objective of this thesis is to develop alternative electrical-only test and calibration procedures for MEMS convective accelerometers.First, a behavioral model that includes the influence of sensor geometrical parameters on sensitivity is developed and validated with respect to FEM simulations. Second, the model is used to perform fault simulations and to identify correlation that may exist between device sensitivity to acceleration and some electrical parameters. Third, this correlation is exploited to develop alternative test and calibration methods where the sensitivity is estimated using only electrical measurements and without applying any physical stimulus (acceleration). The efficiency of these methods is demonstrated. Finally, two architectures that allow on-chip test and calibration are proposed.
|
276 |
Recherche de particules supersymétriques dans le canal hadronique et calibration des jets avec le détecteur ATLAS du LHC / Searches for supersymmetry in the fully hadronic channel and jet calibration with the ATLAS detector at the LHCAbeloos, Baptiste 20 July 2017 (has links)
Le Modèle Standard de la physique des particules est un modèle décrivant très bien les particules élémentaires et leurs interactions mais plusieurs raisons motivent les physiciens à rechercher de la physique au-delà de ce modèle. La supersymétrie correspond à une des extensions les plus prometteuses. La thèse est axée sur deux sujets, et repose sur les données acquises en 2015 et 2016 avec le détecteur ATLAS du LHC (CERN):La première partie est un travail de performance permettant d'améliorer la mesure de l'énergie des jets de particules. Ces objets sont générés par l'hadronisation des quarks et des gluons par interaction nucléaire forte et sont difficiles à reconstruire. Ma contribution correspond à la dernière étape et repose entièrement sur les données. La méthode se base sur les mesures effectuées sur les photons qui servent d'objets de référence. Mon travail a consisté à mettre en place la méthode, estimer les corrections en énergie et évaluer les incertitudes. Les corrections obtenues sont de l'ordre de 2-3% en fonction de l'énergie des jets. L'incertitude sur l'échelle en énergie des jets est estimée à environ 1% pour les trois types de jets étudiés. Les résultats sont actuellement utilisés par la collaboration ATLAS. Cette méthode permet également de mesurer la résolution en énergie des jets du détecteur. Une résolution de l'ordre de 17%-22% est obtenue à 40 GeV en fonction du type de jet étudié, et 4% à 1 TeV, avec une incertitude de l'ordre de 10%.La deuxième partie de la thèse porte sur la recherche d'un signal de supersymétrie. Le signal recherché correspond à la production d'une paire de squarks ou de gluinos et comprend des jets et de l'énergie transverse manquante dans l'état final. Mon travail porte principalement sur l'optimisation des critères de sélections en se basant sur plusieurs modèles simplifiés de supersymétrie. Neuf nouvelles régions de signal ont été introduites dans l'analyse. Les limites tracées au cours du Run 1 sur la masse des squarks et gluinos ont ainsi été augmentées pour atteindre une valeur maximale respective de l'ordre de 1.6 TeV et 2 TeV sur les modèles étudiés. / The Standard Model of particle physics is a very precise model describing the elementary particles and their interactions. However, some issues lead physicists to search for physics beyond the Standard Model. Supersymmetry is an extension of the Standard Model providing solutions to the current issues. In this thesis, results are obtained using the data collected in 2015 and 2016 with the ATLAS detector at the LHC (CERN). The thesis is based in two parts:The first part is a performance analysis improving the energy measurement of high energy objects called "jets". They are generated by the hadronization of quarks and gluons in the detector via the strong nuclear interaction. My contribution is the last step of the the reconstruction and calibration chain and is fully based on data. The method uses the very precise measurement of the photon energy, and provides corrections to the jet energy scale. My contribution consists in set-up the method, estimate the corrections, measure the jet energy scale and evaluate the uncertainties. Corrections are at the order of 2-3% as a function of the jet energy scale. The uncertainty of the jet energy scale is estimated to be at the order of 1% for the three jet types. Results are now used by the ATLAS Collaboration. This method is also used to estimate the jet energy resolution. A resolution at the order of 17%-22% at 40 GeV depending on the jet type, and 4% at 1 TeV is obtained with an uncertainty at the order of 10%.The second part of the thesis corresponds to the search for supersymmetry. The signal corresponds to a pair of supersymmetric particles called squarks and gluinos and corresponds to jets and missing transverse energy in the final state. My contribution mainly corresponds to the optimisation of the selections using several simplified models of supersymmetry. Nine signal regions have been introduced in the analysis. Limits on the mass of squarks and gluinos computed during the Run 1 have been greatly improved to reach a maximal value respectively at the order of 1.6 TeV and 2 TeV.
|
277 |
Kalibrace kontaktních a bezkontaktních teploměrů / Calibration of contact and non-contact thermometersSkalický, David January 2016 (has links)
This work deals with the calibration of contact and contactless thermometers. The theoretical part describes physical laws, which are important for contact and contactless measuring of temperature, requirements for thermometers, suitability of use different types of thermometers and materials used for construction of temperature sensors. The following part describes metrology with the focus on metrology system of the Czech Republic. This thesis also describes errors and uncertainties of measurments, especially on their division, sources of uncertainties and methodology of type A and type B uncertainty determination. The practical part is focused on the calibration of thermometers within the Czech Metrological Institute and the Faculty of Electrical Engineering and Communication in Brno.
|
278 |
Reconstruction 3D et production de carte dense de disparité en stéréovision non-alignée pour des applications industrielles de localisation 3D et d'analyse de surface / 3D reconstruction and production of dense disparity map in non-aligned stereo vision for industrial applications of 3D measurement and surface analysisPelcat, Jimmy 23 February 2012 (has links)
En vision industrielle, de nombreuses applications de mesure et de contrôle qualité évoluent vers des problématiques tri-dimensionnelles. Les systèmes de stéréovision sont des solutions technologiques qui attirent les industriels par leur simplicité mécanique. Deux caméras statiques disposées à des endroits stratégiques peut s'avérer suffisantes pour répondre à cette problématique bien que les contraintes industrielles imposent de respecter des temps de traitement courts et des mesures précises. La diversité des applications nous amènent à envisager deux approches afin de répondre à deux types d'application. La première technique consiste en la reconstruction 3D à partir de paires de points images qui se correspondent dans les deux images. Elle est destinée à répondre à la problématique de mesure 3D. Les méthodes de calibration monoculaire et de calcul 3D par triangulation sont la base de la reconstruction 3D. Nous étudions la précision de mesure et son évolution selon la pose du système de capture par rapport à la scène observée. La seconde technique consiste à construire des images de disparité afin de répondre à des problématiques de construction de profil et d'analyse de défaut. La contrainte d'alignement des caméras, nécessaire pour accélérer le processus de mise en correspondance, implique d'utiliser des méthodes de calibration stéréoscopique et de rectification des images. Nous étudions l'impact de l'alignement sur la qualité de la rectification. La production de carte dense de disparité se base sur les techniques de stéréo-corrélation. Nous montrons les limites de l'utilisation d'un noyau de corrélation carré et proposons une alternative par production de deux cartes denses de disparité à partir de deux noyaux mono-directionnels, améliorant la mesure de disparité sur les zones de contours et d'occultations. / In industrial vision, many applications for measuring and quality control are moving to three-dimensional problems. Stereovision systems are technological solutions that attract industry by their mechanical simplicity. Two static cameras placed at strategic locations may be sufficient to address this problem although the industrial constraints imposed to respect a short processing time and precise measurements. The diversity of applications lead us to consider two approaches to resolve the two types of application. The first technique consists in the 3D reconstruction from pairs of image points which correspond in both images. It is intended to address the problem of 3D measurement. The methods of monocular calibration and 3D triangulation are the basis of 3D reconstruction. We study the accuracy and its evolution according to the capture system pose compared to the observed scene. The second technique is to construct disparity maps to address problems of building profile and default analysis. The alignment constraint of cameras needed to accelerate the process of matching involves the use of methods of stereoscopic calibration and image rectification. We study the impact of alignment on the quality of the rectification. The production of dense disparity map is based on the stereo-correlation techniques. We show the limits of the use of a squared correlation kernel and propose an alternative production of two dense disparity maps from two mono-directional kernels, improving the measurement of disparity around edges and occlusions.
|
279 |
MIMO Massif : transformer le concept en réalité en exploitant la réciprocité du canal / Massive MIMO : turning concept into reality by exploiting the channel reciprocityJiang, Xiwen 04 October 2017 (has links)
Entrées multiples, sorties multiples (MIMO) massif est considéré comme l'une des technologies clés de la prochaine génération de communications sans fil. Afin d'effectuer des algorithmes de formation de faisceau en liaison descendante (DL) avec un grand réseau d'antennes, le plus grand défi est l'acquisition d'informations précises d'état de canal à l'émetteur (CSIT). Pour relever ce défi, le duplex à division temporelle (TDD) est favorable aux systèmes MIMO massif grâce à sa réciprocité de canal de la DL et la liaison montante (UL). Cependant, alors que le canal physique dans l'air est réciproque, les front-ends de radiofréquence (RF) dans les émetteurs-récepteurs ne le sont pas ; par conséquent, la calibration devrait être utilisée dans des systèmes pratiques pour compenser l'asymétrie matérielle RF. Dans cette thèse, nous nous efforçons de transformer le concept MIMO massif en réalité en utilisant la calibration de la réciprocité TDD. Les contributions peuvent être résumées comme suit. Tout d'abord, nous proposons un cadre unifié pour la calibration de la réciprocité, qui généralise diverses méthodes de calibration existant dans la littérature, offrant une vue supérieure sur le problème de calibration ainsi que l'ouverture de nombreuses innovations sur les méthodes de calibration. Deuxièmement, sur la base de cette représentation générale, nous proposons trois nouveaux schémas de calibration : une méthode de calibration rapide basée sur le groupement d'antennes, un schéma de calibration pour l'architecture hybride de formation de faisceau, ainsi qu'un mécanisme de suivi des paramètres de calibration et de surveillance de la santé du système qui permet une détection rapide du changement de paramètre. Troisièmement, nous avons effectué des mesures des paramètres de calibration sur une plate-forme réelle afin de révéler les propriétés matérielles. Quatrièmement, nous étudions, du point de vue du système, avec quelle précision un système MIMO massif TDD devrait être calibré. Enfin, grâce à la calibration de réciprocité TDD, nous avons construit un banc d’essai pour MIMO massif, qui est compatible avec l'évolution à long terme (LTE) basé sur la plate-forme « open source » OpenAirInterface, et peut directement fournir un service Internet à un appareil commercial. Le banc d'essai démontre la faisabilité d'intégrer le MIMO massif dans les normes actuelles du projet de partenariat de troisième génération (3GPP) et son utilisation dans le 5G peut être une évolution à partir des systèmes 4G actuels. / Massive multiple-input multiple-output (MIMO) is considered as one of the key technologies that will enable the next generation of wireless communications. In order to perform downlink (DL) beamforming algorithms with large antenna arrays, the biggest challenge is the acquisition of accurate channel state information at the transmitter (CSIT). To take up this challenge, time division duplex (TDD) is favorable to massive MIMO systems thanks to its channel reciprocity in DL and uplink (UL). However, while the physical channel in the air is reciprocal, the radio-frequency (RF) front-ends in transceivers are not; therefore, calibration should be used in practical systems to compensate the RF hardware asymmetry. In this thesis, we focus on turning massive MIMO concept into reality based on TDD reciprocity calibration. The contributions can be summarized as follows. First, we propose a unified framework for reciprocity calibration, which generalizes various calibration methods existing in literature, providing a higher level view on the calibration problem as well as opening up possibilities of numerous innovations on calibration methods. Second, based on this general representation, we propose three new calibration schemes: a fast calibration method based on antenna grouping, a calibration scheme for hybrid beamforming architecture, as well as a calibration parameter tracking and system health monitoring mechanism which allows fast detection of parameter change. Third, we carried out measurements of calibration parameters on a real platform in order to reveal the hardware properties. Fourth, we study, from a system point of view, how accurately a TDD massive MIMO system should be calibrated. Last but not least, enabled by TDD reciprocity calibration, we build up an open source long term evolution (LTE) compatible massive MIMO testbed based on the OpenAirInterface platform, which can directly provide Internet service to a commercial device. The testbed demonstrates the feasibility of integrating massive MIMO into current 3rd Generation Partnership Project (3GPP) standards and its usage in 5G can be a smooth evolution from current 4G systems.
|
280 |
Utveckling av Kalibreringsstation för Temperatursensorer för Biacore / Development of Calibration Station for Temperature Sensors for BiacoreAlishev, Andrey January 2022 (has links)
Cytiva i Umeå producerar medicinskteknologisk utrustning och ett av dessa system som produceras är Biacore. Dessa system används inom läkemedelsutveckling och forskning inom proteinanalys. De temperaturgivare som används i Biacore ska kalibreras noggrant då det är viktigt att det inte blir några mätfel. Målet med detta examensarbete är att utveckla nuvarande kalibreringsstationen för temperaturgivare eftersom den har blivit omodern. Fokuset ligger mest på att utveckla en ny mjukvara, dock potentiell utveckling av hårdvaran är också av intresse. Mjukvaran ska beräkna kalibreringsfaktorer för de temperaturgivare som kalibreras på ett automatiserat och effektivt sätt. Utveckling av hårdvaran kan göras genom att byta ut nuvarande referenstermometern till en ny och integrera den i kalibreringsstationen. Ett program har utvecklats med ett användargränssnitt där användaren väljer vilken typ av temperaturgivare som kalibreras och dess identifikationsnummer. Baserat på denna information hittar programmet alla relevanta filer med mätvärdena, beräknar kalibreringsfaktorer för varje temperaturgivare och sparar resultatet. Detta automatiserar beräkning och sparande av data samt effektiviserar kalibreringsprocessen. Utvecklingen av mjukvaran gjordes med kodspråket Python och biblioteket Tkinter. Hårdvaruutvecklingen har påbörjats men inte uppnåtts på grund av tidsbrist. / Cytiva in Umeå manufactures medical technological equipment. One of those systems that are produced is Biacore. Those systems are used in drug development and research in protein analysis.The temperature sensors that are used in Biacore systems must be accurately calibrated since it is of high importance to avoid errors in the measurements. The goal of this thesis is to improve current calibration station since it has gotten outdated. The focus is going to lie mostly on developing the software, although the potential development of the hardware is of interest as well. The software should be able to calculate the calibration factors for each of the temperature sensors that are calibrated in an automated and an effective way. The development of the hardware can be done by upgrading current reference thermometer to a new one and integrate it in the calibration station. A program has been developed with a user interface where the user choses what type of thetemperature sensor is to be calibrated and its identification number. Based on this information the program finds all the relevant files with the measured values, calculates calibration factors for each of the temperature sensors and saves the result. It automises calculation and saving of data as well as makes the calibrating process more effective. Development of the software was done by using Python programming language and Tkinter library. Development of the hardware has been started but was not achieved due to the lack of time.
|
Page generated in 0.1004 seconds