Spelling suggestions: "subject:"sense"" "subject:"dense""
31 |
A forward genetic approach to identifying novel calcium regulators in Toxoplasma GondiiLaFavers, Kaice Arminda 25 July 2017 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / Toxoplasma gondii is an obligate intracellular eukaryotic pathogen that causes severe neurologic disease in immunocompromised adults and congenitally infected neonates. Events critical to the propagation of T. gondii, such as invasion and egress, are regulated by calcium-dependent signaling. In order to identify unique components of the parasite’s calcium signaling networks, members of the Arrizabalaga laboratory have used a forward genetics approach to isolate mutants with altered sensitivity to the calcium ionophore A23187. Exposing extracellular parasites to A23187 induces protein secretion, motility and cytoskeletal rearrangements and prolonged treatment causes exhaustion of factors required for invasion, which results in what is referred to as ionophore induced death (iiDeath). Mutants capable of surviving this treatment were isolated from a chemically mutagenized population. Whole genome sequencing of one such mutant, MBD2.1, identified a nonsense mutation in a protein of unknown function (TGGT1_069070, ToxoDBv7.2) Complementation of MBD 2.1 with a wild-type copy of TGGT1_069070 restored sensitivity to iiDeath treatment. Endogenous tagging of this locus revealed that the encoded protein is secreted from a unique parasite secretory organelle known as the dense granule into the parasitophorous vacuole, leading to its designation as TgGRA41. Complete knockout of TgGRA41 recapitulates the resistance to iiDeath observed in MBD2.1 but also exhibits a dramatic decrease in propagation in tissue culture not seen in the original mutant. The knockout shows defects in multiple steps of the lytic including compromised invasion efficiency and premature egress of parasites from host cells. Cytosolic calcium measurements of extracellular parasites show enhanced uptake of calcium in the knockout strain as compared to parental and complemented, suggesting that the loss of TgGra41 results in calcium dysregulation. Together, these results provide a novel insight into the role that the parasitophorous vacuole of T. gondii plays in calcium homeostasis and calcium-dependent signaling processes.
|
32 |
FUNCTIONAL CHARACTERIZATION OF CARDIAC PHENOTYPES BY MRI: APPLICATIONS IN DISEASED MOUSE MODELSJiang, Kai 03 June 2015 (has links)
No description available.
|
33 |
Modification and Numerical Modelling of Dense Plasma Focus DeviceReuben, Rachel Aaron 11 September 2024 (has links)
A dense plasma focus device (DPF) is a pulsed power device that generates high energy particles, neutrons and X-rays through rapid compression of the plasma. The presented research investigates the modification of the DPF and use of numerical modelling to predict the neutron yield. The DPF is a 1 kJ device that uses a 1.3 uF capacitor and operated at 40 kV pulse. Spark gap switch SG181-C is integrated into the driver circuit to handle high current operations. Bus work is designed and modeled to predict the current waveform generated by the modified DPF. The control system is designed to be suitable for automation using DAQ and LabVIEW. Radial trajectories during pinch formation are analyzed using a numerical model. Two numerical models are used to investigate how neutron yield varies with pressure, pinch current and pinch duration. The modified DPF showed the neutron scaling to be fourth power of the pinch current. / Master of Science / Nuclear fusion has been researched widely for decades as a solution to meet the demand of increasing energy needs. Controlled fusion reactions has been the main challenge to achieve this and various approaches have been explored using different confinement methods. All the approaches have advantages with different challenges. One approach being explored is the dense plasma focus (DPF) device, which uses electrical discharges to create a dense 'pinch' of plasma where fusion reactions occur when operated in deuterium fuel gas. Recent DPF experiments have shown that kJ range devices are capable of generating neutrons and intense radiation. This research gives an overview of the DPF with energy of 1 kJ range. The DPF is modelled to predict the pinch formation parameters. The model also predicts how neutron yield varies with operating pressure, pinch current and duration.
|
34 |
Optimisation robuste de turbines pour les cycles organiques de Rankine (ORC) / Robust optimization of ORC turbine expandersBufi, Elio Antonio 14 December 2016 (has links)
Au cours des dernières années, le cycles organique de Rankine (ORC) ont reçu un grand intérêt de la communauté scientifique et technique en raison de sa capacité à récupérer de l'énergie à partir de sources de chaleur faible. Dans certaines applications, comme la récupération de chaleur des déchets (WHR), les plantes ORC doivent être aussi le plus compact possible en raison de contraintes géométriques et de poids. Récemment, ces questions ont été étudiées dans le but de promouvoir la technologie ORC pour moteur à combustion interne (ICE). L'idée de récupérer ce résidu d'énergie est pas nouvelle et dans les années 1970 la crise énergétique a encouragé le développement de petite ORC plants (1-10 kWe). En raison de la complexité moléculaire du fluides de travail , fort effets de gaz réel doivent être pris en compte en raison de la haute pression et la densité, si on le compare à un gaz idéal. Dans ces conditions, le fluide est connu comme gaz dense. Les gaz denses sont définis comme des vapeurs monophasés, caractérisé par des molécules complexes et avec importantes masses moléculaires. Le rôle de gaz dense dans la gaz dynamique des flux transsonique interne a été largement étudié pour son importance dans les turbomachines. Récemment, l'attention a été concentrée sur des turbines axiales, qui réduisent au minimum la taille du système, en comparaison avec les solutions radiales dans les mêmes rapports de pression et la chute d'enthalpie. Dans ce travail, une nouvelle méthodologie de conception de turbines ORC supersonique est proposé. Elle consiste dans un design à deux dimensions rapide et précise qui est réalisée pour stator et rotor avec une metode de caractéristique (MOC) étendue à une équation d'etat générique. Les effets visqueux sont pris en compte par l'introduction d'une correction turbulente appropriée de la couche limite compressible. Étant donné que les sources de chaleur proposées pour turbines ORC comprennent typiquement des sources d'énergie variables, comme la WHR des procédés industriels ou des applications automobiles, pour améliorer la faisabilité de cette technique, la résistance à des conditions variables d'entrée est prise en compte. L'optimisation numérique sous incertitudes est appelé Optimisation robuste (RO) et il surmonte la limitation de l'optimisation déterministe qui néglige l'effet des incertitudes dans les variables de design et / ou des paramètres de design. Pour mesurer la robustesse d'un nouveau design, les statistiques (la moyenne et la variance, ou écart-type) d'une réponse sont calculées dans le processus RO. Dans ce travail, la conception MOC des ORC aubes supersoniques est utilisé pour créer une profil de référence. Cela est optimisé grâce à une boucle RO. L'optimiseur stochastique est basée sur un modèle de krigeage bayésien de la réponse du système aux paramètres incertains, utilisé pour l'approximation des statistiques de la sortie du système, couplé à une algorithme genetique multi-objectif (NSGA). Une forme optimale qui maximise la moyenne et minimise la variance de l'efficacité isentropique est recherché. L'efficacité isentropique est évaluée au moyen de simulations RANS (Reynolds Average Navier-Stokes) de l'aube. Le comportement thermodynamique du fluide de travail est modélisée au moyen de l'équation d'etat de Peng-Robinson-stryjek-Vera. La forme de l'aube est paramétrée au moyen d'une approche Free Form Deformation. Pour accélérer le RO processus, une modèle de krigeage supplémentaire est construit pour la fonction multi-objectifs et une stratégie adaptif de remplissage basée sur le Multi Objective Expected Improvement es prise en compte afin d'améliorer la précision de krigeage à chaque génération de la NSGA. La forme robuste optimisé d'aube ORC est comparé aux résultats fournis par le MOC et l'optimiseur déterministe. / In recent years, the Organic Rankine Cycle (ORC) technology has received great interest from the scientific and technical community because of its capability to recover energy from low-grade heat sources. In some applications, as the Waste Heat Recovery (WHR), ORC plants need to be as compact as possible because of geometrical and weight constraints. Recently, these issues have been studied in order to promote the ORC technology for Internal Combustion Engine (ICE) applications. The idea to recover this residual energy is not new and the 1970s energy crisis encouraged the development of feasible ORC small-scale plants (1-10 kWe). Due to the molecular complexity of the working fluids, strong real gas effects have to be taken into account because of the high pressures and densities, if compared to an ideal gas. In these conditions the fluid is known as dense gas. Dense gases are defined as single phase vapors, characterized by complex molecules and moderate to large molecular weights. The role of dense gas dynamics in transonic internal flows has been widely studied for its importance in turbomachinery applications involved in low-grade energy exploitation, such as the ORC. Recently, the attention has been focused on axial turbines, which minimize the system size, if compared with radial solutions at the same pressure ratios and enthalpy drops. In this work, a novel design methodology for supersonic ORC axial impulse turbine stages is proposed. It consists in a fast, accurate two-dimensional design which is carried out for the mean-line stator and rotor blade rows of a turbine stage by means of a method of characteristic (MOC) extended to a generic equation of state. The viscous effects are taken into account by introducing a proper turbulent compressible boundary layer correction to the inviscid design obtained with MOC. Since proposed heat sources for ORC turbines typically include variable energy sources such as WHR from industrial processes or automotive applications, as a result, to improve the feasibility of this technology, the resistance to variable input conditions is taken into account. The numerical optimization under uncertainties is called Robust Optimization (RO) and it overcomes the limitation of deterministic optimization that neglects the effect of uncertainties in design variables and/or design parameters. To measure the robustness of a new design, statistics such as mean and variance (or standard deviation) of a response are calculated in the RO process. In this work, the MOC design of supersonic ORC nozzle blade vanes is used to create a baseline injector shape. Subsequently, this is optimized through a RO loop. The stochastic optimizer is based on a Bayesian Kriging model of the system response to the uncertain parameters, used to approximate statistics of the uncertain system output, coupled to a multi-objective non-dominated sorting genetic algorithm (NSGA). An optimal shape that maximizes the mean and minimizes the variance of the expander isentropic efficiency is searched. The isentropic efficiency is evaluated by means of RANS (Reynolds Average Navier-Stokes) simulations of the injector. The fluid thermodynamic behavior is modelled by means of the well-known Peng-Robinson-Stryjek-Vera equation of state. The blade shape is parametrized by means of a Free Form Deformation approach. In order to speed-up the RO process, an additional Kriging model is built to approximate the multi-objective fitness function and an adaptive infill strategy based on the Multi Objective Expected Improvement for the individuals is proposed in order to improve the surrogate accuracy at each generation of the NSGA. The robustly optimized ORC expander shape is compared to the results provided by the MOC baseline shape and the injector designed by means of a standard deterministic optimizer.
|
35 |
Pervaporation de composés purs : approche expérimentale du couplage entre transfert de matière et transfert de chaleur / Pervaporation of pure compounds : experimental approach of the coupling between mass and heat transferToudji, Sid-Ali Amine 10 April 2018 (has links)
L'objectif de ce travail est l'étude du procédé de pervaporation et plus particulièrement la compréhension des mécanismes de transfert de masse et de chaleur dans une membrane en polymère qualifiée de dense. Une meilleures compréhension des mécanismes permettrait de lever les verrous limitant le développement de ce procédé, comme les faibles flux de matière ainsi que l'origine et la quantité de chaleur nécessaire au transfert à travers la membrane. Pour cela, nous avons développé un dispositif expérimental qui permet de mesurer en simultané les densités de flux de matière et de chaleur. La configuration frontale statique de perméation du dispositif mis en place donne accès au profil de température du liquide d'alimentation. Ces données de température ont permis de calculer les densités de flux de chaleur engagées durant les expériences de pervaporation grâce à un calcul par méthode inverse couplé à une simulation STAR CCM+. La densité de flux de matière est mesurée par une nouvelle méthode. La nouvelle méthode utilise un capteur de pression situé dans le réservoir d'alimentation permettant de mesurer en continu la densité de flux de matière synchronisée avec la mesure des températures. Afin de simplifier au maximum les contraintes expérimentales, nous nous sommes restreints à la perméation de composés purs. La corrélation des deux flux mesurés nous a conduit à observer que la quantité de chaleur prise au fluide en amont pour pervaporer une unité de masse de liquide pur est inférieure à la quantité de chaleur nécessaire pour vaporiser ce même liquide. Elle représente 50 % de celle-ci dans le cas de l’eau et seulement 25 % dans le cas de l’éthanol. / The aim of this work is to study the pervaporation process and specifically to understand the mass and heat transport mechanisms in a dense polymeric membrane. A better understanding of these mechanisms would make it possible to improve the limiting parameters for the development of this process, such as the low mass fluxes as well as the origin and the quantity of heat required for transport through the membrane. In order to answer these questions, we have developed an experimental setup that allows simultaneous measurement of mass flux and heat flux density. The dead-end permeation of the setup developed gives access to the temperature profile of the liquid feed. These temperature data make possible the estimation of the heat flux densities engaged during the pervaporation experiments by means of an inverse computation coupled with a STAR CCM + simulation. The mass flux is measured by a new method in addition to the gravimetric method used as a reference. The new method uses a pressure sensor located in the feed tank to continuously measure the mass flux with 1Hz raw acquisition frequency synchronized with the temperature measurement. In order to simplify the experimental constraints, we applied only permeation of pure liquids. The correlation of the two fluxes (mass and heat density) measured led us to observe that the amount of heat taken to the feed side to pervaporate a unit mass of pure liquid is less than the amount of heat required to vaporize the same liquid. It represents 50% of it in the case of water and only 25% in the case of the ethanol.
|
36 |
Localisation d'évènements sismiques en proche surface sur la faille de San Jacinto à l'aide d'un réseau dense de capteurs / Localization of subsurface seismic events on the San Jacinto faultusing a dense array of sensorsGradon, Chloé 15 January 2019 (has links)
Cette thèse traite de la détection et de la localisation de sources autour de la faille de San Jacinto. Son but était de détecter des sources dans la croute superficielle, sur des profondeurs de l'ordre de quelques kilomètres. Ces sources ont une faible énergie et émettent principalement dans les hautes fréquences. Les sources à la surface autour et sur le réseau possèdent les mêmes caractéristiques et sont aussi étudiées afin de pouvoir les séparer des évènements en profondeur.Une méthode basée sur le traitement d'antenne, le Match Field Processing (MFP), est utilisée pour détecter et localiser de faibles évènements à faible profondeur et à la surface. Le MFP est appliqué a des données mesurées grâce a un réseau dense de capteurs une composante déployés sur une zone de 600mx600m sur la faille de San Jacinto. La méthode a d'abord été testée sur un ensemble d'évènements à la surface et en profondeur. Nous appliquons ensuite la technique sur 26 jours de données, afin de déterminer si des évènements sont présents en proche surface. Pour cela, seules la position en surface de la source et la vitesse apparente des ondes émises sont utilisés comme paramètres d'inversion. L'utilisation de ces trois paramètres permet de réaliser une première étude à moindre coût de calcul. Cependant cette première inversion ne permet pas de conclure sur la présence de sources en proche surface. L'information sur la position de la source en profondeur est nécessaire. Les résultats de localisations qui incluent la profondeur comme paramètre étant peu concluants lorsque le modèle classique de vitesse homogène est utilisé, nous étudions ensuite différentes stratégies pour améliorer la résolution en profondeur sans augmenter le coût de calcul. / The focus of this thesis is the detection and localization of weak sources on the San Jacinto Fault Zone. The primary targets of interest are sources in the shallow crust, with depth down to a few kilometers. For sources at these depths high frequency content and low energy are expected. Surface sources present on and around the array site are also studied in order to discriminate them from weak seismic sources at depth.We rely on a methodology based on array processing to detect and localize shallow and weak seismic events in the fault zone complex environment. We use Match field Processing on data recorded from a dense array of 1108 vertical component geophones in a 600m x 600m area on the Clark branch of the San Jacinto Fault. We first test the method on a set of chosen events at depth and at the surface. Source epicentral positions and associated apparent velocities are then inverted for surface and seismic sources for 26 days, with the intention of determining if shallow sources are present. Inverting only for these three parameters is less expensive in terms of computational cost and is suitable for a first approach. However, this first inversion leaves us unable to conclude on the presence of shallow sources. As the resolution at depth is insufficient when all three source coordinates are inverted with a classical homogeneous velocity model, we finally investigate strategies to improve resolution at depth without increasing computational cost.
|
37 |
Quelques expériences sur l'évaporation de spray dense et la chimiotaxie de la mite / Some experiments on dense spray evaporation and moth chemotaxisRivas, Aloïs, de 12 July 2017 (has links)
Ce manuscrit présente des études expérimentales sur l'évaporation de gouttes et la chimiotaxie de la mite.Une première partie s'intéresse à l'évaporation de spray dense au moyen d'une nouvelle approche, par analogie avec le mélange scalaire. Dans cette limite de forte densité en gouttes, où il y a saturation en vapeur au sein des structures constituantes, l'évaporation est principalement fonction de l'étirement auxquelles ces structures sont soumises. C'est en effet celui-ci qui conditionne le taux d'évacuation de cette vapeur interstitielle, ce qui permet de mettre les gouttes en contact avec un environnement plus sec, déclenchant ainsi leurs évaporations.Une deuxième partie s'intéresse à une application de la compréhension de cette dynamique d'évaporation de spray dense à un contexte d'entomologie: la chimiotaxie de la mite. Il s'agit du processus par lequel l'animal va se repérer dans un champ de concentration, pour localiser la source d'une substance attractive par exemple (ici de la phéromone sexuelle). Cette partie a tendu vers l'obtention d'une visualisation conjointe de la trajectoire de l'animal et du champ de concentration sous-jacent par la visualisation des gouttes. / This thesis present some experiments on droplets evaporation and moth chemotaxis.In a first part, dense spray evaporation is explained through a new approach, drawing an analogy with scalar mixing. In this high density droplets limit, where vapor saturation is reached within the structures, evaporation is mainly controlled by the intensity at which these structures are stretch. It is indeed the stretching that controls the rate at witch interstitial vapor is evacuated: droplets are thus in contact with a dryer environment, so they can start to evaporate.A second part take an interest in applying dense spray evaporation dynamic understanding to an entomologist situation: moth chemotaxis. This is the process by which animals find their way in a concentration field, such at finding a chemoattractant source for instance (sexual pheromone in our case). This part tended towards visualizing animal trajectory and concentration field underlying through droplets visualization simultaneously.
|
38 |
Visualisation interactive de simulations à grand nombre d'atomes en physique des matériaux / Interactive visualization of material physics simulations with large number of atomsLatapie, Simon 07 April 2009 (has links)
Afin de répondre au besoin croissant de puissance de calcul qui intéresse les applications scientifiques, des architectures de calculateurs de plus en plus parallèles se répandent, de type cluster, MPP, ou autre, avec de plus en plus d’unités de calcul. Les codes de calcul, en s’adaptant à ce parallélisme, produisent de fait des résultats de plus en plus volumineux. Dans le domaine plus spécifique de la dynamique moléculaire appliquée à la physique des matériaux, le nombre de particules d’un système étudié est aujourd’hui de l’ordre de quelques millions à quelques centaines de millions, ce qui pose d’importants problèmes d’exploitation des données produites. Les solutions de visualisation utilisées auparavant ne sont plus capables de traiter une telle quantité d’information de façon interactive. Le but de cette thèse est de concevoir et d’implémenter une solution de manipulation de données composées d’un très grand nombre de particules, formant un ensemble .dense. ( par exemple, une simulation en dynamique moléculaire de quelques dizaines de millions d’atomes ). Cette solution devra être adaptative pour pouvoir fonctionner non seulement sur un poste de bureau de type .desktop., mais aussi dans des environnements collaboratifs et immersifs simples, par exemple de type mur d’image, avec éventuellement des éléments de réalité virtuelle (écrans stéréo, périphériques 3D). De plus, elle devra augmenter l’interactivité, c’est-à-dire rendre le système plus apte à réagir avec l’utilisateur, afin d’effectuer des phases d’exploration des données plus efficaces. Nous proposons une solution répondant à ces besoins de visualisation particulaire dense, en apportant des améliorations : – à l’interaction, par un système permettant une exploration simple et efficace d’une simulation scientifique. A cette fin, nous avons conçu, développé, et testé le .FlowMenu3D., une extension tridimensionnelle du .FlowMenu., un menu octogonal utilisé en environnement 2D. – à l’interactivité, par une architecture optimisée pour le rendu de systèmes particulaires denses. Cette dernière, intégrée au framework de visualisation VTK, est conçue sur le principe d’un rendu parallèle hybride sort-first/sort-last, dans lequel le système sort-last Ice-T est couplé à des extensions de partitionnement spatial des données, d’occlusion statistique par une méthode de Monte-Carlo, mais aussi de programmation GPU à base de shaders pour améliorer la performance et la qualité du rendu des sphères représentant les données. / The need for more computing power for scientific applications leads supercomputer manufacturers to rely on more and more parallel architectures, such as cluster or MPP systems, increasing the number of processing units. The correlative adjustment of computing software - simulation codes - to massive parallelism leads to larger and larger datasets. More specifically, in molecular dynamics simulations applied to material physics, particle sets are typically composed of millions to hundreds of millions of particles, which raises important postprocessing issues. Most current visualization solutions do not scale up to interactively handle such an amount of information. The goal of this thesis is to design and implement a post-processing solution which is able to handle .dense. sets with a very large number of particles (for example, a molecular dynamics simulation result with several millions of atoms). This solution will have to be adaptive enough to run either on a desktop environment, or on a simple collaborative and immersive configuration, such as a tiled display, possibly with some virtual reality devices (such as stereo displays and 3D interaction peripherals). Moreover, this solution will have to maximize the interactivity, i.e. to increase the reactivity of the system against the user commands, to improve data exploration stages. We propose a solution optimized for dense particle systems visualization, improving both interaction and interactivity : – regarding interaction, a new simple and efficient way of exploring a scientific simulation is proposed. We developed and tested .FlowMenu3D., a 3D extension of the .FlowMenu. concept, an octagonal menu previously designed for 2D environments. – regarding interactivity, we propose an optimized architecture for dense particle systems rendering. The system relies on VTK visualization framework and a parallel hydrid sort-first/sort-last renderer. The existing Ice-T component is augmented with spatial data partitioning as well as statistical (Monte Carlo) occlusion mechanisms. GPU shaders eventually improve the performance and quality of rendering, using spheres as basic primitives.
|
39 |
Spigot capacity of dense medium cyclonesMagwai, Mohloana Kwena 22 April 2008 (has links)
Dense medium cyclones are used extensively in the mineral processing industry to beneficiate various minerals including coal, diamonds and iron ore, amongst others. According to Reeves (2002), .the cyclone has been installed in over one-quarter of the coal preparation plants worldwide.. Dense medium cyclones have the ability to achieve high capacities, and simultaneously obtain sharp separations and high separation efficiencies. However, this piece of equipment does have a shortcoming in that its capacity is constrained by the solids carrying capacity of the spigot. This is termed the spigot capacity. There is uncertainty on whether the spigot capacities specified by DSM (Dutch State Mines), the original developers of the dense medium cyclone, can be increased or not, and how these capacities were determined. The purpose of this study is to establish a methodology to determine the spigot capacities of dense medium cyclones, and determine the parameters that influence these capacities. In order to illustrate the significance of increasing the capacity of dense medium cyclones, the following coal example is used: In 2005, South Africa produced about 245Mt of coal valued at R35.86 billion. A significant proportion of this coal is beneficiated through dense medium cyclones. Therefore, an increase in the cyclone capacity, even if relatively small, represents a large number in terms of tonnages of coal produced or monetary gains. It has been established clearly in this investigation that the maximum spigot capacity is reached at the onset of roping. A critical sinks ore concentration at which spigot overloading occurs has been observed. The simplest and best indicator of possible spigot overloading has been established to be the sinks ore concentration, measurement of this parameter could, however, prove challenging on most industrial cyclones. Further, spigot overloading of a dense medium cyclone can be detected visually by observing the discharge type at the sinks and monitoring particle misplacement to the floats stream. A regression model that quantifies the spigot capacity, in terms of ore and slurry, has been developed. Various parameters were considered in the model, these include: cyclone geometry, feed head, medium density, and medium grade. Parameters that influence the spigot capacity of dense medium cyclones have been established, and their effect on the spigot capacity has been quantified. The spigot capacity values obtained in this investigation were compared with those specified by DSM, and it was concluded that there is large potential to increase the .spigot capacities. specified by DSM. / Dissertation (MEng (Metallurgical))--University of Pretoria, 2008. / Materials Science and Metallurgical Engineering / unrestricted
|
40 |
Reconstruction 3D et production de carte dense de disparité en stéréovision non-alignée pour des applications industrielles de localisation 3D et d'analyse de surface / 3D reconstruction and production of dense disparity map in non-aligned stereo vision for industrial applications of 3D measurement and surface analysisPelcat, Jimmy 23 February 2012 (has links)
En vision industrielle, de nombreuses applications de mesure et de contrôle qualité évoluent vers des problématiques tri-dimensionnelles. Les systèmes de stéréovision sont des solutions technologiques qui attirent les industriels par leur simplicité mécanique. Deux caméras statiques disposées à des endroits stratégiques peut s'avérer suffisantes pour répondre à cette problématique bien que les contraintes industrielles imposent de respecter des temps de traitement courts et des mesures précises. La diversité des applications nous amènent à envisager deux approches afin de répondre à deux types d'application. La première technique consiste en la reconstruction 3D à partir de paires de points images qui se correspondent dans les deux images. Elle est destinée à répondre à la problématique de mesure 3D. Les méthodes de calibration monoculaire et de calcul 3D par triangulation sont la base de la reconstruction 3D. Nous étudions la précision de mesure et son évolution selon la pose du système de capture par rapport à la scène observée. La seconde technique consiste à construire des images de disparité afin de répondre à des problématiques de construction de profil et d'analyse de défaut. La contrainte d'alignement des caméras, nécessaire pour accélérer le processus de mise en correspondance, implique d'utiliser des méthodes de calibration stéréoscopique et de rectification des images. Nous étudions l'impact de l'alignement sur la qualité de la rectification. La production de carte dense de disparité se base sur les techniques de stéréo-corrélation. Nous montrons les limites de l'utilisation d'un noyau de corrélation carré et proposons une alternative par production de deux cartes denses de disparité à partir de deux noyaux mono-directionnels, améliorant la mesure de disparité sur les zones de contours et d'occultations. / In industrial vision, many applications for measuring and quality control are moving to three-dimensional problems. Stereovision systems are technological solutions that attract industry by their mechanical simplicity. Two static cameras placed at strategic locations may be sufficient to address this problem although the industrial constraints imposed to respect a short processing time and precise measurements. The diversity of applications lead us to consider two approaches to resolve the two types of application. The first technique consists in the 3D reconstruction from pairs of image points which correspond in both images. It is intended to address the problem of 3D measurement. The methods of monocular calibration and 3D triangulation are the basis of 3D reconstruction. We study the accuracy and its evolution according to the capture system pose compared to the observed scene. The second technique is to construct disparity maps to address problems of building profile and default analysis. The alignment constraint of cameras needed to accelerate the process of matching involves the use of methods of stereoscopic calibration and image rectification. We study the impact of alignment on the quality of the rectification. The production of dense disparity map is based on the stereo-correlation techniques. We show the limits of the use of a squared correlation kernel and propose an alternative production of two dense disparity maps from two mono-directional kernels, improving the measurement of disparity around edges and occlusions.
|
Page generated in 0.0451 seconds