• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 25
  • 7
  • Tagged with
  • 32
  • 32
  • 14
  • 13
  • 12
  • 11
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Discrete shape analysis for global illumination / Analyse de formes pour l'illumination globale

Noel, Laurent 15 December 2015 (has links)
Les images de synthèse sont présentes à travers un grand nombre d'applications tel que les jeux vidéo, le cinéma, l'architecture, la publicité, l'art, la réalité virtuelle, la visualisation scientifique, l'ingénierie en éclairage, etc. En conséquence, la demande en photoréalisme et techniques de rendu rapide ne cesse d'augmenter. Le rendu réaliste d'une scène virtuelle nécessite l'estimation de son illumination globale grâce à une simulation du transport de lumière, un processus coûteux en temps de calcul dont la vitesse de convergence diminue généralement lorsque la complexité de la scène augmente. En particulier, une forte illumination indirecte combinée à de nombreuses occlusions constitue une caractéristique globale de la scène que les techniques existantes ont du mal à gérer. Cette thèse s'intéresse à ce problème à travers l'application de techniques d'analyse de formes pour le rendu 3D.Notre principal outil est un squelette curviligne du vide de la scène, représenté par un graphe contenant des informations sur la topologie et la géométrie de la scène. Ce squelette nous permet de proposer de nouvelles méthodes pour améliorer des techniques de rendu temps réel et non temps réel. Concernant le rendu temps réel, nous utilisons les informations géométriques du squelette afin d'approximer le rendu des ombres projetés par un grand nombre de points virtuels de lumière représentant l'illumination indirecte de la scène 3D.Pour ce qui est du rendu non temps réel, nos travaux se concentrent sur des algorithmes basés sur l'échantillonnage de chemins, constituant actuellement le principal paradigme en rendu physiquement plausible. Notre squelette mène au développement de nouvelles stratégies d'échantillonnage de chemins, guidés par des caractéristiques topologiques et géométriques. Nous adressons également ce problème à l'aide d'un second outil d'analyse de formes: la fonction d'ouverture du vide de la scène, décrivant l'épaisseur locale du vide en chacun de ses points. Nos contributions offrent une amélioration des méthodes existantes and indiquent clairement que l'analyse de formes offre de nombreuses opportunités pour le développement de nouvelles techniques de rendu 3D / Nowadays, computer generated images can be found everywhere, through a wide range of applications such as video games, cinema, architecture, publicity, artistic design, virtual reality, scientific visualization, lighting engineering, etc. Consequently, the need for visual realism and fast rendering is increasingly growing. Realistic rendering involves the estimation of global illumination through light transport simulation, a time consuming process for which the convergence rate generally decreases as the complexity of the input virtual 3D scene increases. In particular, occlusions and strong indirect illumination are global features of the scene that are difficult to handle efficiently with existing techniques. This thesis addresses this problem through the application of discrete shape analysis to rendering. Our main tool is a curvilinear skeleton of the empty space of the scene, a sparse graph containing important geometric and topological information about the structure of the scene. By taking advantage of this skeleton, we propose new methods to improve both real-time and off-line rendering methods. Concerning real-time rendering, we exploit geometric information carried by the skeleton for the approximation of shadows casted by a large set of virtual point lights representing the indirect illumination of the 3D scene. Regarding off-line rendering, our works focus on algorithms based on path sampling, that constitute the main paradigm of state-of-the-art methods addressing physically based rendering. Our skeleton leads to new efficient path sampling strategies guided by topological and geometric features. Addressing the same problem, we also propose a sampling strategy based on a second tool from discrete shape analysis: the opening function of the empty space of the scene, describing the local thickness of that space at each point. Our contributions demonstrate improvements over existing approaches and clearly indicate that discrete shape analysis offers many opportunities for the development of new rendering techniques
22

Évaluation d’algorithmes stéréoscopiques de haute précision en faible B/H / Evaluation of high precision low baseline stereo vision algorithms

Dagobert, Tristan 04 December 2017 (has links)
Cette thèse étudie la précision en vision stéréo, les méthodes de détection dites a contrario et en présente une application à l'imagerie satellitaire. La première partie a été réalisée dans le cadre du projet DGA-ANR-ASTRID "STÉRÉO". Son but est de définir les limites effectives des méthodes de reconstruction stéréo quand on contrôle toute la chaîne d’acquisition à la précision maximale, que l’on acquiert des paires stéréo en rapport B/H très faible et sans bruit. Pour valider ce concept, nous créons des vérités terrains très précises en utilisant un rendeur. En gardant les rayons calculés durant le rendu, nous avons une information très dense sur la scène 3D. Ainsi nous créons des cartes d'occultations, de disparités dont l'erreur de précision est inférieure à 10e-6. Nous avons mis à la disposition de la communauté de recherche des images de synthèse avec un SNR supérieur à 500 : un ensemble de 66 paires stéréo dont le B/H varie de1/2500 à 1/50. Pour évaluer les méthodes de stéréo sur ce nouveau type de données, nous proposons des métriques calculant la qualité des cartes de disparités estimées, combinant la précision et la densité des points dont l'erreur relative est inférieure à un certain seuil. Nous évaluons plusieurs algorithmes représentatifs de l'état de l'art, sur les paires créées ainsi sur les paires de Middlebury, jusqu'à leurs limites de fonctionnement. Nous confirmons par ces analyses, que les hypothèses théoriques sur le bien-fondé du faible B/H en fort SNR sont valides, jusqu'à une certaine limite que nous caractérisons. Nous découvrons ainsi que de simples méthodes de flux optique pour l'appariement stéréo deviennent plus performantes que des méthodes variationnelles discrètes plus élaborées. Cette conclusion n'est toutefois valide que pour des forts rapports signal à bruit. L'exploitation des données denses nous permet de compléter les vérités terrain par une détection très précise des bords d'occultation. Nous proposons une méthode de calcul de contours vectoriels subpixéliens à partir d'un nuage de points très dense, basée sur des méthodes a contrario de classification de pixels. La seconde partie de la thèse est dédiée à une application du flot optique subpixélien et des méthodes a contrario pour détecter des nuages en imagerie satellitaire. Nous proposons une méthode qui n'exploite que l'information visible optique. Elle repose sur la redondance temporelle obtenue grâce au passage répété des satellites au-dessus des mêmes zones géographiques. Nous définissons quatre indices pour séparer les nuages du paysage : le mouvement apparent inter-canaux, la texture locale, l'émergence temporelle et la luminance. Ces indices sont modélisés dans le cadre statistique des méthodes a contrario qui produisent un NFA (nombre de fausses alarmes pour chacun). Nous proposons une méthode pour combiner ces indices et calculer un NFA beaucoup plus discriminant. Nous comparons les cartes de nuages estimées à des vérités terrain annotées et aux cartes nuageuses produites par les algorithmes liés aux satellites Landsat-8 etSentinel-2. Nous montrons que les scores de détection et de fausses alarmes sont supérieurs à ceux obtenus avec ces algorithmes, qui pourtant utilisent une dizaine de bandes multi-spectrales. / This thesis studies the accuracy in stereo vision, detection methods calleda contrario and presents an application to satellite imagery. The first part was carried out within the framework of the project DGA-ANR-ASTRID"STEREO". His The aim is to define the effective limits of stereo reconstruction when controlling the entire acquisition chain at the maximum precision, that one acquires stereo pairs in very low baseline and noise-free. To validate thisconcept, we create very precise ground truths using a renderer. By keeping the rays computed during rendering, we have very dense information on the 3Dscene. Thus we create occultation and disparity maps whose precision error is less than 10e-6. We have made synthetic images available to the research community with an SNR greater than 500: a set of 66 stereo pairs whoseB/H varies from 1/2500 to 1/50. To evaluate stereo methods onthis new type of data, we propose metrics computing the quality of the estimated disparity maps, combining the precision and the density of the points whose relative error is less than a certain threshold. We evaluate several algorithmsrepresentative of the state of the art, on the pairs thus created and on theMiddlebury pairs, up to their operating limits. We confirm by these analyzesthat the theoretical assumptions about the merit of the low B/H in highSNR are valid, up to a certain limit that we characterize. We thus discover that simple optical flow methods for stereo matching become more efficient than more sophisticated discrete variational methods. This conclusion, however, is only valid for high signal-to-noise ratios. The use of the dense data allows us to complete the ground truths a subpixel detection of the occlusion edges. We propose a method to compute subpixel vector contours from a very dense cloud ofpoints, based on pixel classification a contrario methods. The second part of the thesis is devoted to an application of the subpixelian optical flowand a contrario methods to detect clouds in satellite imagery. We propose a method that exploits only visible optical information. It is based onthe temporal redundancy obtained by the repeated passages of the satellites overthe same geographical zones. We define four clues to separate the clouds fromthe landscape: the apparent inter-channel movement, Local texture, temporal emergence and luminance. These indices are modeled in the statistical framework of a contrario methods which produce an NFA (number of false alarms for each). We propose a method for combining these indices and computing a much more discriminating NFA. We compare the estimated cloud maps to annotated ground truths and the cloud maps produced by the algorithms related to the Landsat-8and Sentinel-2 satellites. We show that the detection and false alarms scores are higher than those obtained with these algorithms, which however use a dozen multi-spectral bands.
23

Conception et réalisation, par fabrication additive, de matériaux cellulaires architecturés / Design and realization, by additive manufacturing, of architectural cellular materials

Heisel, Cyprien 16 May 2019 (has links)
La démarche « matériaux numériques », développée au CEA Le Ripaut, consiste à optimiser numériquement une structure, à l’aide de codes de calcul permettant de réaliser des expériences numériques, afin de répondre le plus précisément possible à un cahier des charges. La mise en œuvre de ces structures optimisées, aux formes pouvant être complexes, n’est parfois pas réalisable avec les procédés de fabrication actuels. Cependant, la progression rapide de l’impression 3D semble maintenant pouvoir concrétiser cette démarche. Le but de cette thèse est d’étudier cette faisabilité de fabrication, à travers une application concrète : l’optimisation des récepteurs volumétriques des Centrales Solaires Thermodynamiques (CST).Actuellement, la conception de ces récepteurs en Carbure de Silicium (SiC) est restreinte par les techniques existantes de fabrication, et leurs morphologies se limitent donc principalement à des mousses ou des canaux parallèles. Or, ce type de structure ne permet pas d’exploiter tout le caractère 3D proposé par les récepteurs, en raison notamment d’une absorption trop hétérogène du rayonnement solaire dans le volume. Dans ce travail de thèse, afin de rechercher la répartition de l’absorption la plus homogène possible dans l’ensemble du volume, de nombreuses structures aux formes variées sont générées virtuellement. Une simulation de l’éclairement solaire reçu est réalisée sur l’ensemble de ces structures, grâce à un code de calcul développé spécialement pour cette application, permettant ainsi d’en retenir trois répondants au mieux aux critères du cahier des charges. Ces structures potentiellement optimisées ont ensuite été fabriquées en SiC par impression 3D, par un procédé de projection de liant sur lit de poudre. Elles ont été ensuite testées sur un banc d’essai expérimental du laboratoire PROMES, reproduisant les conditions d’une CST. Les résultats ont montrés que ces structures, aux formes totalement différentes de mousses ou de canaux parallèles, sont capables de produire au maximum de l’air à 860°C en sortie de récepteur, et avec des rendements énergétiques proches de 0,65. Enfin, un code de calcul thermique couplé conducto-radiatif, amélioré durant ce travail, a permis d’analyser ces résultats expérimentaux et servira pour les futurs travaux d’optimisation de la géométrie d’un récepteur. / The "numerical materials" approach, developed at CEA Le Ripaut, consists to numerically optimize a structure, by using calculation codes that allow to realize numerical experiments, in order to answer, as precisely as possible, to a set of specifications. The manufacturing of these optimized structures, whose shapes can be complex, is sometimes not feasible with current manufacturing processes. However, the rapid progress of 3D printing now seems to be able to concretize this approach. The aim of this thesis is to study this manufacturing feasibility, through a concrete application: the optimization of the volumetric receivers of Concentrated Solar Power Plants (CSP). Currently, the design of these silicon carbide (SiC) receptors is restricted by the existing manufacturing techniques, and their morphologies are therefore mainly limited to foams or parallel channels. However, this type of structure does not allow to exploit all the 3D character proposed by the receivers, due in particular to a heterogeneous absorption of solar radiation in the volume. In this work, in order to find the distribution of the most homogeneous absorption possible in the whole volume, many structures with various shapes are generated virtually. A simulation of the solar irradiance received is carried out on all these structures, thanks to a calculation code developed especially for this application, thus allowing to choose three of them, respondents at best to the criteria of the specifications. These potentially optimized structures were then manufactured in SiC by 3D printing, by a binder jetting process. They were then tested on an experimental test bench of the PROMES laboratory, reproducing the conditions of a CSP. Results showed that these structures, where their shapes are totally different from foams or parallel channels, are able to produce a maximum air temperature of 860°C at the output of the receiver, and with efficiencies close to 0.65. Finally, a conducto-radiative coupled thermal computational code, improved during this work, made it possible to analyze these experimental results and will be used for the future work of optimization of the geometry of a receiver.
24

Estimation du potentiel de la technologie solaire thermodynamique à concentration en climat non désertique - Application à La Réunion / No English title available

Tapachès, Émeric 29 April 2015 (has links)
Le travail de recherche présenté s'inscrit pleinement dans les préoccupations énergétiques de la Réunion, en proposant d'évaluer le potentiel de la technologie solaire thermodynamique avec ou sans système à concentration en zone tropicale et les réseaux électriques non interconnectés. Le solaire thermodynamique désigne la production d'électricité à partir du rayonnement solaire via un cycle thermodynamique. En soumettant le cycle thermodynamique à une source « froide » (eau ou air ambiant) et une source « chaude » générée par des capteurs solaires l'on obtient un travail mécanique en sortie de turbine. En couplant la turbine à un alternateur de l'électricité est produite. Utilisation de capteurs à faible ou sans concentration permettent de diminuer le seuil de rentabilité des installations solaires thermodynamiques. Dans ce cas, ce type de technologie n'est plus réservé aux climats désertiques ou méditerranéens. Une étude préliminaire montre qu'elles sont exploitables en zone tropical. De plus, le couplage de l'installation à des systèmes de stockage thermique ou à des installations d'appoint utilisant de la biomasse par exemple permet de produire une énergie électrique de façon continue. Ce projet de recherche à pour but de définir les technologies adéquates, étudier finement les microclimats locaux propices à ces technologies et de réaliser un modèle numérique pour l'étude des conditions d'opération des installations solaires thermodynamiques. Ce projet permettra d'explorer une filière énergétique d'avenir et développer une expertise locale qui contribuera au rayonnement de la Réunion dans la zone océan Indien. / This thesis focuses on the study of the direct solar resource received in Reunion and numerical modeling of a solar power plant consists of: 1 / a field of linear Fresnel collectors in which circulates synthetic oil; 2 / two sensible heat storage tanks; 3 / an organic Rankine cycle. The main goal is to evaluate the performance of such power plant in the island area identified as suitable.To meet this goal, several studies have been conducted: (i) a beam solar radiation map of Reunion was made from satellite images of MeteoSat 7. This map was used to assess the availability of this resource; (ii) a new global-to-diffuse irradiance decomposition model was made from based-ground measurements at Saint-Pierre. This model is based on the representation of higher probabilities of occurrence of the diffuse fraction; (iii) the geometry of the solar collector and beam solar irradiance were modeled from an existing ray-tracing code. This code has been used, firstly, to dimension the collector using an optimization method. And secondly, to develop a fast method in order to simulate absorbed flux distribution on the linear receiver elements; (iv) unsteady-state heat transfers within the solar collector was modeled with a nodal approach; (v) annual electricity production of the power plant running in the south of the island was simulated with a monitoring and control strategy relevant for the demand of the local electricity grid.The models that have been developed during this thesis are design support tools and allow the study of control strategies control of solar power plants with linear Fresnel collector.
25

Microscopies Optiques et Spectroscopies de Matériaux Épais : Mesures et Simulations Appliquées à des Photosensibilisateurs de l'Oxygène Singulet en Matrice de Silice / Optical Spectroscopy and Microscopy of Thick Materials : Measurements and Simulations Applied to Photo-Sensitizers of Singlet Oxygen in Silica Matrix

Garcia Pérez, José Antonio 20 September 2013 (has links)
Ce travail présente une étude, par microscopie optique et de fluorescence, de matériaux hybrides, basés sur des monolithes de silice contenant des dérivés du cyano-anthracène : 9,10-dicyano-anthracène (DCA) ou 9,14-dicyano-benzo(b)triphénylène (DBTP), qui sont des photo-sensibilisateurs de l'oxygène singulet. Alors que ces matériaux sont bien caractérisés du point de vue de la photo-oxydation des sulfures sous des conditions hétérogènes par des études macroscopiques, certaines propriétés concernant l'association du photosensibilisateur avec l'absorbant peuvent être masquées, dominées ou encore mal interprétées par uniquement des mesures d'ensemble. Ici, nous combinons la spectroscopie d'ensemble et la microscopie optique et de fluorescence, et développons des protocôles expérimentaux concernant des échantillons solides épais, dans le but d'étudier la distribution spatiale et la mobilité des photosensiblisateurs dans la matrice hôte ainsi que d'analyser les interactions entre ces deux entités. La microscopie optique montre dans tous les cas des inhomogénéités localisées à l'interface du monolithe et attribuées à la formation de bulles pendant la synthèse et une accumulation locale du DBTP. A partir de simulations Monte-Carlo de lancer de rayons, nous développons un protocôle pour corriger les artéfacts de réfraction dans les profils d'intensité de fluorescence en fonction de la profondeur, obtenus par des mesures confocales, pour déterminer la distribution axiale du photosensibilisateur ce qui permet de mettre en évidence une nette augmentation de la concentration en photosensibilisateurs dans les premiers 50—100 m dessous la surface. L'analyse FRAP montre la très lente mobilité de tous les photosensibilisateurs et un retour partiel de l'intensité ce qui signifie que les photosensibilisateurs se trouvent dans des régions compartimentées, probablement dues à des contraintes aléatoires du réseau de pores. De plus, l'analyse FLIM montrent des propriétés photo physiques semblables pour le DBTP inclus et greffé ce qui permet d'envisager l'inefficacité de la fonctionnalisation. Ces observations soulignent que les monolithes à base de silice sont des systèmes hors d'équilibre et correspondent à un instantané des inhomogénéités gelées pendant les derniers instants du processus de condensation-hydrolyse des monomères de silice. Enfin, corréler la spectroscopie classique avec nos observations confocales sur différentes formes de DBTP, nous permet d'établir que la bande d'émission de fluorescence non-structurée et fortement déplacée vers le rouge est probablement due à la formation d'excimères. / This work presents an optical and fluorescence microscopy study of hybrid materials based on porous silica monoliths containing derivatives of cyano-anthracene: 9,10-dicyano-anthracene (DCA) or 9,14-dicyano-benzo(b)triphenylene (DBTP), photo-sensitizers of singlet oxygen. While these materials are well known from bulk studies for the efficient photo-oxidation of sulphides under heterogeneous conditions, some characteristics of the association of the photo-sensitizer and the absorbent may be masked, overlooked or otherwise misinterpreted by bulk investigations alone. Here, we combine classical bulk spectroscopy with optical and fluorescence microscopy, and develop experimental protocols for thick solid state samples, to study the spatial distribution and the mobility of the guest in the host matrix, and analyse guest-host interactions. Optical microscopy shows in all cases localised inhomogeneities at monolith interface, ascribed to bubble formation during synthesis; wide-field fluorescence microscopy shows that these features are associated with local accumulation of the larger, more hydrophobic of the two photo-sensitizers, DBTP. Photo-sensitizer lateral distribution at the monolith interface is otherwise homogeneous. Based on Monte Carlo ray-tracing simulations, we develop a protocol for correcting refraction artefacts in measured confocal fluorescence depth profiles, to obtain the photo-sensitizer axial distribution. While it in general exhibits a sharp increase in concentration in the first 50—100 m below the surface compared to the bulk, this layer contributes negligibly to the total content of the monoliths. FRAP analysis shows mobility of the photo-sensitizers in all cases, but with diffusion constants implying months or years to equilibrate the centimetre-sized monoliths. Classical bulk and confocal spectroscopy with FLIM analysis show similar photo-physical properties of DBTP included and grafted. The main effects of funcionalization in this photo-sensitizer are to slow down diffusion and to counter its aggregation. Incomplete FRAP recovery implies photo-sensitizer mobility is compartmented, probably due to random constrictions in the pore network. These observations underline that silica-based monoliths are non-equilibrium systems encapsulating a snapshot of any homogeneities frozen in during the later stages of hydrolysis-condensation of silicate units. Correlating classical bulk spectroscopy with our confocal observations on the different DBTP forms, conclude that its unusual structureless, red-shifted emission is probably due to excimer emission.
26

Innovative Ray Tracing Algorithms for Space Thermal Analysis

Vueghs, Pierre 09 March 2009 (has links)
Pour mettre au point le système de contrôle thermique dun engin spatial (satellite, sonde ou véhicule habité), lingénieur thermicien utilise des logiciels adaptés, tels quESARAD et ESATAN, commercialisés par ALSTOM. Comme la composante radiative peut jouer un rôle prédominant, les logiciels utilisés contiennent fréquemment un algorithme de lancer de rayons pour calculer les facteurs de vue et facteurs déchange radiatif entre des surfaces de dimensions finies, supposées isothermes. Les flux externes (solaires, albédo et infrarouge terrestres) sont également calculés par lancer de rayons. Enfin, les couplages conductifs sont habituellement encodés manuellement par lutilisateur. Comme le lancer de rayons est basé sur un processus aléatoire, la précision atteinte est déterminée par le nombre de rayons lancés. En général, le choix de ce nombre de rayons est laissé à la discrétion de lingénieur, ce qui peut conduire à des erreurs. Un autre inconvénient du lancer de rayons est sa faible convergence. Une méthode daccélération du lancer de rayons est nécessaire. Dans le cadre de la thèse, nous avons développé une méthode de lancer de rayons plus performante, que nous avons appelée hémisphère stratifié, caractérisée par une meilleure convergence. Un contrôle statistique derreur a été développé : lutilisateur spécifie la précision souhaitée (définie par une erreur relative maximale et un intervalle de confiance) et lalgorithme adapte automatiquement le nombre de rayons en fonction de la configuration géométrique. Sur base de cette erreur géométrique, un système déquations adjointes est utilisé pour obtenir une erreur énergétique, caractérisant les transferts de chaleur entre les surfaces. Lhémisphère stratifié est étendu de manière à inclure des fonctions de réflexion plus complexes. Lapplication des relations de réciprocité et de fermeture est également considérée. La méthode matricielle de Gebhart, qui permet de dériver les facteurs déchange radiatifs des facteurs de vue, est étendue de manière à inclure des surfaces non-diffuses et non-isothermes. Pour accélérer le lancer de rayons, les intersections rayons-surfaces ont été soigneusement étudiées. Nous avons également développé une méthode qui combine les primitives géométriques avec des maillages éléments finis. La représentation tri-dimensionnelle du modèle géométrique est plus adaptée au calcul de la composante radiative du transfert thermique tandis que les maillages éléments finis sont plus adaptés au calcul de la conduction. Cette méthode fournit également une accélération du lancer de rayons. De plus, le lancer de rayons est effectué sur la géométrie exacte, ce qui est nécessaire si des réflexions spéculaires sont modélisées. Nous expliquons comment le lancer de rayons peut être effectué sur la géométrie exacte et comment les facteurs de vue résultants peuvent être projetés sur les éléments finis. Nous définissons la notion de facteur de vue élément fini en calculant les facteurs de vue aux noeuds et en les interpolant sur lélément fini au moyen des fonctions de forme. Ces facteurs de vue élément fini sont utilisés pour lier radiativement les noeuds du modèle. Comme le champ de température est projeté sur les fonctions de forme, nous obtenons des éléments non-isothermes, contrairement aux résultats de la méthode Thermal Lumped Parameter (différences finies) utilisée habituellement en thermique spatiale. Les liens conductifs sont calculés automatiquement sur base du maillage éléments finis. Toutes ces améliorations résultent dans un algorithme plus rapide que le programme de référence ESARAD (pour une précision équivalente) et qui fonctionne avec un petit nombre de paramètres définis par lutilisateur. Pour valider lalgorithme proposé, le modèle du vaisseau XEUS, de lESA, a été implémenté. Des comparaisons ont été effectuées avec ESARAD et le code éléments finis SAMCEF.
27

Dynamic sound rendering of complex environments

Loyet, Raphaël 18 December 2012 (has links) (PDF)
De nombreuses études ont été menées lors des vingt dernières années dans le domaine de l'auralisation.Elles consistent à rendre audible les résultats d'une simulation acoustique. Ces études se sont majoritairementfocalisées sur les algorithmes de propagation et la restitution du champ acoustique dans desenvironnements complexes. Actuellement, de nombreux travaux portent sur le rendu sonore en tempsréel.Cette thèse aborde la problématique du rendu sonore dynamique d'environnements complexes selonquatre axes : la propagation des ondes sonores, le traitement du signal, la perception spatiale du son etl'optimisation informatique. Dans le domaine de la propagation, une méthode permettant d'analyser lavariété des algorithmes présents dans la bibliographie est proposée. A partir de cette méthode d'analyse,deux algorithmes dédiés à la restitution en temps réel des champs spéculaires et diffus ont été extraits.Dans le domaine du traitement du signal, la restitution est réalisée à l'aide d'un algorithme optimisé despatialisation binaurale pour les chemins spéculaires les plus significatifs et un algorithme de convolutionsur carte graphique pour la restitution du champ diffus. Les chemins les plus significatifs sont extraitsgrace à un modèle perceptif basé sur le masquage temporel et spatial des contributions spéculaires.Finalement, l'implémentation de ces algorithmes sur des architectures parallèles récentes en prenant encompte les nouvelles architectures multi-coeurs et les nouvelles cartes graphiques est présenté.
28

Contribution à l'étude de l'effet mirage: application aux mesures dimensionnelle et thermique par caméras visible, proche infrarouge et infrarouge / Contribution to the mirage effect study: application to the thermal and dimensional measurements by cameras in the visible, NIR and IR bands

Delmas, Anthony 14 December 2012 (has links)
The Clement Ader Institute of Albi and the von Karman Institute follow<p>since numerous years works about IR radiometry with the aim to do quantitative<p>thermography (true temperature measurement without contact). These works allowed<p>to explore potentiality several spectral bands :8-12µm, 3-5µm and recently the<p>0.75-1.7µm band (near IR) with the help of CCD camera (Si) or VisGaAs camera.<p>Studies done in this specific domain have underlined some perturbations emphasized<p>at high-temperature (T>800◦C). This work has to deal in details with the<p>treatment of parameters playing a role in camera measurements. The first of these<p>parameters is the emissivity, this treatment is made in another thesis. The second<p>parameter affects particularly the hot spot location and the spatial distortion. This<p>perturbation comes from convective effect present around every hot objects.The<p>purpose of this thesis is to analyze this effect and to correct it. Indeed, when a hot<p>object is in a colder surrounding media, a temperature gradient is shaped around<p>the object and thus a refractive index gradient too. This phenomena brings inevitably<p>distortions of the spatial information received by the camera. The goal of this<p>work will be to estimate and correct error made on temperature and/or distortion<p>measurement by CCD or VisGaAs camera on hot object.We chose to focus our work<p>on the convective plume created by a hot horizontal disk. This study will be done<p>with an experimental and a numerical approach. For the numerical approach, a raytracing<p>code has been developed in order to obtain numerically the displacement<p>due to the light deviation occurring in the perturbation. The input data of the code<p>is the refractive index of the hot air present around the object. This refractive index,<p>depending on the wavelength, can be found directly from the temperature thanks<p>to the Gladstone-Dale law. The temperature is given by a CFD software such as<p>FLUENT. Experimentally, we will use the Background Oriented Schlieren (BOS)<p>method in order to retrieve the displacement. We can see that the displacement can<p>reach 4 pixels in the plume (corresponding to 1mm in this case). This perturbation<p>has been studied for several spectral bands (visible, near infrared, infrared). Finally,<p>some solutions of correction are given, like using the inverse Abel Transform<p>in order to retrieve from the 2D displacement, a 3D (axisymmetric) refractive index<p>field that we will implement in the ray-tracing code and consequently predict the<p>displacement for any kind of wavelength or distance (distance between the camera<p>and the object)./L’Institut Clément Ader Albi (ICAA) et l’Institut von Karman (IVK)<p>mènent depuis un certain nombre d’années des travaux sur la radiométrie IR dans<p>le but de faire de la thermographie quantitative (mesure de température vraie sans<p>contact). Ces travaux ont permis d’explorer les potentialités de plusieurs bandes<p>spectrales :8-12µm, 3-5µm et plus récemment la bande 0,75-1,7µm (proche IR) à<p>l’aide de caméras CCD (Si) ou VisGaAs. Les travaux effectués dans ce domaine<p>spectral ont permis de mettre en évidence un certains nombre de perturbations<p>renforcées par les hautes températures (T>800◦C). Cette thèse aborde de façon détaillée<p>le traitement d’un certain nombre de grandeurs d’influence liées à la mesure<p>de différents paramètres dans le domaine du proche IR mais également étendus aux<p>domaines du visible et de l’IR. La première de ces grandeurs est l’émissivité dont le<p>traitement a déjà été abordé par d’autres études. La seconde grandeur d’influence<p>touche plus particulièrement à la localisation des points chauds sur l’objet et la distorsion<p>du champ de température apportée par les effets convectifs présents autour<p>d’un objet à haute température, elle est le coeur de cette thèse. En effet, lorsqu’une<p>pièce chaude se trouve dans un milieu ambiant beaucoup plus froid, il se crée un<p>gradient de température et donc d’indice de réfraction autour de la pièce. Or les<p>caméras travaillant dans les différentes bandes spectrales vont être plus ou moins<p>sensibles à ces variations d’indices de réfraction du fait de la dépendance de l’indice<p>optique avec la longueur d’onde et de la résolution spatiale de la caméra utilisée.<p>Ce phénomène, appelé effet mirage, entraîne inévitablement une déformation des<p>informations spatiales reçues par la caméra. Le but de cette thèse a donc été d’estimer<p>et de proposer une première approche pour corriger l’erreur faite sur la mesure<p>de température et/ou de déformation faites par caméras sur des pièces chaudes.<p>La démarche générale du travail a donc été dans un premier temps de calculer le<p>champ de température autour de l’objet considéré en se ramenant d’abord à des cas<p>simplifiés. On en a déduit alors le champ de réfraction entraînant une « déformation<p>» de l’objet, en faisant le lien entre T et n. Cette étape correspond à l’approche<p>numérique de notre étude. Cette étape numérique a été réalisé à l’aide d’un outil de<p>lancer de rayons développée à l’ICA. L’approche expérimentale a consisté à l’utilisation<p>de méthodes telle que la BOS (Background Oriented Schlieren), la PIV,<p>la srtioscopie afin de déduire le champ de déplacements provoqué par le panache<p>convectif. Ces résultats ont été comparés à la méthode numérique et ceci pour différentes<p>longueurs d’ondes. Enfin, une stratégie de correction d’images perturbées<p>a été abordé à l’aide de méthodes telles que la transformée d’Abel inverse afin de<p>remonter au champ d’indice de réfraction 2D axisymétrique à partir d’une déformation<p>plane. / Doctorat en Sciences de l'ingénieur / info:eu-repo/semantics/nonPublished
29

Amélioration des techniques de reconnaissance automatique de mines marines par analyse de l'écho à partir d'images sonar haute résolution / Improvement of automatic recognition techniques of marine mines by analyzing echo in high resolution sonar images

Elbergui, Ayda 10 December 2013 (has links)
La classification des cibles sous-marines est principalement basée sur l'analyse de l'ombre acoustique. La nouvelle génération des sonars d'imagerie fournit une description plus précise de la rétrodiffusion de l'onde acoustique par les cibles. Par conséquent, la combinaison de l'analyse de l'ombre et de l'écho est une voie prometteuse pour améliorer la classification automatique des cibles. Quelques systèmes performants de classification automatique des cibles s'appuient sur un modèle pour faire l'apprentissage au lieu d'utiliser uniquement des réponses expérimentales ou simulées de cibles pour entraîner le classificateur. Avec une approche basée modèle, un bon niveau de performance en classification peut être obtenu si la modélisation de la réponse acoustique de la cible est suffisamment précise. La mise en œuvre de la méthode de classification a nécessité de modéliser avec précision la réponse acoustique des cibles. Le résultat de cette modélisation est un simulateur d'images sonar (SIS). Comme les sonars d'imagerie fonctionnent à haute et très haute fréquence le modèle est basé sur le lancer de rayons acoustiques. Plusieurs phénomènes sont pris en compte pour augmenter le réalisme de la réponse acoustique (les effets des trajets multiples, l'interaction avec le fond marin, la diffraction, etc.). La première phase du classificateur utilise une approche basée sur un modèle. L'information utile dans la signature acoustique de la cible est nommée « A-scan ». Dans la pratique, l'A-scan de la cible détectée est comparé à un ensemble d'A-scans générés par SIS dans les mêmes conditions opérationnelles. Ces gabarits (A-scans) sont créés en modélisant des objets manufacturés de formes simples et complexes (mines ou non mines). Cette phase intègre un module de filtrage adapté pour permettre un résultat de classification plus souple capable de fournir un degré d'appartenance en fonction du maximum de corrélation obtenu. Avec cette approche, l'ensemble d'apprentissage peut être enrichi afin d'améliorer la classification lorsque les classes sont fortement corrélées. Si la différence entre les coefficients de corrélation de l'ensemble de classes les plus probables n'est pas suffisante, le résultat est considéré ambigu. Une deuxième phase est proposée afin de distinguer ces classes en ajoutant de nouveaux descripteurs et/ou en ajoutant davantage d'A-scans dans la base d'apprentissage et ce, dans de nouvelles configurations proches des configurations ambiguës. Ce processus de classification est principalement évalué sur des données simulées et sur un jeu limité de données réelles. L'utilisation de l'A-scan a permis d'atteindre des bonnes performances de classification en mono-vue et a amélioré le résultat de classification pour certaines ambiguïtés récurrentes avec des méthodes basées uniquement sur l'analyse d'ombre. / Underwater target classification is mainly based on the analysis of the acoustic shadows. The new generation of imaging sonar provides a more accurate description of the acoustic wave scattered by the targets. Therefore, combining the analysis of shadows and echoes is a promising way to improve automated target classification. Some reliable schemes for automated target classification rely on model based learning instead of only using experimental samples of target acoustic response to train the classifier. With this approach, a good performance level in classification can be obtained if the modeling of the target acoustic response is accurate enough. The implementation of the classification method first consists in precisely modeling the acoustic response of the targets. The result of the modeling process is a simulator called SIS (Sonar Image Simulator). As imaging sonars operate at high or very high frequency the core of the model is based on acoustical ray-tracing. Several phenomena have been considered to increase the realism of the acoustic response (multi-path propagation, interaction with the surrounding seabed, edge diffraction, etc.). The first step of the classifier consists of a model-based approach. The classification method uses the highlight information of the acoustic signature of the target called « A-scan ». This method consists in comparing the A-scan of the detected target with a set of simulated A-scans generated by SIS in the same operational conditions. To train the classifier, a Template base (A-scans) is created by modeling manmade objects of simple and complex shapes (Mine Like Objects or not). It is based on matched filtering in order to allow more flexible result by introducing a degree of match related to the maximum of correlation coefficient. With this approach the training set can be extended increasingly to improve classification when classes are strongly correlated. If the difference between the correlation coefficients of the most likely classes is not sufficient the result is considered ambiguous. A second stage is proposed in order to discriminate these classes by adding new features and/or extending the initial training data set by including more A-scans in new configurations derived from the ambiguous ones. This classification process is mainly assessed on simulated side scan sonar data but also on a limited data set of real data. The use of A-scans have achieved good classification performances in a mono-view configuration and can improve the result of classification for some remaining confusions using methods only based on shadow analysis.
30

Construction interactive de BRDFs par simulation 2D de micro-géométries en couches multiples

Desjardins, Marc-Antoine 12 1900 (has links)
Les modèles de réflexion complexes, avec leurs nombreux paramètres dont certains restent non intuitifs, sont difficiles à contrôler pour obtenir une apparence désirée. De plus, même si un artiste peut plus aisément comprendre la forme de la micro-géométrie d'une surface, sa modélisation en 3D et sa simulation en 4D demeurent extrêmement fastidieuses et coûteuses en mémoire. Nous proposons une solution intermédiaire, où l'artiste représente en 2D une coupe dans un matériau, en dessinant une micro-géométrie de surface en multi-couches. Une simulation efficace par lancer de rayons en seulement 2D capture les distributions de lumière affectées par les micro-géométries. La déviation hors-plan est calculée automatiquement de façon probabiliste en fonction de la normale au point d'intersection et de la direction du rayon incident. Il en résulte des BRDFs isotropes complètes et complexes, simulées à des vitesses interactives, et permettant ainsi une édition interactive de l'apparence de réflectances riches et variées. / Complex reflection models, with their many parameters, some of which are not intuitive at all, are difficult to control when trying to achieve a desired appearance. Moreover, even if an artist can more easily understand the shape of the surface micro-geometry, its 3D modeling and 4D simulation remain extremely tedious and expensive in memory. We propose an intermediate solution, where the artist represents a 2D cross section of a material, by drawing a multi-layered surface micro-geometry. An efficient 2D ray tracing simulation captures the light distribution specific to those micro-geometries. Off plane deflection is automatically calculated in a probabilistic way, based on the surface normal at the intersection point and the incident ray direction. This results in complete and complex isotropic BRDFs, simulated at interactive rates, and allowing interactive editing of rich and varied materials.

Page generated in 0.0891 seconds