• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 85
  • 13
  • 10
  • Tagged with
  • 109
  • 34
  • 27
  • 22
  • 15
  • 14
  • 14
  • 13
  • 13
  • 13
  • 12
  • 12
  • 12
  • 11
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

De la veille médiatique à l'adaptation des messages journalistiques : la production de l'actualité dans la salle de rédaction du quotidien Le Soleil

Bédard-Brûlé, Isabelle 15 October 2019 (has links)
Lorsque les journalistes produisent de l’information, ils ont besoin de connaître le contexte qui sera celui de sa diffusion afin de prendre de bonnes décisions. Qu’est-ce que la concurrence a publié et comment ? Comment le public a-t-il réagi ? Le journaliste peut répondre à ces questions en faisant de la veille médiatique, c’est-à-dire en restant à l’affût de ce que font les autres médias et en consultant systématiquement leur production. Au moment où le monde des médias a vécu et continue de vivre des changements de grande ampleur, de nouveaux producteurs médiatiques attirent l’attention des publics. Les journalistes adaptent leur veille médiatique en conséquence, en dehors de la sphère du journalisme. Les nouveaux outils de veille par Internet font leur place dans les salles de rédaction et permettent aux journalistes d’accéder à une variété de productions et de visualiser les traces de la réception qu’en ont fait les publics, que ce soit par des statistiques de visionnement ou de référencement, des commentaires, des votes, etc. Si les entreprises de presse se soucient depuis longtemps des données d’audience, cela n’a pas toujours été le cas des journalistes qui entretenaient plutôt l’imaginaire d’un public composé de citoyens préoccupés de comprendre rationnellement la société dans laquelle ils évoluent. Mais, pour capter l’attention, pour rester pertinents, les journalistes d’aujourd’hui sont plus ouverts aux informations concernant les publics et ils disposent de plusieurs portes d’accès à cette connaissance. Nous avons observé durant un mois, en janvier 2014, le travail dans la salle de rédaction de l’organisation médiatique généraliste Le Soleil, qui diffuse dans la région de la ville de Québec. Nous avons assisté à des réunions de production et nous avons réalisé 25 entretiens avec des journalistes. De la documentation complémentaire, comme les comptes Facebook et Twitter du Soleil et de ses journalistes, a aussi été analysée. Cette démarche multidimensionnelle de collecte et d’analyse de données révèle que les journalistes font place dans leur travail quotidien à des pratiques de veille médiatique variées qui incluent la veille de producteurs extérieurs au champ journalistique et la veille des traces de la réception des publics. Ils cherchent ainsi à adapter leur production à ceux à qui ils s’adressent. Les informations ainsi collectées génèrent les connaissances nécessaires à l’adaptation de chaque message produit à un contexte de diffusion choisi, dans une recherche constante de pertinence en regard d’un destinataire ciblé.
42

Caractérisation du détecteur à fibre scintillante plastique commercial et étude sur la réduction de dose aux appareils cardiaques implantables par blindage de plomb

Bourgouin, Alexandra 23 April 2018 (has links)
Le récent développement de la méthode de discrimination spectrale pour la calibration des dosimètres à fibres scintillantes plastiques (PSD) a conduit au développement du premier dosimètre commercial de ce type, soit l’Exradin W1 (STANDARD IMAGING INC., Middleton, WI, U.S.). Comme tout nouveau dosimètre, celui-ci se devait d’être caractérisé afin d’évaluer sa fiabilité en conditions standards d’irradiation. Le but premier du projet était d’effectuer cette validation. Les résultats obtenus ont démontré que le dosimètre à scintillation était un excellent candidat pour réaliser des mesures de dose hors-champ telles que rencontrées lors de l’évaluation de la réduction de dose aux appareils cardiaques implantables (ACI) par blindage. Les mesures effectuées avec l’Exradin W1 ont démontré une importante réduction de dose autant pour les simples champs antéro-postérieurs (de 40 % à 80 % de réduction de dose) que pour les traitements cliniques complexes (entre 5 % et 45 % de réduction de dose). / The recent development of the spectral method for correction of the Cˇ erenkov light in plastic scintillation detectors (PSD) have led to the first commercial dosimeter of this type, the Exradin W1 (STANDARD IMAGING INC., Middleton, WI, U.S.). As any new commercial dosimeter, it had to be characterized and validated in different situations of radiation. The first purpose of this project was to perform this validation. The results of characterization have shown that PSD is an efficient dosimeter to make out-of-field doses measurements as required in the evaluation of the feasibility of using a lead sheet to reduce dose to Cardiac Implantable Electronic Devices, CIED. Measurements performed with PSD shown an important reduction of doses by the shielding for square anterior-posterior field (40 % to 80 %) and also for complex clinical treatments (5 % to 45 %).
43

Achieving 0.1 K absolute calibration accuracy for high spectral resolution infrared and far infrared climate benchmark measurements

Taylor, Joseph 20 April 2018 (has links)
Mesurer le rayonnement infrarouge de manière résolue spectralement à partir de satellites avec une très haute précision radiométrique constitue un besoin critique pour les futures missions de référence climatique. Pour les spectres de rayonnement infrarouge, il a été déterminé qu'une précision de mesure exprimée comme une erreur de température de brillance inférieure à 0,1 K est nécessaire pour la détection de tendances au-delà de la variabilité naturelle des signatures climatiques sur une décennie. Le “Space Science and Engineering Center” de l'Université du Wisconsin (UW-SSEC), avec le soutien financier du programme d'incubateur d'instrument de la NASA, a développé “l'Absolute Radiance Interferometer” (ARI). L' ARI est conçu pour répondre aux exigences nécessaires afin de réaliser des mesures de radiance absolue résolues spectralement à partir de l’espace, dans le cadre d’une mission de référence pour suivre les tendances du climat. Le défi dans le développement de capteurs infrarouges pour une telle mission est d'atteindre cette haute précision avec un design qui peut être qualifié pour le vol spatial, qui a une longue durée de vie et qui est relativement petit, simple et abordable. L’approche pour la conception de l’ARI fait usage de composants ayant un historique de vol spatial qui sont combinés en un ensemble fonctionnel pour tester les performances détaillées. La simplicité requise est réalisable en raison des grandes différences dans les exigences d'échantillonnage et de bruit par rapport à celles des sondeurs infrarouges de télédétection typiques pour la recherche ou les déploiements opérationnels pour la météo. L’aspect original de cet instrument et de cette thèse est donc la démonstration de l’atteinte de la haute précision radiométrique. Le but de cet effort est de démontrer avec succès la possibilité de telles mesures dans des conditions de laboratoire et de vide, sur un sous-ensemble de la gamme des températures de brillance attendues en orbite. Des progrès dans la compréhension de aspects instrumentaux des spectromètres ont été accomplis en lien avec la poursuite de cet objectif et sont également rapportés dans cette thèse. / Spectrally resolved infrared radiances measured from orbit with extremely high absolute accuracy constitute a critical observation for future climate benchmark missions. For the infrared radiance spectra, it has been determined that a measurement accuracy, expressed as an equivalent brightness temperature error, of 0.1 K confirmed on orbit is required for signal detection above natural variability for decadal climate signatures. The University of Wisconsin Space Science and Engineering Center (UW-SSEC), with funding support from the NASA Instrument Incubator Program (IIP), developed the Absolute Radiance Interferometer (ARI). The ARI is designed to meet the uncertainty requirements needed to establish a spectrally resolved thermal infrared climate benchmark measurements from space. The challenge in the infrared sensor development for a climate benchmark measurement mission is to achieve this ultra-high accuracy with a design that can be flight qualified, has long design life, and is reasonably small, simple, and affordable. In this area, our design approach for the Absolute Radiance Interferometer (ARI) made use of components with strong spaceflight heritage (direct analogs with high TRL) combined into a functional package for detailed performance testing. The required simplicity is achievable due to the large differences in the sampling and noise requirements for the benchmark climate measurement from those of the typical remote sensing infrared sounders for weather research or operations. The new aspect of the interferometer development is the ultra high absolute accuracy sought, and is the subject of this thesis. The goal of this effort is to successfully demonstrate this measurement capability under laboratory and vacuum conditions, over a subset of the range of equivalent earth scene brightness temperatures expected on-orbit. Advances in instrumental aspects have been achieved in the pursuit of this goal.
44

Influence of hydrograph separation on the automatic calibration of the SWAT hydrological model

Umuhire, Flora 17 May 2023 (has links)
Titre de l'écran-titre (visionné le 9 mai 2023) / L'évaluation des processus hydrologiques implique l'utilisation de modèles pour décrire et comprendre les processus hydrologiques mis en œuvre dans les bassins versants. Cependant, les incertitudes dans la simulation des processus hydrologiques peuvent être considérables et donner lieu à des modèles peu fiables. Idéalement, un modèle hydrologique fiable reproduit à la fois les processus hydrologiques locaux et le débit des cours d'eau. Par conséquent, un calage du modèle hydrologique qui se concentre uniquement sur le débit global mesuré à l'exutoire du bassin versant risque de ne pas saisir les processus hydrologiques réels engendrés par les cheminements de l'eau dans un bassin versant, notamment la séparation des flux hydriques en flux d'eau de surface, en flux d'eau du sol et en décharge des nappes souterraines. Cependant, pour obtenir une représentation adéquate des processus hydrologiques contribuant à la génération du débit global, il est nécessaire de disposer d'observations hydrologiques pertinentes. À ce titre, la séparation des hydrogrammes est utile pour représenter les processus sous-jacents qui régissent l'écoulement global. Dans cette étude du petit bassin versant agricole (33,2 km²) du ruisseau Ewing, un affluent de la rivière Aux Brochets en Montérégie, au Québec, nous avons exploré le potentiel de la séparation des hydrogrammes dans la procédure d'optimisation des paramètres par le calage automatique des débits, tout en assurant une représentation réaliste des processus hydrologiques régissant les débits à l'échelle du bassin versant. Pour y parvenir, une condition préalable importante était de comprendre le fonctionnement hydrologique des bassins versants agricoles au Québec profitant de drainage souterrain artificiel de façon systématique. À cette fin, nous avons étudié la séparation des hydrogrammes en utilisant la conductivité électrique de l'eau du cours d'eau comme traceur des voies hydrologiques et évalué la performance de différentes méthodes existantes de séparation des hydrogrammes, dont les techniques de filtrage automatisé. Six méthodes courantes ont été évaluées : BFLOW, UKIH, PART, FIXED, SLIDE, LOCMIN et Eckhardt. Elles ne diffèrent que par la manière dont elles filtrent les flux lents par rapport aux flux rapides. Pour la mise en œuvre de la méthodologie de séparation des hydrogrammes dans le processus d'optimisation des paramètres, seules trois méthodes sélectionnées (BFLOW, Eckhardt et géochimique) ont été appliquées pour le calage automatique du modèle hydrologique SWAT. Les trois méthodes... / The assessment of hydrological processes involves the use of models to describe and understand the hydrological processes occurring in watersheds. However, uncertainties in the simulation of hydrological processes can be considerable and result in unreliable models. Ideally, a reliable hydrological model captures both local hydrological processes and stream discharge. Therefore, a hydrological model calibration that focuses only on the overall discharge measured at the watershed outlet may not capture the real world hydrological processes that are driven by the water pathways in a watershed, particularly the separation of water flows into surface water flows, soil water flows and groundwater discharge. However, to achieve an adequate representation of the hydrological processes contributing to the overall discharge generation, it is necessary to have relevant hydrological observations. As such, hydrograph separation is useful in representing the underlying processes governing the overall flow. In this study of the small (33.2 km²) agricultural subwatershed of Ewing creek, a tributary of the Aux Brochets river in Montérégie, Quebec, we have explored the potential of hydrograph separation in the procedure of parameters optimization through automatic streamflow calibration, while ensuring a realistic representation of the hydrological processes governing water flows at the subwatershed scale. To realize this, an important prerequisite was to understand the hydrological functioning of agricultural subwatersheds in Quebec under systematic artificial subsurface drainage. To this end, we studied hydrograph separation using the stream water electrical conductivity as a tracer of the hydrological pathways and evaluated the performance of different existing hydrograph separation methods including automated filtering techniques. Six popular methods were evaluated: BFLOW, UKIH, PART, FIXED, SLIDE, LOCMIN and Eckhardt. They only differ in the way they filter slow flow to quick flow. For the implementation of the hydrograph separation methodology in the parameters optimization process, only three selected methods (BFLOW, Eckhardt and geochemical) were applied for the automatic calibration of the SWAT hydrological models. The three hydrograph separation methods integrated...
45

Ré-observabilité des points caractéristiques pour le calibrage et le positionnement d'un capteur multi-caméra

Ouellet, Jean-Nicolas 17 April 2018 (has links)
Le calibrage et le positionnement de caméras reposent sur l'extraction de caractéristiques dans l'image et leur reconnaissance dans les images subséquentes. Une caractéristique est une région de l'image localement saillante à laquelle sont associées une position et une description de l'apparence de cette région. Les algorithmes de calibrage et de positionnement reposent sur l'hypothèse qu'un ensemble de caractéristiques correspondantes est l'observation du même point physique de la scène. Toutefois, cette hypothèse n'est pas nécessairement respectée par toutes les caractéristiques correspondantes. Les causes de la présence de ces caractéristiques nuisibles sont multiples, allant de biais induits par la méthode de localisation dans l'image, jusqu'à la déformation de l'image lorsque la caméra change de point de vue. Le principal défi du calibrage et du positionnement est donc l'identification de caractéristiques fiables. Pour pallier ce problème, nous introduisons le concept de ré-observabilité d'une caractéristique. Ce concept regroupe l'unicité du point physique et la reconnaissance. Un point de la scène est défini par ses observations dans les images et par les poses associées à ces images. Ainsi, une caractéristique doit être localisée le plus précisément possible dans l'image. Pour ce faire, nous avons identifié les biais affectant la localisation des caractéristiques dans l'image en calibrage pour une scène contrôlée et en positionnement où le capteur évolue dans une scène inconnue. Pour chaque biais, nous proposons une solution simple permettant de réduire, voire éliminer le biais. Ceci a mené au développement de nouveaux détecteurs de caractéristiques. Ensuite, à partir de plusieurs images, nous évaluons la cohérence entre les observations et les poses de la caméra à l'aide de critères multi-vue. Les caractéristiques nuisibles peuvent alors être identifiées. L'aspect reconnaissance est traité en évaluant la distinction des caractéristiques qui peuvent être distinctes localement ou globalement dans la scène. Une application directe de ce concept concerne la visibilité des caractéristiques où l'observation d'une caractéristique distincte globalement renforce la probabilité d'observer une caractéristique distincte localement si elles ont été observées conjointement. Chacun des concepts de la ré-observabilité est appuyé par une application réelle de calibrage et de positionnement d'un capteur multi-caméra.
46

Une approche de calibrage géométrique de caméras par speckle laser pour la vision artificielle stéréoscopique active et passive

Samson, Éric 17 April 2018 (has links)
Le calibrage des caméras est l'une des pierres angulaires de la plupart des systèmes de vision artificielle car c'est cette opération qui établit le lien entre le monde physique et l'image. On dispose aujourd'hui de plusieurs techniques bien établies pour réaliser cette opération. Il existe toutefois certaines situations pour lesquelles les techniques usuelles ne sont pas assez précises. C'est le cas notamment des systèmes de vision 3D actifs. Les systèmes dits ``actifs'' disposent d'un mécanisme d'entraînement qui leur permet repositionner leurs caméras en temps réel. Puisque les mesures 3D en vision reposent sur la connaissance de la position relative des caméras, les déplacements de celles-ci à l'intérieur d'un système actif doivent être modélisés et calibrés afin que leur position exacte puisse être mise à jour en continue. Mener à bien ce type de calibrage exige que les déplacements des caméras puissent être mesurés avec une très grande précision. Cette thèse propose une approche pour le calibrage géométrique de caméras qui répond aux besoins en précision des systèmes actifs. L'originalité de cette approche vient du fait qu'elle exploite les propriétés du speckle laser. Les bases théoriques sur lesquelles elle s'appuie sont tirées du domaine de la mesure par speckle (``speckle metrology''). C'est la première fois que les principes de la mesure par speckle sont appliqués au domaine de la vision artificielle. L'intérêt de faire intervenir le speckle laser dans le calibrage est qu'il permet de découpler les composantes en rotation de celles en translation du mouvement des caméras. Dans le contexte des systèmes actifs, ce découplage des deux types de mouvements permet d'atteindre un niveau de précision de calibrage qu'il est impossible d'atteindre avec les approches classiques basées sur l'observation d'une cible de calibrage conventionnelle. Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant deux avantages pratiques importants. Le premier est que le dispositif permettant d'effectuer le calibrage est compact et le second est que le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. %Outre le calibrage de systèmes actifs, l'approche proposée peut s'appliquer à d'autres aspects du calibrage de caméras. En particulier, on démontre comment celle-ci peut être utilisée pour calibrer une paire de caméras stéréoscopiques classique. La méthode proposée permet d'obtenir un calibrage dont la précision est équivalente à celle des méthodes conventionnelles tout en offrant les avantages pratiques suivant. Le dispositif permettant d'effectuer le calibrage est compact. Le calibrage peut être complété avec moins de manipulations. Enfin, le calibrage peut être réalisé sans qu'il ne soit nécessaire d'avoir accès au volume de travail de la paire stéréo. / Because it establishes the link between image coordinates and the physical world, camera calibration is one of the corner stones of computer vision systems. Several existing techniques can perform this operation, but these are not always accurate enough, depending on circumstances. This is particularly the case for ``active'' 3D systems that incorporate mechanisms to allow real time repositioning of cameras. Since 3D measurements in computer vision rely on the knowledge of the relative camera positions, their exact movements within the active system must be updated in a continuous fashion. Calibrating such systems is only feasible when camera movements can be measured very accurately, which is not possible using current techniques. In this thesis, an original approach is proposed for the geometric camera calibration of active vision systems, based on the theoretical foundations of speckle metrology. It exploits the unique properties of laser speckle to meet the special requirements of active vision systems. It also represents the first use of laser speckle in this field. The main benefit of laser speckle is that it allows the measurement of rotational component of the camera movements independently from its translational component. The ability to perform independent measurements of these two components is what gives this new approach a much improved accuracy compared to conventional techniques based on the use of calibration targets. Besides the calibration of active vision systems, the proposed approach can be applied to other types of vision systems as well. In particular, the thesis shows that the proposed approach can also be applied to calibrate a classical pair of static stereoscopic cameras. The proposed technique show equivalent accuracy compared to conventional techniques while providing two major practical advantages. First, the calibration device is very compact and second, the calibration procedure doesn't require the working area of the stereo pair to be accessed.
47

Vers l’étalonnage interne de caméra à haute précision / Towards high precision internal camera calibration

Rudakova, Victoria 21 January 2014 (has links)
Cette thèse se concentre sur le sujet de la calibration de la camera interne et, en particulier, sur les aspects de haute précision. On suit et examine deux fils principaux: la correction d'une aberration chromatique de lentille et l'estimation des paramètres intrinsèques de la caméra. Pour la problème de l'aberration chromatique, on suit un chemin de post-traitement numérique de l'image, afin de se débarrasser des artefacts de couleur provoqués par le phénomène de dispersion du système d'objectif de la caméra, ce qui produit une désalignement perceptible des canaux couleur. Dans ce contexte, l'idée principale est de trouver un modèle de correction plus général pour réaligner les canaux de couleur que ce qui est couramment utilisé - différentes variantes du polynôme radial. Celui-ci ne peut pas être suffisamment général pour assurer la correction précise pour tous les types de caméras. En combinaison avec une détection précise des points clés, la correction la plus précise de l'aberration chromatique est obtenue en utilisant un modèle polynomial qui est capable de capter la nature physique du décalage des canaux couleur. Notre détection de points clés donne une précision allant jusqu'à 0,05 pixels, et nos expériences montrent sa grande résistance au bruit et au flou. Notre méthode de correction de l’aberration, par opposition aux logiciels existants, montre une géométrique résiduelle inférieure à 0,1 pixels, ce qui est la limite de la perception de la vision humaine. En ce qui concerne l'estimation des paramètres intrinsèques de la caméra, la question est de savoir comment éviter la compensation d'erreur résiduelle qui est inhérent aux méthodes globales d'étalonnage, dont le principe fondamental consiste à estimer tous les paramètres de la caméra ensemble - l'ajustement de faisceaux. Détacher les estimations de la distorsion de la caméra et des paramètres intrinsèques devient possible lorsque la distorsion est compensée séparément. Cela peut se faire au moyen de la harpe d'étalonnage, récemment développée, qui calcule le champ de distorsion en utilisant la mesure de la rectitude de cordes tendues dans différentes orientations. Une autre difficulté, étant donnée une image déjà corrigée de la distorsion, est de savoir comment éliminer un biais perspectif. Ce biais dû à la perspective est présent quand on utilise les centres de cibles circulaires comme points clés, et il s'amplifie avec l'augmentation de l'angle de vue. Afin d'éviter la modélisation de chaque cercle par une fonction conique, nous intégrons plutôt fonction de transformation affine conique dans la procédure de minimisation pour l'estimation de l'homographie. Nos expériences montrent que l'élimination séparée de la distorsion et la correction du biais perspectif sont efficaces et plus stables pour l'estimation des paramètres intrinsèques de la caméra que la méthode d'étalonnage globale / This dissertation focuses on internal camera calibration and, especially, on its high-precision aspects. Two main threads are followed and examined: lens chromatic aberration correction and estimation of camera intrinsic parameters. For the chromatic aberration problem, we follow a path of digital post-processing of the image in order to get rid from the color artefacts caused by dispersion phenomena of the camera lens system, leading to a noticeable color channels misalignment. In this context, the main idea is to search for a more general correction model to realign color channels than what is commonly used - different variations of radial polynomial. The latter may not be general enough to ensure stable correction for all types of cameras. Combined with an accurate detection of pattern keypoints, the most precise chromatic aberration correction is achieved by using a polynomial model, which is able to capture physical nature of color channels misalignment. Our keypoint detection yields an accuracy up to 0.05 pixels, and our experiments show its high resistance to noise and blur. Our aberration correction method, as opposed to existing software, demonstrates a final geometrical residual of less than 0.1 pixels, which is at the limit of perception by human vision. When referring to camera intrinsics calculation, the question is how to avoid residual error compensation which is inherent for global calibration methods, the main principle of which is to estimate all camera parameters simultaneously - the bundle adjustment. Detachment of the lens distortion from camera intrinsics becomes possible when the former is compensated separately, in advance. This can be done by means of the recently developed calibration harp, which captures distortion field by using the straightness measure of tightened strings in different orientations. Another difficulty, given a distortion-compensated calibration image, is how to eliminate a perspective bias. The perspective bias occurs when using centers of circular targets as keypoints, and it gets more amplified with increase of view angle. In order to avoid modelling each circle by a conic function, we rather incorporate conic affine transformation function into the minimization procedure for homography estimation. Our experiments show that separate elimination of distortion and perspective bias is effective and more stable for camera's intrinsics estimation than global calibration method
48

Design et calibration d'un système de capture de la géométrie et de l'apparence

Gignac, Olivier 17 April 2018 (has links)
Ce mémoire porte sur la conception, l'assemblage et la calibration d'un système permettant l'acquisition de l'apparence et de la géométrie d'objets. Une première section porte sur la conception du système, c'est-à-dire sur le choix de son design et sa réalisation. Ensuite, les calibrations nécessaires au fonctionnement du système sont présentées. Les calibrations géométriques et radiométriques des caméras sont tout d'abord réalisées. Ensuite, les sources de lumière sont à leurs tours calibrées géométriquement et radiométriquement. Finalement, une application de stéréo photométrique est effectuée. Enfin, nous modélisons la fonction de réflectance de quelques objets.
49

Modélisation du bruit et étalonnage de la mesure de profondeur des caméras Temps-de-Vol / Noise modeling and calibration of the measuring depth of cameras Time-of-Flight

Belhedi, Amira 04 July 2013 (has links)
Avec l'apparition récente des caméras 3D, des perspectives nouvelles pour différentes applications de l'interprétation de scène se sont ouvertes. Cependant, ces caméras ont des limites qui affectent la précision de leurs mesures. En particulier pour les caméras Temps-de-Vol, deux types d'erreur peuvent être distingués : le bruit statistique de la caméra et la distorsion de la mesure de profondeur. Dans les travaux de la littérature des caméras Temps-de-Vol, le bruit est peu étudié et les modèles de distorsion de la mesure de profondeur sont généralement difficiles à mettre en œuvre et ne garantissent pas la précision requise pour certaines applications. L'objectif de cette thèse est donc d'étudier, modéliser et proposer un étalonnage précis et facile à mettre en œuvre de ces 2 types d'erreur des caméras Temps-de-Vol. Pour la modélisation du bruit comme pour la distorsion de la mesure de profondeur, deux solutions sont proposées présentant chacune une solution à un problème différent. La première vise à fournir un modèle précis alors que le second favorise la simplicité de la mise en œuvre. Ainsi, pour le bruit, alors que la majorité des modèles reposent uniquement sur l'information d'amplitude, nous proposons un premier modèle qui intègre aussi la position du pixel dans l'image. Pour encore une meilleure précision, nous proposons un modèle où l'amplitude est remplacée par la profondeur de l'objet et le temps d'intégration. S'agissant de la distorsion de la mesure de profondeur, nous proposons une première solution basée sur un modèle non-paramétrique garantissant une meilleure précision. Ensuite, pour fournir une solution plus facile à mettre en œuvre que la précédente et que celles de l'état de l'art, nous nous basons sur la connaissance à priori de la géométrie planaire de la scène observée. / 3D cameras open new possibilities in different fields such as 3D reconstruction, Augmented Reality and video-surveillance since they provide depth information at high frame-rates. However, they have limitations that affect the accuracy of their measures. In particular for TOF cameras, two types of error can be distinguished : the stochastic camera noise and the depth distortion. In state of the art of TOF cameras, the noise is not well studied and the depth distortion models are difficult to use and don't guarantee the accuracy required for some applications. The objective of this thesis is to study, to model and to propose a calibration method of these two errors of TOF cameras which is accurate and easy to set up. Both for the noise and for the depth distortion, two solutions are proposed. Each of them gives a solution for a different problem. The former aims to obtain an accurate model. The latter, promotes the simplicity of the set up. Thereby, for the noise, while the majority of the proposed models are only based on the amplitude information, we propose a first model which integrate also the pixel position in the image. For a better accuracy, we propose a second model where we replace the amplitude by the depth and the integration time. Regarding the depth distortion, we propose a first solution based on a non-parametric model which guarantee a better accuracy. Then, we use the prior knowledge of the planar geometry of the observed scene to provide a solution which is easier to use compared to the previous one and to those of the litterature.
50

Mise en place de références métrologiques en enthalpie de fusion entre 23 °C et 1000 °C / Development of a metrological reference facility for the enthalpy of fusion measurements between 23 °C to 1000 °C

Razouk, Refat 12 May 2014 (has links)
Les techniques d’analyse thermique et de calorimétrie sont des méthodes d’essai largement utilisées dans les laboratoires d’analyse physico-chimique, pour des finalités de recherche ou de contrôle qualité. Comme tout appareil de mesure, un analyseur thermique ou un calorimètre doit être étalonné en température et en énergie avec des matériaux de référence certifiés. Les matériaux de référence recommandés correspondent généralement aux points fixes de l'échelle internationale de température (EIT-90), à savoir gallium, indium, étain, zinc et aluminium. Il existe peu de matériaux de référence certifiés au-dessus de 420 °C, alors que certains analyseurs thermiques peuvent être utilisés jusqu'à 1000 °C, voire au-delà.L’élaboration et la certification de matériaux de référence doivent employer des méthodes de mesure très précises avec un raccordement métrologique des mesures au système international d’unités (SI). Le Laboratoire Commun de Métrologie (LCM) s'est engagé dans le développement d'un moyen de référence métrologique en calorimétrie permettant des mesures précises en enthalpie de fusion et en capacité thermique massique sur la plage de température [23 °C, 1000 °C]. La solution métrologique retenue a été de modifier un calorimètre de type Calvet, et de mettre au point des procédures d’étalonnage et de mesure afin d’atteindre des incertitudes de mesures suffisamment faibles pour la certification des matériaux de référence.Dans ce travail, un système d'étalonnage fonctionnant à haute température a été spécifiquement conçu et intégré dans le calorimètre pour permettre l'étalonnage par substitution électrique. Ce système permet de réaliser successivement des étalonnages par effet Joule et des mesures d’enthalpie de fusion, sans modification des conditions expérimentales.Ce travail comprend également le développement des systèmes d’acquisition et traitement des résultats des mesures. La détermination de l'enthalpie de fusion de plusieurs métaux (indium, étain et argent notamment) avec une recherche des facteurs d’influence sur cette grandeur, et une estimation des incertitudes de mesure. La mesure de l’enthalpie de fusion d’un alliage eutectique argent-cuivre, candidat comme matériau de référence en énergie à 779 °C, est également présentée. / Differential scanning calorimeters are widely used in many academic and industrial laboratories to study the thermal behavior of materials for research or quality control. Like any measuring device, a thermal analyzer or calorimeter must be calibrated in temperature and energy with certified reference materials. Recommended reference materials generally correspond to fixed points of the International Temperature Scale (ITS- 90), namely: gallium, indium, tin, zinc and aluminum. However, there are few certified reference materials above 420 °C, while the operating range of some thermal analyzers and calorimeters exceeds 1000 °C.The certification of reference materials insures the metrological traceability of measurements to the International System of Units (SI). The LCM-LNE has been working in the development of a metrological standard facility for accurate measurements of the enthalpy of fusion and heat capacity in the temperature range [23 °C, 1000 °C]. The metrological approach is based on the modification of a commercial Calvet calorimeter and of the procedures implemented for calibration and measurement, so as to get measurement uncertainties sufficiently low to fulfill the objectives of the certification of reference materials.A new in-situ high temperature calibration system (constituted by a resistance wire wound around the crucible containing the material sample) was integrated into the calorimeter to perform the calibration by electrical substitution. The system allows both calibration and measurement without modification of the apparatus, so that the experimental conditions during both steps remain unchanged.This work also includes the development of data acquisition system and processing of measurement results. The determination of the enthalpy of fusion of several metals (indium, tin and silver in particular) with an estimation of the measurement uncertainty has been made. The measurement of the enthalpy of fusion of a silver-copper eutectic alloy, as candidate reference material at 779 °C, is also presented.

Page generated in 0.0521 seconds