• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 9
  • 3
  • Tagged with
  • 82
  • 26
  • 26
  • 16
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Caractérisation texturale et analyse par stéréocorrélation d'images de la déformation des fromages à pâte molle et de leurs simulants formulés / Textural characterization and digital image correlation analysis of the deformation of soft cheeses and their formulated simulants

Li Yuet Hee, Mary Lynn 16 October 2007 (has links)
Des gels ont été formulés à partir de mélanges de gélatine et de polysaccharides - le guar, le karaya, la xanthane, la maltodextrine et l’amidon - afin de reproduire les propriétés texturales du Camembert et du Coulommiers. La fermeté, le module d’élasticité et le temps de relaxation, mesurés à partir des essais de pénétrométrie et de relaxation, ont été utilisés afin de comparer les gels et les fromages. Les paramètres rhéologiques du mélange de gélatine, de maltodextrine et d’amidon s’approchaient le plus de ceux des fromages. Un plan de mélange à trois composants a été utilisé pour optimiser la concentration des constituants du simulant. Cette approche a permis de développer des modèles mathématiques qui prédisent les effets de chaque composant sur les paramètres texturaux du simulant. Elle a aussi mis en évidence une corrélation linéaire entre ces paramètres et la composition du gel. Des modifications texturales des simulants ont été induites par ajout de Subtilisine Carlsberg afin d’imiter l’évolution de la texture des fromages lors de la maturation. Une différence entre l’évolution des propriétés texturales des simulants et celle du fromage a été notée. La numérisation tridimensionnelle a été utilisée comme nouvel outil pour caractériser la texture. Ces systèmes sont capables de distinguer des gels et des fromages ayant des comportements rhéologiques différents. Les nouveaux paramètres obtenus, corrélés aux propriétés texturales des fromages et simulants, pourraient améliorer les modèles prédisant les mesures sensorielles hédoniques à partir des mesures instrumentales / Various gels formulated from mixtures of gelatin and polysaccharides - guar, karaya gum, xanthan gum, maltodextrin and starch - were elaborated to simulate soft cheeses (Camembert and Coulommiers) texture. Comparisons between gels and cheeses were based on firmness, elasticity modulus and relaxation time constants, obtained from penetrometry and stress relaxation tests. Gels made up of gelatin, maltodextrin and starch were found to imitate best the textural properties of the soft cheeses. A three-component mixture design approach was used to determine the optimum component concentration of the simulants. Mathematical models developed showed linear dependence of the rheological parameters on composition of simulants. Enzyme Subtilisin Carlsberg (Alcalase®) successful induced gradual modifications in rheological parameters of simulants. The rate of change of textural properties occurring in Coulommiers cheese during maturation was however different from that of the simulants. Two optical three-dimensional techniques as new tools for food texture assessment were also investigated. Digital image correlation and the Breuckmann scanning systems were successful in distinguishing between gels and cheeses varying in firmness and viscoelastic properties. New parameters obtained from digital image correlation and Breuckmann scanning systems were related to the textural properties of the cheeses and their simulants. These parameters may be used to develop models predicting accurately the sensory texture of food from instrumental measurements
2

Superposition d'un modèle 3D numérisé par un capteur télémétrique tenu en main sur l'objet réel avec des lunettes de réalité augmentée

Nadeau, Carl 21 May 2024 (has links)
Afin d'explorer l'utilisabilité de technologies de réalité augmentée pour s'interfacer avec le logiciel de numérisation 3D des capteurs Creaform, les Hololens de Microsoft ont été retenues pour ses différentes fonctionnalités. Un emploi envisagé pour ce système était d'utiliser les Hololens pour inspecter un modèle 3D numérisé en le superposant sur l'objet qu'il représente.Ce mémoire décrit les étapes menant à l'obtention de ce résultat et les lacunes de cette approche. Pour numériser la surface d'un objet, il doit être couvert de pastilles rétro-réfléchissantes.Ces marqueurs servent de points de repère pour certains capteurs Creaform et pour l'approche présentée. Deux photos de l'objet sont prises avec les Hololens afin d'effectuer des calculs stéréoscopiques avec les marqueurs détectés. Les positions 3D de ces marqueurs sont estimées avec ces calculs et elles forment le nuage de points pour le référentiel des lunettes Hololens. Des appariements entre ce nuage de points et celui du capteur Creaform sont déduits et un alignement est calculé pour superposer le modèle 3D sur l'objet. / To explore the usability of augmented reality technologies interfacing with Creaform's 3Dscanning software, Microsoft's Hololens was chosen for its diverse functionalities. One envisioned application for this system was utilizing the Hololens to inspect a scanned 3D model by overlaying it onto the corresponding object. This document outlines the steps taken to achieve this outcome and highlights the shortcomings of this approach.To scan the surface of an object, it must be covered with retro-reflective markers. These markers serve as reference points for certain Creaform sensors and for the presented approach.Two photos of the object are taken with the Hololens to perform stereoscopic calculations with the detected markers. The 3D positions of these markers are estimated using these calculations,forming the point cloud for the Hololens reference frame. Matches between theHololens' and the Creaform's sensor point clouds are deduced, and an alignment is calculated to overlay the 3D model onto the object.
3

Une approche globale pour la métrologie 3D automatique multi-systèmes / A global approach for automatic 3D part inspection

Audfray, Nicolas 17 December 2012 (has links)
La métrologie 3D permet la vérification de spécifications géométriques et dimensionnelles sur des pièces mécaniques. Ce contrôle est classiquement réalisé à partir de mesures avec des capteurs à contact montés sur des machines à mesurer tridimensionnelles. Ce type de mesures offre une très grande qualité de données acquises mais requiert un temps d'exécution relativement long. Les présents travaux s'attachent donc à développer les mesures optiques dans le cadre de la métrologie 3D qui, avec une qualité diminuée, permettent une exécution beaucoup plus rapide. L'absence de norme concernant ces systèmes de mesure a pour conséquence leur utilisation rare dans le cadre de la métrologie. En effet, le choix d'un système est généralement réalisé à partir de spécifications sur sa qualité. Nous proposons donc une méthode de qualification des systèmes de mesure optiques permettant de quantifier la qualité des données qu'ils fournissent. Les données ainsi qualifiées sont stockées dans une base de données. Un processus global d'inspection 3D multi-systèmes est mis en place, permettant le choix du système de numérisation le mieux adapté (à contact ou sans contact) en termes de qualité et de coût de numérisation, à partir des données qualifiées de la base de données. Lors de l'utilisation de systèmes de mesure optiques, la baisse de qualité est essentiellement due au bruit de numérisation inhérent à ce type de systèmes. Un filtre permettant d'éliminer ce bruit, tout en gardant le défaut de forme de la surface, est mis en place dans le processus afin de rendre possible la vérification de spécifications avec des intervalles de tolérance faibles à l'aide de systèmes de mesure optiques. / 3D metrology allows GD\&{}T verification on mechanical parts. This verification is usually calculated using data obtained with a touch probe mounted on a coordinate measuring machine. Such a measurement offers a high data quality but requires an expensive processing time. The proposed research aims at expanding optical measurements in 3D metrology, reducing execution time but with a lower data quality. The lack of standard in this field makes the use of optical sensors uncommon in 3D metrology. Indeed, the system selection is mostly carried out from its quality specifications. Therefore we propose a protocol to assess the quality of optical measuring systems that allows in particular quantification of acquired data quality. The results of measuring system qualification are stored in a database. Taking advantages of this database, a global multi-system 3D inspection process is set up allowing the selection of the best digitizing system (contact or contactless) in terms of quality and digitizing cost. When using optical sensors, the poor quality is mostly due to digitizing noise inherent to this kind of systems. A filter that removes noise, keeping the form deviation of the surface, is proposed in the process to make possible the specification verification for applications with small tolerance intervals using optical systems.
4

Modélisation et calibration pour une numérisation robotisée / Modeling and calibration for a robotized digitizing

Bordron, Matthias 06 June 2019 (has links)
Les robots sériels de grandes dimensions apportent dextérité, répétabilité et flexibilité dans les chaînes de production. Sur ces chaînes, des opérations telles que la mesure de pièces peuvent exploiter ces avantages très attractifs. Il est cependant impératif de mieux maîtriser le positionnement de l’effecteur de ces robots, pour répondre aux exigences de la mesure 3D. Dans ce contexte, une cellule de numérisation robotisée a été développée, exploitant un robot sériel 6 axes comme support d’un capteur laser plan (KZ25 Kreon), et utilisant un système de stéréovision externe pour le suivi de l’opération et la calibration de la cellule (C-Track Creaform). La calibration que nous proposons pour cette cellule permet de maîtriser la qualité et d’optimiser la vitesse de numérisation, et se veut à la fois rapide et pratique (peu de contraintes et de matériel) pour répondre à un contexte industriel.Cette calibration passe par l’identification des paramètres d’un modèle géométrique pour le robot, à l’aide d’une nouvelle méthode que nous proposons, généralisant le concept d’étude d’arc de cercle proposé dans la méthode CPA (Circle Point Analysis). Une étude comparative démontre les avantages de cette nouvelle méthode par rapport aux méthodes classiquement utilisées. Une méthode de sélection que nous avons développée permet ensuite de compléter le modèle du robot avec des paramètres non-géométriques pertinents (flexibilités, jeux). Au cours de la calibration, nous étudions également les capacités du robot en vitesse et en qualité de positionnement au travers d’indices de performance originaux. Enfin nous avons élaboré et validé une méthode de calibration en position et orientation du KZ25 sur son support (le robot) ce qui permet une numérisation à 6 DDL.En perspective, un générateur de trajectoires, à donner en consigne au robot, devra utiliser cette calibration de la cellule entière pour maîtriser la qualité de la numérisation et optimiser sa durée. / Serial robots are designed for repetitive tasks in wide workspaces, and provide good dexterity and flexibility to production lines. Restrictive applications such as parts digitizing can make use of those attractive benefits. However, digitizing needs on accuracy require to work carefully on the quality of the robot end-effector positioning. In this context, a digitizing cell using a 6 axis robot as displacement system for a laser plane sensor (KZ25) was developed. In this cell all calibrations are ensured by an external measurement system (C-Track Creaform) following the end-effector. The goal is to master the digitizing quality and to optimize the operating speed thanks to quick and convenient calibrations (few equipment, installation and constraints).First, the parameters of the robot geometric model are identified with a quick and convenient method we developed, based on the existing circle point analysis method (CPA). A comparative study shows the advantages of our identification method over classic methods. Then a selective method we proposed allows us to complete this geometric model with relevant non-geometric parameters such as flexibilities or backlashes. Robot performances in terms of speed and posing quality are also studied through new performance indexes. Finally, we had to create and validate a calibration method for the position and orientation of the KZ25 sensor in order to exploit the unrestricted orientation provided by the robot end- effector.In our work prospects, a path generation strategy will use those calibrations to create paths for the robot, with mastered digitizing quality and optimized speed.
5

Patrimoine culturel immatériel et technologies numériques : représentations et usages

Becuywe, Isabelle 13 August 2024 (has links)
Avec la Convention pour la Sauvegarde du Patrimoine Culturel Immatériel de l’UNESCO (2003), le concept de patrimoine s’est trouvé élargi à de nouveaux objets, mais surtout une nouvelle distribution des rôles s’est opérée parmi les acteurs, mettant les praticiens individuels et collectifs au cœur du dispositif. Les états qui ont ratifié la convention se sont donné l’obligation de procéder à des inventaires en impliquant les communautés dans la désignation de ce qui, pour elles, fait patrimoine immatériel, offrant ainsi une opportunité d’expérimentations de formes et de méthodes pour réaliser cet objectif. Ces inventaires se sont largement appuyés sur des technologies numériques pour leur constitution et sur le web pour leur diffusion. La dynamique sociale dans laquelle s’inscrit la notion d’inventaire s’appuie sur un imaginaire des techniques numériques comme moyen de conjurer la perte culturelle et une relation ambiguë se noue au moment de l’inventaire nativement numérique entre immatériel et virtuel. L’étude du récit de l’histoire du web permet de mettre en évidence un ensemble de mythes fondateurs d’Internet qui contribuent à cette ambiguïté. À partir d’une participation observante à l’Inventaire du Patrimoine Immatériel Religieux du Québec (IPIR), qui s’appuie sur les définitions de la convention UNESCO, il s’agit de considérer les technologies numériques, dont Internet, comme outils que les communautés (État, communautés locales, acteurs de l’inventaire) mobilisent pour se mettre en scène par le patrimoine immatériel. L’exemple de l’IPIR, chargé de trois missions (conserver la mémoire, répertorier les pratiques vivantes, les communiquer), comparé à d’autres inventaires en ligne existants illustre la plasticité des inventaires du Patrimoine Culturel Immatériel. Les trajectoires de l’inventorisation émergent en interrogeant la demande sociale d’un inventaire du Patrimoine Culturel Immatériel religieux dans le contexte de déchristianisation du Québec à partir des années 1960. Enfin, la diffusion sur le web des données d’inventaire permet de questionner les usages des techniques et les formes de représentations du web comme moyen de transmission culturelle. Alors que la dynamique sociale dans laquelle s’inscrit un inventaire en ligne s’appuie sur un imaginaire des techniques numériques comme moyen de conjurer la perte culturelle, la prolifération des traces sur le web vient défier la promesse d’accessibilité universelle que portait le web des origines. / With the Convention for the Safeguarding of the Intangible Cultural Heritage of UNESCO (2003), the concept of heritage was expanded to new objects, but above all a new distribution of roles was made among the actors, putting the practitioners individual and collective at the heart of the device. States that have ratified the convention have given themselves the obligation to carry out inventories by involving the communities in the designation of what, for them, constitutes intangible heritage, thus offering an opportunity for experimentation of forms and methods to achieve this goal. These inventories were largely based on digital technologies for their constitution and on the web for their dissemination. The social dynamics in which the notion of inventory is inscribed is based on an imaginary of digital techniques as a means of warding off cultural loss, and an ambiguous relationship is formed at the time of the natively digital inventory between immaterial and virtual. The study of the narative of the history of the web makes it possible to highlight a set of founding myths of the Internet which contribute to this ambiguity. Based on an observant participation in the Inventory of the Intangible Religious Heritage of Quebec (IPIR), which is based on the definitions of the UNESCO Convention, digital technologies, including the Internet, should be considered as tools that the communities (state, local communities, actors of the inventory) mobilize to be staged by intangible heritage. The example of the IPIR, with three missions (keep the memory, list the living practices, communicate them), compared to other existing online inventories illustrates the plasticity of the intangible cultural heritage inventory. The trajectories of inventorization emerge by questioning the social demand for an inventory of intangible cultural heritage in the context of de-Christianization of Quebec from the 1960s. Finally, the web-based dissemination of inventory data makes it possible to question the uses of techniques and forms of representation of the web as a means of cultural transmission. While the social dynamics in which an online inventory is based on an imaginary digital techniques as a means to avert cultural loss, the proliferation of tracks on the Internet comes to challenge the promise of universal accessibility that the web was wearing. origins.
6

Epigraphie en réseau : réflexions sur les potentialités d'innovations dans la représentation numérique d'inscriptions complexes

Lamé, Marion 17 December 2012 (has links)
L'épigraphie numérique interroge sur la discipline épigraphique elle-même. Nous défendons dans cette thèse une méthodologie: l'acte de numérisation. Nous pensons que la numérisation est un acte qui dépend d'une problématique bien posée, d'une définition explicite, précise et assumée de l'objet à numériser, ce qui implique, dans le cas de l'épigraphie, à réfléchir de manière approfondie sur le concept d'inscription auquel nous préférons les concepts de dispositif épigraphique et de situation épigraphique qui exposent l'individu au caractère opérant de l'écriture. Nous pensons que, au delà de l'inscription, ce qu'est l'objet d'étude de l'épigraphie est la situation épigraphique mise sur pied au travers d'un dispositif délibérée qui expose l'individu à l'écrit, quelle que soit sa volonté. Fort de cette reformulation de l'étude de l'épigraphique, nous pensons que l'édition numérique scientifique de ce type de source primaire, au lieu de reproduire les systèmes papier qui déstructurent le dispositif, doit s'appuyer sur les technologies propres aux systèmes d'information multimédia. Nous proposons, au travers d'expérimentations et de prototype, de revoir le processus éditorial scientifique, grâce au numérique, du savoir épigraphique. / Digital epigraphy invite to re-think the discipline itself. We advocate a methodology in this thesis: the act of digitization. We believe that digitization is an act that depends on a well posed questioning, an explicit and assumed definition of the object to be digitized, which means. It implies to think about the concept of “inscription” to which we prefer the concept of epigraphic device and epigraphic situation that expose individuals to the operability of writing. We think that epigraphy studies situations possible thanks to a deliberate device that exposes the individual to writings, whatever is her or his will. With this reformulation of epigraphic study, we believe that digital publishing scientific primary source of this type, instead of reproducing paper that disintegrate the epigraphic device should be based on multimedia information system. We propose, through experiments and prototypes, to review the scientific publishing process of epigraphic knowledge, thanks to digital tools.
7

Représentation et détection des images et des surfaces déformables

Barolet, Justine C. 08 1900 (has links)
La représentation d'une surface, son lissage et son utilisation pour l'identification, la comparaison, la classification, et l'étude des variations de volume, de courbure ou de topologie sont omniprésentes dans l'aire de la numérisation. Parmi les méthodes mathématiques, nous avons retenu les transformations difféomorphiques d'un pattern de référence. Il y a un grand intérêt théorique et numérique à approcher un difféomorphisme arbitraire par des difféomorphismes engendrés par des champs de vitesses. Sur le plan théorique la question est : "est-ce que le sous-groupe de difféomorphismes engendrés par des champs de vitesses est dense dans le groupe plus large de Micheletti pour la métrique de Courant ?" Malgré quelques progrès réalisés ici, cette question demeure ouverte. Les pistes empruntées ont alors convergé vers le sous-groupe de Azencott et de Trouvé et sa métrique dans le cadre de l'imagerie. Elle correspond à une notion de géodésique entre deux difféomorphismes dans leur sous-groupe. L'optimisation est utilisée pour obtenir un système d'équations état adjoint caractérisant la solution optimale du problème d'identification à partir des observations. Cette approche est adaptée à l'identification de surfaces obtenues par un numériseur tel que, par exemple, le scan d'un visage. Ce problème est beaucoup plus difficile que celui d'imagerie. On doit alors introduire un système de référence courbe et une surface à facettes pour les calculs. On donne la formulation du problème d'identification et du calcul du changement de volume par rapport à un scan de référence. / The representation of a surface, its smoothing, and its use in identification, comparison, classification, and in the study of changes in volume, curvature, and topology are ubiquitous in the area of the scanning. Among mathematical methods, we have retained the diffeomorphisms of a reference pattern. There is a considerable interest, both theoretical and numerical, in approximating an arbitrary diffeomorphism by diffeomorphisms generated by velocity fields. On the theoretical front the question is : "is the subgroup of diffeomorphisms generated by velocity fields dense in Micheletti's larger group endowed with the Courant metric ?" In spite of some progress, the question remains open. The tracks followed have converged towards the subgroup of Lipschitzian diffeomorphisms of Azencott and Trouvé and its metric developed for imaging. It corresponds to a notion of geodesic between two diffeomorphisms in their subgroup. Optimization is then used to obtain a system of equations of the state adjoint state type characterizing the optimal solution of the identification problem from observations. This approach is adapted to the identification of surfaces obtained from a scanner such as, for instance, the scan of a face. This problem is much more difficult than the one of imaging. We introduce a curvilinear reference system and a faceted surface for numerical computations. We provide a formulation of the identification problem and of the computation of the change of volume from a reference scan.
8

Estimation de pose de grands blocs d'images panoramiques issues de systèmes de numérisation mobile / Pose estimation on large block of panoramic images from mobile mapping systems

Cannelle, Bertrand 04 December 2013 (has links)
Tirée par le développement et la démocratisation des globes numériques et des systèmes de géolocalisation grand public, la numérisation 3D mobile terrestre en milieux urbains s'est développée de manière très importante ces dix dernières années. Les principaux verrous résiduels de ces systèmes reste d'une part la localisation précise des données pour certaines applications (conduite autonome urbaine, levers de géomètres, etc.) du fait des masques et multi-trajets GPS dans les canyons urbains et d'autre part le passage à l'échelle du traitement de l'information vu les volumes de données considérables acquis chaque jour (plusieurs To).La première partie de cette thèse est consacrée à la présentation de la numérisation mobile, aussi bien du point de vue système que du point de vue usage. Une description fine du système Stéréopolis V2, véhicule de numérisation mobile multi-caméras développée au laboratoire MATIS de l'Institut National de l'Information Géographique et Forestière, est faite afin de présenter les données utilisées dans cette thèse. Les blocs d'images manipulés dans ces travaux sont constitués de plusieurs centaines de milliers à un million d'image. La seconde partie est consacrée à la calibration du système: calibration intrinsèque de caméra, tout d'abord, en utilisant une géométrie d'acquisition de type panoramique, qui permet de s'affranchir de réseaux de cibles 3D métrologiques. Une calibration extrinsèque des imageurs du véhicule, ensuite, qui permet de déterminer de façon précise la position et l'orientation de caméras sur un dispositif de numérisation mobile. Deux procédures sont détaillées et comparées: l'une dite "off-line" nécessitant une acquisition spécifique avec un réseau de cibles métrologiques et l'autre dite "on-line" utilisant uniquement les données d'acquisition standards. Nous démontrons que la méthode "on-line" produit dans les mêmes conditions une précision comparable à celle "off-line" tout en étant plus adaptée aux variations de conditions d'acquisition in-situ. La troisième partie détaille le processus de compensation par faisceaux appliquée aux données de numérisation mobile multi-caméras qui permet d'estimer la pose d'un grand nombre d'images. La mise en équation ainsi que différents cas d'utilisations de la méthode sont explicités. La structuration et la gestion des données dans un entrepôt est elle aussi développée car elle permet la gestion d'importants volumes et donc le passage à l'échelle tout en restant performante. La quatrième et dernière partie propose différentes méthodes de recalage qui peuvent être utilisées aussi bien de manière individuelle que combinées afin de permettre de mettre en cohérence des séquences d'images distinctes (boucles, passage multi-dates, etc.) dans des contextes applicatifs différents / Mobile mapping technology has grown exponentially the last ten years, particularly due to advances in computer and sensor performances. However, the very accurate positioning of data generated by such technique remains a crucial issue. The first part of this thesis presents the mobile mapping system that has been designed in the MATIS lab of IGN as well as its operational use. A detailed analysis of image data is proposed and data used for this work is discussed. The second part tackles the standard calibration procedure. First, camera calibration is performed by using a panoramic-based acquisition geometry, which allows not to required ground control points. Secondly, a full calibration procedure dedicated to the Stéréopolis V2is proposed so as to determine accurately the position and orientation of all the cameras. For that purpose, two procedures are explained : one requiring an area with points positioned with high accuracy ,and the other one based only the data acquisition. The third section details the compensation applied to the mobile mapping car that allows to improve poses of a large number of images. The mathematical formulation is proposed, and various cases of the method are explained. Data management is also presented since it is a mandatory step for efficient large amount of data management The fourth and final part of the thesis presents different registration scenarii, where methods developed in this work can be used individually as well as combined with other ones so as to bring higher coherence between sequences of distinct images
9

Individualisation de l'écoute binaurale : création et transformation des indices spectraux et des morphologies des individus / Binaural hearing individualization : acquisition and transformation of spectral cues and individuals’ morphologies

Rugeles Ospina, Felipe 22 July 2016 (has links)
Cette thèse se concentre sur l'individualisation des HRTF pour la synthèse binaurale. Les systèmes permettant de mesurer des HRTF sont difficiles d'accès au grand public, ce qui pose un problème pour la démocratisation de l'audio binaurale de haute qualité. C'est pour cette raison que nous recherchons une méthode permettant de calculer les HRTF d'une personne qu'à partir de la connaissance de sa morphologie. Ces travaux de thèse avancent sur les investigations visant à avoir une technique de personnalisation de l'audio binaurale. La technique de personnalisation proposée part du principe qu'il existe un lien direct et systématique liant des paramètres de la morphologie d'un individu avec les indices spectraux de ses HRTF. Elle est basée sur la détermination d'une fonction qui prend en entrée des paramètres morphologiques et qui donne en sortie des paramètres de transformation à appliquer à un jeu de HRTF existant pour obtenir un jeu de HRTF personnalisé. Cette fonction est estimée à partir d'analyses statistiques faits sur une base de données contenant des modèles numériques des individus ainsi que leurs HRTF. Pour atteindre cet objectif, il faut construire dans un premier temps les données à partir desquelles nous allons estimer notre fonction de personnalisation. Ces travaux expliquent les systèmes que nous avons conçus pour mesurer les HRTF des individus ainsi que pour obtenir leur modèle numérique tridimensionnel. De plus, les protocoles de mesure associés à chaque système sont expliqués. Enfin, nous expliquons comment les données obtenues peuvent être exploitées pour développer un procédé de personnalisation des HRTF. / This thesis focuses on the HRTF individualization problem in the context of binaural synthesis for general applications. HRTF strongly depend on morphological features of a person and, in order to provide compelling auditory spaces, binaural synthesis requires the use of individualized HRTF. Measuring or calculating the HRTF of a listener are common but lengthy and costly methods that are not feasible for general public applications. That is the reason why we aim to develop an alternative technique to obtain customized HRTF. The technique proposed relies on estimating the spectral cues of the HRTF, corresponding to the colorations induced by pinna filtering, from a person's morphology. The spectral cues represent the most complex and individual part of HRTF. The work presented in this thesis is based on the existence of a direct and systematic link between the morphology of a person and the spectral cues of their HRTF. The goal is to start from individualization techniques of HRTF and make studies for better understanding the relationship between the morphology of a person and their HRTF. The ultimate goal is then to find a proper morphological matching personalization technique. The first step to achieve this goal is to build the measuring systems who will help us create the databases that we will use for our analyses. This thesis explains the two measuring systems that were created and the measuring protocols that were used to create two related databases containing the 3D models and the measured HRTFs of a collection of people. We then explain how these databases can be used to fit the HRTF individualization technique we have proposed.
10

Generation and analysis of graphical codes using textured patterns for printed document authentication / Génération et analyse des codes graphiques utilisant des motifs texturés pour l'authentification de documents imprimés

Tkachenko, Iuliia 14 December 2015 (has links)
En raison du développement et de la disponibilité des appareils d'impression et de numérisation, le nombre de documents contrefaits augmente rapidement. En effet, les documents de valeur ainsi que les emballages de produits sont de plus en plus ciblés par des duplications non autorisées. Par conséquent, différents éléments de sécurité (hologrammes, encres, papiers) ont été proposés pour prévenir ces actions illégales. Dans cette thèse, nous nous concentrons sur les éléments de sécurité imprimés qui offrent un haut niveau de sécurité et qui possèdent une mise en œuvre et une intégration simple. Nous présentons comment générer de nouveaux éléments de sécurité qui visent à protéger les documents de valeur et les emballages contre des processus de duplication non autorisés. Ces éléments nous permettent en outre de stocker une grande quantité d'informations cachées.La caractéristique principale de ces éléments de sécurité est leur sensibilité au processus d'impression et de numérisation. Cette sensibilité est obtenue à l'aide de motifs texturés spécifiques. Ces motifs sont des images binaires qui possèdent une structure sensible aux processus d'impression, de numérisation et de copie. Nous définissons les critères spécifiques qui doivent être respectés lors du choix de ces motifs texturés. La quantité d'information encodée dans l'image augmente avec le nombre de motifs texturés utilisées.En complément, nous proposons dans ce mémoire d'améliorer la robustesse de la détection des modules, pour tous les codes graphiques, par l'utilisation d'une nouvelle mesure d'erreur quadratique moyenne pondérée. L'utilisation de cette nouvelle mesure nous a permis d'augmenter de façon significative le taux de reconnaissance des modules lorsqu'ils sont utilisés dans des codes à barres standard à haute densité. Enfin, nous étudions expérimentalement plusieurs phénomènes : le processus physique d'impression et de numérisation, la séparation du bruit du scanner de celui de l'imprimante et les changements de couleurs après processus d'impression et de numérisation. Nous concluons à partir de cette étude expérimentale, que le processus d'impression et de numérisation ne peut pas être modélisé comme un loi Gaussienne. Nous mettons en avant que ce processus n'est ni blanc ni ergodique au sens large. / Due to the development and availability of printing and scanning devices, the number of forged/counterfeited valuable documents and product packages is increasing. Therefore, different security elements (holograms, inks, papers) have been suggested to prevent these illegal actions. In this thesis, we focus on printed security elements that give access to a high security level with an easy implementation and integration. We present how to generate several novel security elements that aim to protect valuable documents and packaging against unauthorized copying process. Moreover, these security elements allow us to store a huge amount of hidden information.The main characteristic of these security elements is their sensitivity to the print-and-scan process. This sensitivity stems from the use of specific textured patterns. These patterns, which are binary images, have a structure that changes during the printing, scanning and copying processes. We define new specific criteria that ensures the chosen textured patterns to have the appropriate property. The amount of additional information encoded in the patterns increases with the number of patterns used.Additionally, we propose a new weighted mean squared error measure to improve the robustness of module detection for any high density barcodes. Thanks to this measure, the recognition rate of modules used in standard high density barcodes after print-and-scan process can be significantly increased. Finally, we experimentally study several effects: the physical print-and-scan process, separation of scanner noise from printer noise and changes of colors after print-and-scan process. We conclude, from these experimental results, that the print-and-scan process cannot be considered as being a Gaussian process. It has been also highlighted that this process is neither white nor ergodic in the wide sense.

Page generated in 0.0946 seconds