• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 90
  • 45
  • 12
  • 1
  • Tagged with
  • 148
  • 81
  • 67
  • 59
  • 38
  • 34
  • 33
  • 30
  • 29
  • 28
  • 26
  • 25
  • 23
  • 21
  • 21
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Non à Maastricht, oui à l'Europe des Patries : transition post-communiste et discours anti-européen du Front National, 1989-1994

Bolduc, Amélie 11 April 2018 (has links)
L'année 1989 renferme plusieurs éléments nous permettant de conclure que la chute du mur de Berlin, et plus globalement la fin de la guerre froide, eut des effets quasi démesurés sur l'importance et l'originalité du discours frontiste face à l'Europe. Le dévoilement de ce capital symbolique, chapeauté par une période d'accélération inédite du processus de construction européenne, représente le point d'impulsion fondamental à l'épanouissement et à l'intensification du discours anti-européen du parti du Front National. Sur le plan politique, le modèle idéologique de l'Europe des Patries fit de l'orientation fédéraliste de la Commission et de la majorité socialiste du Parlement Européen des cibles à atteindre pour un parti brandissant incessamment le spectre de la perte de souveraineté de la nation et de l'État français. / Québec Université Laval, Bibliothèque 2014
122

Le rendu en demi-ton avec sensibilité à la structure

Chang, Jianghao 08 1900 (has links)
Dans ce mémoire nous allons présenter une méthode de diffusion d’erreur originale qui peut reconstruire des images en demi-ton qui plaisent à l’œil. Cette méthode préserve des détails fins et des structures visuellement identifiables présentes dans l’image originale. Nous allons tout d’abord présenter et analyser quelques travaux précédents afin de montrer certains problèmes principaux du rendu en demi-ton, et nous allons expliquer pourquoi nous avons décidé d’utiliser un algorithme de diffusion d’erreur pour résoudre ces problèmes. Puis nous allons présenter la méthode proposée qui est conceptuellement simple et efficace. L’image originale est analysée, et son contenu fréquentiel est détecté. Les composantes principales du contenu fréquentiel (la fréquence, l’orientation et le contraste) sont utilisées comme des indices dans un tableau de recherche afin de modifier la méthode de diffusion d’erreur standard. Le tableau de recherche est établi dans un étape de pré-calcul et la modification est composée par la modulation de seuil et la variation des coefficients de diffusion. Ensuite le système en entier est calibré de façon à ce que ces images reconstruites soient visuellement proches d’images originales (des aplats d’intensité constante, des aplats contenant des ondes sinusoïdales avec des fréquences, des orientations et des constrastes différents). Finalement nous allons comparer et analyser des résultats obtenus par la méthode proposée et des travaux précédents, et démontrer que la méthode proposée est capable de reconstruire des images en demi-ton de haute qualité (qui préservent des structures) avec un traitement de temps très faible. / In this work we present an original error-diffusion method which produces visually pleasant halftone images while preserving fine details and visually identifiable structures present in original images. We first present and analyze the previous work to show the major problems in halftoning, and explain why we decided to use an error diffusion algorithm to solve the problems. Then we present our method which is conceptually simple and computationally efficient. The source image is analyzed, and its local frequency content is detected. The main components of the frequency content (main frequency, orientation, and contrast) serve as lookup table indices in a pre-computed database of modifications to a standard error diffusion. The modifications comprise threshold modulation and variation of error-diffusion coefficients. The whole system is calibrated in such a way that the produced halftone images are visually close to original images (patches of constant intensity, patches containing sinu- soidal waves of different frequencies/orientations/contrasts, as well as natural images of different origins). Finally, we compare and analyze the results obtained by our method and previous work, and show that our method can produre high-quality halftone image (which is struc- ture aware) within very short time.
123

Hessian-based occlusion-aware radiance caching

Zhao, Yangyang 10 1900 (has links)
Simuler efficacement l'éclairage global est l'un des problèmes ouverts les plus importants en infographie. Calculer avec précision les effets de l'éclairage indirect, causés par des rebonds secondaires de la lumière sur des surfaces d'une scène 3D, est généralement un processus coûteux et souvent résolu en utilisant des algorithmes tels que le path tracing ou photon mapping. Ces techniquesrésolvent numériquement l'équation du rendu en utilisant un lancer de rayons Monte Carlo. Ward et al. ont proposé une technique nommée irradiance caching afin d'accélérer les techniques précédentes lors du calcul de la composante indirecte de l'éclairage global sur les surfaces diffuses. Krivanek a étendu l'approche de Ward et Heckbert pour traiter le cas plus complexe des surfaces spéculaires, en introduisant une approche nommée radiance caching. Jarosz et al. et Schwarzhaupt et al. ont proposé un modèle utilisant le hessien et l'information de visibilité pour raffiner le positionnement des points de la cache dans la scène, raffiner de manière significative la qualité et la performance des approches précédentes. Dans ce mémoire, nous avons étendu les approches introduites dans les travaux précédents au problème du radiance caching pour améliorer le positionnement des éléments de la cache. Nous avons aussi découvert un problème important négligé dans les travaux précédents en raison du choix des scènes de test. Nous avons fait une étude préliminaire sur ce problème et nous avons trouvé deux solutions potentielles qui méritent une recherche plus approfondie. / Efficiently simulating global illumination is one of the most important open problems in computer graphics. Accurately computing the effects of indirect illumination, caused by secondary bounces of light off surfaces in a 3D scene, is generally an expensive process and often solved using algorithms such as path tracing or photon mapping. These approaches numerically solve the rendering equation using stochastic Monte Carlo ray tracing. Ward et al. proposed irradiance caching to accelerate these techniques when computing the indirect illumination component on diffuse surfaces. Krivanek extended the approach of Ward and Heckbert to handle the more complex case of glossy surfaces, introducing an approach referred to as radiance caching. Jarosz et al. and Schwarzhaupt et al. proposed a more accurate visibility-aware Hessian-based model to greatly improve the placement of records in the scene for use in an irradiance caching context, significantly increasing the quality and performance of the baseline approach. In this thesis, we extended similar approaches introduced in these aforementioned work to the problem of radiance caching to improve the placement of records. We also discovered a crucial problem overlooked in the previous work due to the choice of test scenes. We did a preliminary study of this problem, and found several potential solutions worth further investigation.
124

Etude en vue de la multirésolution de l’apparence

Hadim, Julien 11 May 2009 (has links)
Les fonctions de texture directionnelle "Bidirectional Texture Function" (BTF) ont rencontrés un certain succès ces dernières années, notamment pour le rendu temps-réel d'images de synthèse, grâce à la fois au réalisme qu'elles apportent et au faible coût de calcul nécessaire. Cependant, un inconvénient de cette approche reste la taille gigantesque des données : de nombreuses méthodes ont été proposées afin de les compresser. Dans ce document, nous proposons une nouvelle représentation des BTFs qui améliore la cohérence des données et qui permet ainsi une compression plus efficace. Dans un premier temps, nous étudions les méthodes d'acquisition et de génération des BTFs et plus particulièrement, les méthodes de compression adaptées à une utilisation sur cartes graphiques. Nous réalisons ensuite une étude à l'aide de notre logiciel "BTFInspect" afin de déterminer parmi les différents phénomènes visuels dans les BTFs, ceux qui influencent majoritairement la cohérence des données par texel. Dans un deuxième temps, nous proposons une nouvelle représentation pour les BTFs, appelées Flat Bidirectional Texture Function (Flat-BTFs), qui améliore la cohérence des données d'une BTF et donc la compression des données. Dans l'analyse des résultats obtenus, nous montrons statistiquement et visuellement le gain de cohérence obtenu ainsi que l'absence d'une perte significative de qualité en comparaison avec la représentation d'origine. Enfin, dans un troisième temps, nous démontrons l'utilisation de notre nouvelle représentation dans des applications de rendu en temps-réel sur cartes graphiques. Puis, nous proposons une compression de l'apparence grâce à une méthode de quantification sur GPU et présentée dans le cadre d'une application de diffusion de données 3D entre un serveur contenant des modèles 3D et un client désirant visualiser ces données. / In recent years, Bidirectional Texture Function (BTF) has emerged as a flexible solution for realistic and real-time rendering of material with complex appearance and low cost computing. However one drawback of this approach is the resulting huge amount of data: several methods have been proposed in order to compress and manage this data. In this document, we propose a new BTF representation that improves data coherency and allows thus a better data compression. In a first part, we study acquisition and digital generation methods of BTFs and more particularly, compression methods suitable for GPU rendering. Then, We realise a study with our software BTFInspect in order to determine among the different visual phenomenons present in BTF which ones induce mainly the data coherence per texel. In a second part, we propose a new BTF representation, named Flat Bidirectional Texture Function (Flat-BTF), which improves data coherency and thus, their compression. The analysis of results show statistically and visually the gain in coherency as well as the absence of a noticeable loss of quality compared to the original representation. In a third and last part, we demonstrate how our new representation may be used for realtime rendering applications on GPUs. Then, we introduce a compression of the appearance thanks to a quantification method on GPU which is presented in the context of a 3D data streaming between a server of 3D data and a client which want visualize them.
125

Couplage de la rObotique et de la simulatioN mEdical pour des proCédures automaTisées (CONECT) / Coupling robotics and medical simulations for automatic percutaneous procedures

Adagolodjo, Yinoussa 06 September 2018 (has links)
Les techniques d'insertion d'aiguille font partie des interventions chirurgicales les plus courantes. L'efficacité de ces interventions dépend fortement de la précision du positionnement des aiguilles dans un emplacement cible à l'intérieur du corps du patient. L'objectif principal dans cette thèse est de développer un système robotique autonome, capable d'insérer une aiguille flexible dans une structure déformable le long d'une trajectoire prédéfinie. L’originalité de ce travail se trouve dans l’utilisation de simulations inverses par éléments finis (EF) dans la boucle de contrôle du robot pour prédire la déformation des structures. La particularité de ce travail est que pendant l’insertion, les modèles EF sont continuellement recalés (étape corrective) grâce à l’information extraite d’un système d’imagerie peropératoire. Cette étape permet de contrôler l’erreur des modèles par rapport aux structures réelles et ainsi éviter qu'ils divergent. Une seconde étape (étape de prédiction) permet, à partir de la position corrigée, d’anticiper le comportement de structures déformables, en se reposant uniquement sur les prédictions des modèles biomécaniques. Ceci permet ainsi d’anticiper la commande du robot pour compenser les déplacements des tissus avant même le déplacement de l’aiguille. Expérimentalement, nous avions utilisé notre approche pour contrôler un robot réel afin d'insérer une aiguille flexible dans une mousse déformable le long d'une trajectoire (virtuelle) prédéfinie. Nous avons proposé une formulation basée sur des contraintes permettant le calcul d'étapes prédictives dans l'espace de contraintes offrant ainsi un temps d'insertion total compatible avec les applications cliniques. Nous avons également proposé un système de réalité augmentée pour la chirurgie du foie ouverte. La méthode est basée sur un recalage initial semi-automatique et un algorithme de suivi peropératoire basé sur des marqueurs (3D) optiques. Nous avons démontré l'applicabilité de cette approche en salle d'opération lors d'une chirurgie de résection hépatique. Les résultats obtenus au cours de ce travail de thèse ont conduit à trois publications (deux IROS et un ICRA) dans les conférences internationales puis à un journal (Transactions on Robotics) en cours de révision. / Needle-based interventions are among the least invasive surgical approaches to access deep internal structures into organs' volumes without damaging surrounding tissues. Unlike traditional open surgery, needle-based approaches only affect a localized area around the needle, reducing this way the occurrence of traumas and risks of complications \cite{Cowan2011}. Many surgical procedures rely on needles in nowadays clinical routines (biopsies, local anesthesia, blood sampling, prostate brachytherapy, vertebroplasty ...). Radiofrequency ablation (RFA) is an example of percutaneous procedure that uses heat at the tip of a needle to destroy cancer cells. Such alternative treatments may open new solutions for unrespectable tumors or metastasis (concerns about the age of the patient, the extent or localization of the disease). However, contrary to what one may think, needle-based approaches can be an exceedingly complex intervention. Indeed, the effectiveness of the treatment is highly dependent on the accuracy of the needle positioning (about a few millimeters) which can be particularly challenging when needles are manipulated from outside the patient with intra-operative images (X-ray, fluoroscopy or ultrasound ...) offering poor visibility of internal structures. Human factors, organs' deformations, needle deflection and intraoperative imaging modalities limitations can be causes of needle misplacement and rise significantly the technical level necessary to master these surgical acts. The use of surgical robots has revolutionized the way surgeons approach minimally invasive surgery. Robots have the potential to overcome several limitations coming from the human factor: for instance by filtering operator tremors, scaling the motion of the user or adding new degrees of freedom at the tip of instruments. A rapidly growing number of surgical robots has been developed and applied to a large panel of surgical applications \cite{Troccaz2012}. Yet, an important difficulty for needle-based procedures lies in the fact that both soft tissues and needles tend to deform as the insertion proceeds in a way that cannot be described with geometrical approaches. Standard solutions address the problem of the deformation extracting a set of features from per-operative images (also called \textit{visual servoing)} and locally adjust the pose/motion of the robot to compensate for deformations \cite{Hutchinson1996}. [...]To overcome these limitations, we introduce a numerical method allowing performing inverse Finite Element simulations in real-time. We show that it can be used to control an articulated robot while considering deformations of structures during needle insertion. Our approach relies on a forward FE simulation of a needle insertion (involving complex non-linear phenomena such as friction, puncture and needle constraints).[...]
126

Echantillonage d'importance des sources de lumières réalistes / Importance Sampling of Realistic Light Sources

Lu, Heqi 27 February 2014 (has links)
On peut atteindre des images réalistes par la simulation du transport lumineuse avec des méthodes de Monte-Carlo. La possibilité d’utiliser des sources de lumière réalistes pour synthétiser les images contribue grandement à leur réalisme physique. Parmi les modèles existants, ceux basés sur des cartes d’environnement ou des champs lumineuse sont attrayants en raison de leur capacité à capter fidèlement les effets de champs lointain et de champs proche, aussi bien que leur possibilité d’être acquis directement. Parce que ces sources lumineuses acquises ont des fréquences arbitraires et sont éventuellement de grande dimension (4D), leur utilisation pour un rendu réaliste conduit à des problèmes de performance.Dans ce manuscrit, je me concentre sur la façon d’équilibrer la précision de la représentation et de l’efficacité de la simulation. Mon travail repose sur la génération des échantillons de haute qualité à partir des sources de lumière par des estimateurs de Monte-Carlo non-biaisés. Dans ce manuscrit, nous présentons trois nouvelles méthodes.La première consiste à générer des échantillons de haute qualité de manière efficace à partir de cartes d’environnement dynamiques (i.e. qui changent au cours du temps). Nous y parvenons en adoptant une approche GPU qui génère des échantillons de lumière grâce à une approximation du facteur de forme et qui combine ces échantillons avec ceux issus de la BRDF pour chaque pixel d’une image. Notre méthode est précise et efficace. En effet, avec seulement 256 échantillons par pixel, nous obtenons des résultats de haute qualité en temps réel pour une résolution de 1024 × 768. La seconde est une stratégie d’échantillonnage adaptatif pour des sources représente comme un "light field". Nous générons des échantillons de haute qualité de manière efficace en limitant de manière conservative la zone d’échantillonnage sans réduire la précision. Avec une mise en oeuvre sur GPU et sans aucun calcul de visibilité, nous obtenons des résultats de haute qualité avec 200 échantillons pour chaque pixel, en temps réel et pour une résolution de 1024×768. Le rendu est encore être interactif, tant que la visibilité est calculée en utilisant notre nouvelle technique de carte d’ombre (shadow map). Nous proposons également une approche totalement non-biaisée en remplaçant le test de visibilité avec une approche CPU. Parce que l’échantillonnage d’importance à base de lumière n’est pas très efficace lorsque le matériau sous-jacent de la géométrie est spéculaire, nous introduisons une nouvelle technique d’équilibrage pour de l’échantillonnage multiple (Multiple Importance Sampling). Cela nous permet de combiner d’autres techniques d’échantillonnage avec le notre basé sur la lumière. En minimisant la variance selon une approximation de second ordre, nous sommes en mesure de trouver une bonne représentation entre les différentes techniques d’échantillonnage sans aucune connaissance préalable. Notre méthode est pertinence, puisque nous réduisons effectivement en moyenne la variance pour toutes nos scènes de test avec différentes sources de lumière, complexités de visibilité et de matériaux. Notre méthode est aussi efficace par le fait que le surcoût de notre approche «boîte noire» est constant et représente 1% du processus de rendu dans son ensemble. / Realistic images can be rendered by simulating light transport with Monte Carlo techniques. The possibility to use realistic light sources for synthesizing images greatly contributes to their physical realism. Among existing models, the ones based on environment maps and light fields are attractive due to their ability to capture faithfully the far-field and near-field effects as well as their possibility of being acquired directly. Since acquired light sources have arbitrary frequencies and possibly high dimension (4D), using such light sources for realistic rendering leads to performance problems.In this thesis, we focus on how to balance the accuracy of the representation and the efficiency of the simulation. Our work relies on generating high quality samples from the input light sources for unbiased Monte Carlo estimation. In this thesis, we introduce three novel methods.The first one is to generate high quality samples efficiently from dynamic environment maps that are changing over time. We achieve this by introducing a GPU approach that generates light samples according to an approximation of the form factor and combines the samples from BRDF sampling for each pixel of a frame. Our method is accurate and efficient. Indeed, with only 256 samples per pixel, we achieve high quality results in real time at 1024 × 768 resolution. The second one is an adaptive sampling strategy for light field light sources (4D), we generate high quality samples efficiently by restricting conservatively the sampling area without reducing accuracy. With a GPU implementation and without any visibility computations, we achieve high quality results with 200 samples per pixel in real time at 1024 × 768 resolution. The performance is still interactive as long as the visibility is computed using our shadow map technique. We also provide a fully unbiased approach by replacing the visibility test with a offline CPU approach. Since light-based importance sampling is not very effective when the underlying material of the geometry is specular, we introduce a new balancing technique for Multiple Importance Sampling. This allows us to combine other sampling techniques with our light-based importance sampling. By minimizing the variance based on a second-order approximation, we are able to find good balancing between different sampling techniques without any prior knowledge. Our method is effective, since we actually reduce in average the variance for all of our test scenes with different light sources, visibility complexity, and materials. Our method is also efficient, by the fact that the overhead of our "black-box" approach is constant and represents 1% of the whole rendering process.
127

Annotation et visualisation interactives de documents hypermédias

ROBERT, Laurent 29 June 2001 (has links) (PDF)
Le développement du multimédia, des capacités de stockage et du matériel de numérisation permet de mettre à disposition sous une forme électronique un nombre toujours croissant de documents " matériels " (journaux, cartes, photographies, peintures, cahiers d'expérimentations, originaux d'œuvres littéraires, rapports, etc.). La numérisation, le stockage et la diffusion de ces matériaux sources ne posent aujourd'hui plus réellement problème. Néanmoins, il s'avère que les utilisateurs ont souvent des difficultés à exploiter ces documents en milieu informatique. Cet état de fait est la conséquence de plusieurs problèmes. Tout d'abord, peu d'outils logiciels permettent aux utilisateurs de réaliser les tâches qu'ils ont l'habitude d‘effectuer avec des documents papiers (annoter, comparer, associer des idées, etc.). Ensuite, l'accès à l'information dans un espace informationnel de vaste envergure s'avère être un problème non trivial. Les utilisateurs éprouvent des difficultés à trouver les données recherchées, à comprendre leur organisation et leurs relations, ainsi qu'à collecter et organiser celles jugées intéressantes afin de pouvoir les retrouver plus rapidement par la suite.<br />A cette problématique de l'utilisation des documents en milieu informatique, nous proposons deux approches complémentaires issues des domaines de l'interaction homme-machine et de la visualisation d'information.<br />La première approche repose sur le concept de lecture active qui vise à transformer le " lecteur " en " acteur " en lui permettant d'enrichir interactivement les documents qu'il est en train de lire par un ensemble de signes graphiques (surlignages, cerclages, etc.) et d'informations textuelles (notes, commentaires, etc.). L'idée consiste à permettre aux utilisateurs de construire leur propre système de repérage afin de faciliter la compréhension et la réutilisation des documents. Une attention particulière est portée à la manière d'associer ces méta-données " ajoutées " (que nous nommons, d'une manière générique, " annotations ") aux documents sources au moyen de liens hypertextes, ainsi qu'à leur codage informatique dans un format normalisé (dérivé de XML).<br />La seconde approche consiste à faciliter l'exploration d'espaces documentaires en exploitant les capacités perceptives et mémorielles humaines au moyen de techniques interactives de visualisation. Nous proposons tout d'abord un système de navigation qui repose sur un fort couplage entre vues globales et vues locales pour aider à trouver les documents. Les vues globales montrent l'organisation de l'espace d'information et en permettent un survol rapide. Elles sont utilisées pour atteindre des zones d'intérêts. Les vues locales présentent le contenu de plusieurs documents en contexte afin d'aider l'utilisateur à les comparer et à choisir celui qu'il va consulter. Nous proposons ensuite un environnement visuel de gestion de bookmarks dans le but de pouvoir retrouver le plus simplement possible les documents préalablement consultés. Les utilisateurs organisent leurs bookmarks de la même manière qu'ils le feraient avec un ensemble de documents papiers sur un bureau. Ils définissent interactivement leur propre organisation conceptuelle de l'espace documentaire en se basant sur des propriétés visuelles et spatiales. Ces propriétés aideront les utilisateurs à retrouver plus efficacement les documents sauvegardés par une stimulation de leurs capacités mémorielles.
128

Simulation de chevelures virtuelles

Bertails, Florence 23 June 2006 (has links) (PDF)
Du fait de l'importance accrue des personnages virtuels dans tous les secteurs du loisir numérique, la<br />simulation de chevelures est devenue, ces dernières années, un thème de recherche très actif en informatique graphique. Par ailleurs, la simulation physique de cheveux attire de plus en plus l'attention des cosmétologues, qui voient dans le prototypage virtuel un moyen efcace pour mettre au point des produits capillaires.<br />Cette thèse s'attaque à deux grandes difcultés antagonistes liées à la simulation de chevelures : d'une part, la simulation en temps interactif d'une chevelure complète ; d'autre part, le réalisme physique de la forme et du mouvement d'une chevelure.<br />Dans un premier temps, nous élaborons de nouveaux algorithmes visant à réduire le coût de calcul inhérent<br />aux méthodes classiques d'animation de chevelures. Nos approches exploitent pour la première fois l'animation multi-résolution et le rendu volumique de longs cheveux, donnant lieu à des simulations interactives.<br />Dans un second temps, nous proposons un modèle physiquement réaliste de chevelure, réalisé en collaboration avec des spécialistes en modélisation mécanique et en cosmétologie. Nous présentons tout d'abord le modèle mécanique précis de cheveu unique, issu de la théorie de Kirchhoff sur les tiges élastiques, dont nous avons participé à l'élaboration au cours de ce partenariat. Étendu à l'échelle de la chevelure complète, ce modèle est ensuite appliqué à la génération réaliste de coiffures naturelles tatiques, puis à la simulation dynamique de chevelures d'origines ethniques variées, avant d'être nalement validé à travers un ensemble de comparaisons avec le réel.
129

Complexité Naturelle et Synthèse d'Images

Neyret, Fabrice 22 October 2001 (has links) (PDF)
Après un post-doctorat à l'Université de Toronto au DGP, j'ai été recruté en octobre 1997 au laboratoire GRAVIR (UMR 5527 CNRS-UJF-INPG-INRIA; dirigé par Claude Puech), dans l'équipe iMAGIS. Mes travaux s'inscrivent dans le domaine de la synthèse d'images, l'équipe s'intéressant plus particulièrement au traitement des scènes complexes. "Complexe" recouvre ici de multiples dimensions, comme la nature des phénomènes (optiques et mécaniques), des formes et des matériaux, et la quantité d'information impliquée. Ce mémoire présente les approches que j'ai faites miennes pour tenter de représenter la complexité de la nature dans l'espoir d'en produire des images et animations de synthèses, ainsi que les travaux particuliers que j'ai menés dans cet esprit après ma thèse de doctorat. Dans le premier chapitre, j'introduis le contexte de la production d'images, ainsi que les trois principaux axes d'attaque que j'adopte pour le traitement de la complexité, à savoir le multi-échelle, le procéduralisme, et la simulation phénomènologique. Dans le second chapitre, je décline mes thèmes de recherche, et retrace les travaux existants relatifs au sujet. Dans le troisième, je résume mes contributions dans ces divers thèmes, le texte de mes principaux articles étant reproduit en Annexes A a D.
130

Caractérisation du rendu des couleurs des nouvelles sources : les diodes électroluminescentes (LED)

Pousset, Nicolas 07 December 2009 (has links) (PDF)
Le développement des LED de forte puissance, au début des années 2000, a engendré un besoin de caractérisation des propriétés radiométrique, photométrique et colorimétrique de ces sources, essentiellement pour des applications d'éclairage général. L'équipe « Rayonnements optiques » de l'Institut national de métrologie a étudié ces trois aspects en travaillant sur la thématique de la qualité de la lumière par le biais du rendu des couleurs lié à la perception visuelle. Des études ont été effectuées à partir de mesures physiques et visuelles sur des échantillons colorés éclairés par des LED montées dans une cabine à lumière. Les mesures physiques ont porté sur les répartitions spectrales des éclairages à LED à partir desquelles des paramètres colorimétriques (coordonnées chromatiques, température de couleur proximale, indices de rendu des couleurs) ont pu être évalués. L'analyse métrologique de ces données expérimentales a été réalisée à l'aide d'une méthode numérique de type Monte Carlo. Les mesures visuelles ont été obtenues à partir d'une expérience psychophysique reposant sur une méthode de comparaison par paires permettant de quantifier la qualité des éclairages à LED sur plusieurs échantillons colorés. Pour chaque échantillon, un classement des éclairages à LED, du meilleur au moins bon, a pu être proposé. La confrontation des résultats issus des mesures physiques et des mesures visuelles a conduit à présenter des pistes de quantification du rendu des couleurs des LED. Les résultats obtenus ont été transmis au comité technique TC 1-69 de la Commission internationale de l'éclairage (CIE), qui a pour rôle de définir une nouvelle recommandation pour l'évaluation des propriétés de rendu des couleurs des sources lumineuses d'ici à la fin 2010.

Page generated in 0.0676 seconds