• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1
  • 1
  • Tagged with
  • 6
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

A customisable framework for hardware compilation

Todman, Timothy John January 2003 (has links)
No description available.
2

Qos-enabled streaming of animated 3-D wireframe models

Varakliotis, Sokratis January 2004 (has links)
No description available.
3

Multi-agent communication protocols with emergent behaviour

Al-Hudhud, Ghada A. K. January 2005 (has links)
No description available.
4

Management and programming of reconfigurable hardware resources

Thomas, David January 2011 (has links)
No description available.
5

Modélisation probabiliste d’impression à l’échelle micrométrique / Probabilistic modeling of prints at the microscopic scale

Nguyen, Quoc Thong 18 May 2015 (has links)
Nous développons des modèles probabilistes pour l’impression à l’échelle micrométrique. Tenant compte de l’aléa de la forme des points qui composent les impressions, les modèles proposés pourront être ultérieurement exploités dans différentes applications dont l’authentification de documents imprimés. Une analyse de l’impression sur différents supports papier et par différentes imprimantes a été effectuée. Cette étude montre que la grande variété de forme dépend de la technologie et du papier. Le modèle proposé tient compte à la fois de la distribution du niveau de gris et de la répartition spatiale de l’encre sur le papier. Concernant le niveau de gris, les modèles des surfaces encrées/vierges sont obtenues en sélectionnant les distributions dans un ensemble de lois de forme similaire aux histogrammes et à l’aide de K-S critère. Le modèle de répartition spatiale de l’encre est binaire. Le premier modèle consiste en un champ de variables indépendantes de Bernoulli non-stationnaire dont les paramètres forment un noyau gaussien généralisé. Un second modèle de répartition spatiale des particules d’encre est proposé, il tient compte de la dépendance des pixels à l’aide d’un modèle de Markov non stationnaire. Deux méthodes d’estimation ont été développées, l’une approchant le maximum de vraisemblance par un algorithme de Quasi Newton, la seconde approchant le critère de l’erreur quadratique moyenne minimale par l’algorithme de Metropolis within Gibbs. Les performances des estimateurs sont évaluées et comparées sur des images simulées. La précision des modélisations est analysée sur des jeux d’images d’impression à l’échelle micrométrique obtenues par différentes imprimantes. / We develop the probabilistic models of the print at the microscopic scale. We study the shape randomness of the dots that originates the prints, and the new models could improve many applications such as the authentication. An analysis was conducted on various papers, printers. The study shows a large variety of shape that depends on the printing technology and paper. The digital scan of the microscopic print is modeled in: the gray scale distribution, and the spatial binary process modeling the printed/blank spatial distribution. We seek the best parametric distribution that takes account of the distributions of the blank and printed areas. Parametric distributions are selected from a set of distributions with shapes close to the histograms and with the Kolmogorov-Smirnov divergence. The spatial binary model handles the wide diversity of dot shape and the range of variation of spatial density of inked particles. At first, we propose a field of independent and non-stationary Bernoulli variables whose parameters form a Gaussian power. The second spatial binary model encompasses, in addition to the first model, the spatial dependence of the inked area through an inhomogeneous Markov model. Two iterative estimation methods are developed; a quasi-Newton algorithm which approaches the maximum likelihood and the Metropolis-Hasting within Gibbs algorithm that approximates the minimum mean square error estimator. The performances of the algorithms are evaluated and compared on simulated images. The accuracy of the models is analyzed on the microscopic scale printings coming from various printers. Results show the good behavior of the estimators and the consistency of the models.
6

Synthèse d’images réalistes en milieux fortement spéculaires

Bouchard, Guillaume 23 May 2014 (has links)
La synthèse d'images est un outil utilisé dans de nombreuses industries, comme celle de l'art, des jeux vidéos, du cinéma ou de l'ingénierie. Tout particulièrement, les simulations lumineuses de qualité au réalisme avancé sont un outil de prototypage puissant et l'étude d'un modèle virtuel permet de prendre des décisions pertinentes dans le processus de conception d'un produit. Cependant, la simulation est un processus coûteux pouvant nécessiter de nombreuses heures de calcul en fonction de la complexité des scènes. Dans cette thèse, nous nous intéressons à la complexité liée à la présence de matériaux spéculaires – les miroirs et les surfaces transparentes. Dans un contexte d'intégration numérique de Monte-Carlo, ces matériaux sont source de variance et ainsi augmentent les temps de calcul nécessaires à obtenir une image de qualité impliquant des phénomènes complexes comme les caustiques liées à la focalisation de la lumière, et les reflets. Après avoir mis en évidence les problématiques et contraintes caractéristiques des matériaux spéculaires, nous proposons un relâchement de ces contraintes au prix de l'introduction de biais – d'erreur – dans le calcul final. Nous proposons une heuristique permettant de pondérer une simulation non biaisée, mais peu effi- cace, et une simulation biaisée et plus efficace afin d'obtenir le meilleur compromis possible. Nos travaux étudient l'introduction de biais par régularisation, proposent des algorithmes efficaces de pondération et une méthode de visualisation interactive sur GPU. Pour finir, nos travaux ont permis l'amélioration du logiciel LuxRender, profitant ainsi à une grande communauté d'industriels et d'artistes / Image synthesis using computers is a tool used in many industries, from art, video games, cinema to engineering. Especially, efficient light simulations with advanced realism are an efficient tool for prototyping when the study of a virtual mock-up leads to more efficient industrial choices during the conception process. However, image rendering is a costly process which usually needs many hours of computation depending on the complexity of the involved scenes. In this thesis, we focus on the complexity inherited from the usage of specular materials, such as mirrors and transparent surfaces. In a Monte Carlo process, these materials are an important source of variance, or noise, and increase the rendering time needed to obtain an image representing complex phenomena such as caustics and reflexions. We first show the constraints involved by specular materials and propose to relax them, using regularization. We introduce a weighting heuristic allowing efficient trade-off between the biased regularization and the rendering efficiency. We study the evolution of the bias introduced by regularization, we propose efficient global illuminations algorithms and GPU implementations. Finally, our work was used inside LuxRender, a community developed rendering engine. This allows our work to be spread among and used by a large community of industrials and artists

Page generated in 0.0253 seconds