• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 19
  • 4
  • 2
  • Tagged with
  • 25
  • 25
  • 25
  • 9
  • 8
  • 8
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Contributions à la simulation temps réel des grands réseaux électriques modernes

Le-Huy, Philippe 22 June 2021 (has links)
La simulation des phénomènes électromagnétiques transitoires (EMT) est capitale dans plusieurs spécialisations de l'électrotechnique pour analyser, comprendre et prévoir divers comportements de réseaux électriques ou de dispositifs d'électronique de puissance commutée. Ces simulations sont typiquement réalisées sans contraintes temporelles : la simulation d'un événement peut être plus rapide ou plus lente que l'événement lui-même. Toutefois, dans un contexte de validation de systèmes de contrôle réel, les simulations doivent être effectuées en temps réel afin de soumettre l'équipement réel à des signaux réalistes avec le bon contenu spectral sur la plage fréquentielle requise. Une simulation opérant avec un pas de temps Tₛ est dite en temps réel si elle est en mesure de produire une nouvelle solution complète et d'effectuer tous les services nécessaires (entrées/sorties, acquisition, monitorage, etc.) en un laps de temps de Tₛ, et ce de manière maintenue et périodique. Les besoins de simulation temps réel ne cessent de croître pour étudier l'intégration des différents dispositifs d'électronique de puissance avec système de contrôle et protection qui prolifèrent sur les réseaux électriques et pour évaluer leurs interactions potentielles. Les réseaux à simuler sont de plus en plus vastes parce que ces dispositifs sont de plus en plus distribués spatialement. De plus, les modélisations sont de plus en plus complexes afin de représenter le plus fidèlement possible les phénomènes réels sur des plages de fréquence de plus en plus larges. Il existe donc un besoin criant d'augmenter la capacité de simulation temps réel. Pour y arriver, plusieurs groupes de recherche explorent l'utilisation d'unités de traitement alternatives telles les FPGA et GPU pour complémenter ou remplacer les processeurs standards tandis que d'autres explorent des modélisations et techniques pour augmenter la capacité de simulation des processeurs standards tels les équivalents fréquentiels, la simulation multitaux et la simulation hybride. Toutefois, la majorité de ces efforts vise l'augmentation des capacités en temps différé et non en temps réel. Afin de combler ce décalage, le présent ouvrage vise l'augmentation des capacités de simulation en temps réel des processeurs standards pour les grands et très grands réseaux électriques modernes c'est-à-dire où l'électronique de puissance foisonne et impose des pas de temps de plus en plus faibles. Deux avenues sont explorées : le parallélisme massif et l'augmentation de capacité par l'utilisation de simulation à taux multiples, qui mènera à la simulation hybride. En premier lieu, le parallélisme massif de la simulation temps réel est présenté. La puissance de calcul de superordinateurs n'est pas triviale à canaliser pour la simulation EMT temps réel à cause des difficultés de synchronisation. Une fois maîtrisé, le Superdome Flex de HPE a effectué la simulation en temps réel d'un réseau de 16432 nœuds électriques avec 372 cœurs de calcul opérant avec un pas de temps de 17 µs. Ces travaux sur les plateformes matérielles a également permis de découvrir les excellentes performances temps réel d'ordinateurs personnels ordinaires bas de gamme (RTPC) et très accessibles, ouvrant la voie à une démocratisation de la simulation temps réel. En second lieu, le cadre de simulation multitaux temps réel est présenté ainsi que les améliorations nécessaires à son bon fonctionnement. En simulant avec des taux plus lents que le taux de base EMT, il est possible d'augmenter substantiellement la capacité de calcul d'une plateforme donnée. Des simulations avec des pas de temps habituellement réservés aux FPGA (5 et 10 µs) sont effectuées sur de modestes RTPC En exploitant le cadre de simulation multitaux, il est ensuite montré comment la simulation hybride EMT/stabilité transitoire permet d'augmenter drastiquement (d'un facteur 23 à 10 µs et 1 ms) les capacités de simulation en temps réel d'un cœur de calcul. Toutefois, ce gain se fait au prix d'une perte de l'interaction harmonique entre le système EMT et celui de stabilité transitoire. L'implémentation temps réel de cette simulation hybride en temps réel est facilitée par l'utilisation d'une interface basée sur une modélisation hybride des lignes de transport et d'un protocole d'interaction parallèle, ce qui diffère de la méthode classique des images et des protocoles itératifs sophistiqués. Finalement, ces trois approches sont comparées : selon la situation, l'une de ces approches sera à préconiser selon l'ampleur de la simulation, la plage fréquentielle désirée et la quantité de ressources temps réel disponible. / The simulation of transient electromagnetic (EMT) phenomena is essential in several specializations of electrical engineering to analyze, understand and predict various behaviors of power systems and switched power electronic devices. These simulations are typically performed without time constraint: the simulation of an event can be faster or slower than the real event itself. However, in the context of validating real control systems, simulations must be performed in real-time in order to subject real equipment to realistic signals with the right spectral content over the required frequency range. A simulation operating with a time step Tₛ is said to be in real-time if it is able to produce a complete new solution and perform all the necessary services (inputs/outputs, acquisition, monitoring, etc.) in a period of time of Tₛ in a maintained and periodic manner. The need for real-time simulation continues to grow to study the integration of the various power electronic devices with control and protection systems that proliferate in power systems and to assess their potential interactions. The power systems to be simulated are increasingly vast because the spatial distribution of these devices is increasing. Moreover, model complexity is ever increasing in order to represent as faithfully as possible the real phenomena over increasingly wide frequency ranges. There is therefore a crying need to increase the capacity for real-time simulation. Several research groups are exploring the use of alternative processing units such as FPGAs and GPUs to complement or replace standard processors, while others are exploring models and techniques to increase the simulation capacity of standard processors such as frequency equivalents, multi-rate simulation and hybrid simulation. However, the majority of these efforts are aimed at increasing capacity in offline simulations, not for real time. In order to bridge this gap, this work aims to increase the real-time simulation capabilities of standard processors for large and very large modern power systems, i.e. where power electronics abound and impose smaller and smaller time steps. Two research avenues are explored: massive parallelism and increasing capacity through the use of multi-rate simulation, which will lead to hybrid simulation. First, the massive parallelism of real-time simulation is presented. The computing power of supercomputers is not trivial to harness for real-time EMT simulations because of synchronization difficulties. Once mastered, the HPE Superdome Flex performed real-time simulation of a network of 16,432 power nodes with 372 computer cores operating at a time step of 17 µs. This work on hardware platforms has also made it possible to discover the excellent real-time performance of ordinary low-end, but very accessible, personal computers (RTPC), paving the way for a democratization of real-time simulation. Secondly, the real-time multi-rate simulation framework is presented as well as the improvements necessary for its proper functioning. By simulating with rates slower than the base EMT rate, it is possible to substantially increase the computational capacity of a given platform. Simulations with time steps usually reserved for FPGAs (5 and 10 µs) are carried out on modest RTPCs. By exploiting the multi-rate simulation framework, it is then shown how the EMT / transient stability hybrid simulation can drastically increase (by a factor of 23 with 10 µs and 1 ms) the real-time simulation capacities of a computer core. However, this gain comes at the cost of a loss of the harmonic interaction between the EMT and transient stability systems. The real-time implementation of this real-time hybrid simulation is facilitated by the use of an interface based on hybrid transmission line modeling and a simple parallel interaction protocol, which differs from the classic equivalent image method and sophisticated iterative interaction protocols. Finally, these three approaches are compared: depending on the situation, one of these approaches will be more suited depending on the desired size of the simulation, the desired frequency range and the amount of available real-time resources.
12

Laboratoires virtuels interactifs d'électrotechnique en simulation temps réel

Wicki, Byamba 29 September 2022 (has links)
Les avancées technologiques des programmes de simulation et des ordinateurs commerciaux rendent la simulation en temps réel de procédés complexes plus accessible au public. La simulation en temps réel nous permet de ressentir les vraies dynamiques d'un modèle physique qui pourrait être trop difficile ou trop coûteux à réaliser en réalité. Le concept présenté, dans ce mémoire, porte sur l'utilisation de la simulation en temps réel pour réaliser des laboratoires virtuels interactifs et versatiles. En génie électrique, on pourrait prendre comme exemple les laboratoires de machines électriques où il est difficile en salle de classe de démontrer les dynamiques et les envergures des machines rencontrées dans l'industrie. Le laboratoire virtuel de ce cours serait une représentation complète de la table physique dans l'environnement de simulation, à la différence que l'on pourrait modifier les machines à volonté pour avoir par exemple des machines plus proches de la réalité industrielle. Dans un premier temps, les objectifs et contraintes des laboratoires d'enseignement sont présentés. On en déduira les objectifs que doivent remplir les laboratoires virtuels en temps réel. Ensuite, on introduira la conception de la structure que doit respecter le modèle de simulation pour permettre la réalisation d'un laboratoire "bac à sable". Une réflexion doit être apportée pour que le modèle permette à l'utilisateur de réaliser le maximum d'expériences différentes tout en restant intuitif. Des composants permettant d'atteindre les objectifs déterminés ont été développés. Ils ont été créés pour permettre leur modification durant la simulation, apportant ainsi une plus grande versatilité une fois la simulation créée. Enfin, l'étendue des possibilités que proposent les laboratoires virtuels en temps réels sera présentée. Des expériences seront réalisées sur deux laboratoires créés dans le cadre de ce mémoire. Le premier traite du cours d'électrotechnique fondamental, où divers essais sur les transformateurs et les charges passives peuvent être réalisés. Le deuxième porte sur un réseau d'usine où le démarrage des machines de grande puissance et leurs interactions sont présentés. / Technological advances in simulation programs and commercial computers make real-time simulation of complex processes more accessible to the general public. Real-time simulation allows us to experience the true dynamics of a physical model that might be too difficult or too expensive to realize in reality. The concept presented in this memoire focuses on the use of real-time simulation to create interactive and versatile virtual laboratories. In electrical engineering, we could take, as an example, the electrical machine laboratories where it is difficult in the classroom to demonstrate the dynamics and scale of machines encountered in the industry. The virtual lab in this course would be a complete representation of the physical workbench with in the simulation environment. With the difference that the machines could be modified at will, for example, to be closer to the reality of the industry. First, the objectives and constraints of the teaching laboratories are presented, from wich we will deduce the objectives that must be fulfilled by real-time virtual laboratories. Then, we will introduce the design of the structure that the simulation model must respect to allow the realization of a "sandbox" type laboratory. The model must allow to realize a maximum of different experiments while remaining intuitive. Components allowing to reach the determined objectives have been developed. They were created to allow their modification during the simulation, thus bringing a greater versatility once the simulation is created. Finally, the extent of the possibilities offered by real-time virtual laboratories will be presented. Experiments will be performed on two labs created for this memoire. The first deals with the fundamental electrical engineering course, where various tests on transformers and passive loads can be performed. The second deals with a factory grid where the starting of large machines and their interactions are presented.
13

Laboratoires virtuels interactifs d'électrotechnique en simulation temps réel

Wicki, Byamba 29 September 2022 (has links)
Les avancées technologiques des programmes de simulation et des ordinateurs commerciaux rendent la simulation en temps réel de procédés complexes plus accessible au public. La simulation en temps réel nous permet de ressentir les vraies dynamiques d'un modèle physique qui pourrait être trop difficile ou trop coûteux à réaliser en réalité. Le concept présenté, dans ce mémoire, porte sur l'utilisation de la simulation en temps réel pour réaliser des laboratoires virtuels interactifs et versatiles. En génie électrique, on pourrait prendre comme exemple les laboratoires de machines électriques où il est difficile en salle de classe de démontrer les dynamiques et les envergures des machines rencontrées dans l'industrie. Le laboratoire virtuel de ce cours serait une représentation complète de la table physique dans l'environnement de simulation, à la différence que l'on pourrait modifier les machines à volonté pour avoir par exemple des machines plus proches de la réalité industrielle. Dans un premier temps, les objectifs et contraintes des laboratoires d'enseignement sont présentés. On en déduira les objectifs que doivent remplir les laboratoires virtuels en temps réel. Ensuite, on introduira la conception de la structure que doit respecter le modèle de simulation pour permettre la réalisation d'un laboratoire "bac à sable". Une réflexion doit être apportée pour que le modèle permette à l'utilisateur de réaliser le maximum d'expériences différentes tout en restant intuitif. Des composants permettant d'atteindre les objectifs déterminés ont été développés. Ils ont été créés pour permettre leur modification durant la simulation, apportant ainsi une plus grande versatilité une fois la simulation créée. Enfin, l'étendue des possibilités que proposent les laboratoires virtuels en temps réels sera présentée. Des expériences seront réalisées sur deux laboratoires créés dans le cadre de ce mémoire. Le premier traite du cours d'électrotechnique fondamental, où divers essais sur les transformateurs et les charges passives peuvent être réalisés. Le deuxième porte sur un réseau d'usine où le démarrage des machines de grande puissance et leurs interactions sont présentés. / Technological advances in simulation programs and commercial computers make real-time simulation of complex processes more accessible to the general public. Real-time simulation allows us to experience the true dynamics of a physical model that might be too difficult or too expensive to realize in reality.The concept presented in this memoire focuses on the use of real-time simulation to create interactive and versatile virtual laboratories. In electrical engineering, we could take, as an example, the electrical machine laboratories where it is di cult in the classroom to demonstrate the dynamics and scale of machines encountered in the industry. The virtual lab in this course would be a complete representation of the physical workbench with in the simulation environment. With the difference that the machines could be modified at will, for example, to be closer to the reality of the industry. First, the objectives and constraints of the teaching laboratories are presented, from wich we will deduce the objectives that must be fullled by real-time virtual laboratories.Then, we will introduce the design of the structure that the simulation model must respect to allow the realization of a "sandbox" type laboratory. The model must allow to realize a maximum of different experiments while remaining intuitive.Components allowing to reach the determined objectives have been developed. They were created toallow their modification during the simulation, thus bringing a greater versatility once the simulationis created.Finally, the extent of the possibilities oered by real-time virtual laboratories will be presented. Experiments will be performed on two labs created for this memoire. The firrst deals with the fundamental electrical engineering course, where various tests on transformers and passive loads can be performed. The second deals with a factory grid where the starting of large machines and their interactions are presented.
14

Intégration d'Éléments Sémantiques dans l'Analyse d'Ordonnançabilité des Applications Temps-Réel

Fotsing Takoutsi, Christian 20 February 2012 (has links) (PDF)
Nous étudions la modélisation et la validation hors-ligne des applications temps-réel en environnement monoprocesseur, qui prend explicitement en compte l'échange des messages, le partage des ressources et les instructions conditionnelles entre les tâches. Notre objectif est de mettre en évidence l'impact de ces paramètres sur l'analyse des applications. Classiquement, ces applications sont modélisées de façon linéaire, en encapsulant les blocs conditionnels, et les séquences sont utilisées pour leur validation. Nous proposons une approche de modélisation et de validation arborescente, qui permet de considérer de façon explicite les blocs conditionnels, et qui utilise les arbres d'ordonnancement pour la validation. Nous comparons ensuite ces deux approches, et prouvons que les premières sont parfois trop pessimistes, c'est à dire qu'elles peuvent conduire à déclarer certaines applications comme non ordonnançables, alors qu'en réalité elles le sont. Nous commençons par construire un générateur d'arbres d'ordonnancement valides. La complexité du générateur étant exponentielle en fonction du nombre de tâches, cette approche est di cile à mettre en ÷uvre dans la pratique. Nous proposons donc une approche de modélisation bas ée sur les réseaux de Petri. Ce réseau sera utilisé pour générer les arbres valides, par construction du graphe de marquages, et la complexité pourra être réduite grâce à des heuristiques.
15

Conception et développement d'un service web de mise à jour incrémentielle pour les cubes de données spatiales

Declercq, Charlotte 13 April 2018 (has links)
Les applications géodécisionnelles évoluent vers le temps réel et nécessitent un mécanisme de mise à jour rapide. Or, ce processus est complexe et très coûteux en temps de calcul à cause de la structure dénormalisée des données, stockées sous forme de cube. La méthode classique qui consistait à reconstruire entièrement le cube de données prend de plus en plus de temps au fur et à mesure que le cube grossit, et n'est plus envisageable. De nouvelles méthodes de mise à jour dites incrémentielles ont fait leurs preuves dans le domaine du Business Intelligence. Malheureusement, de telles méthodes n'ont jamais été transposées en géomatique décisionnelle, car les données géométriques nécessitent des traitements spécifiques et complexes. La mise à jour des cubes de données spatiales soulève des problèmes jusqu'alors inconnus dans les cubes de données classiques. En plus de cela, une large confusion règne autour de la notion de mise à jour dans les entrepôts de données. On remarque également que l'architecture des entrepôts de données suit la tendance actuelle d'évolution des architectures de systèmes informatiques vers une distribution des tâches et des ressources, au détriment des systèmes centralisés, et vers le développement de systèmes interopérables. Les architectures en émergence, dites orientées services deviennent dans ce sens très populaires. Cependant, les services dédiés à des tâches de mise à jour de cubes sont pour l'heure inexistants, même si ceux-ci représenteraient un apport indéniable pour permettre la prise de décision sur des données toujours à jour et cohérentes. Le but de ce mémoire est d'élaborer des méthodes de mise à jour incrémentielles pour les cubes spatiaux et d'inscrire le dispositif dans une architecture orientée services. La formulation de typologies pour la gestion de l'entrepôt de données et pour la mise à jour de cube a servi de base à la réflexion. Les méthodes de mise à jour incrémentielles existantes pour les cubes non spatiaux ont été passées en revue et ont permis d'imaginer de nouvelles méthodes incrémentielles adaptées aux cubes spatiaux. Pour finir, une architecture orientée services a été conçue, elle intègre tous les composants de l'entrepôt de données et contient le service web de mise à jour de cube, qui expose les différentes méthodes proposées.
16

Gestion des occultations en réalité augmentée : application au castelet électronique

Fortin, Pierre-Alexandre 11 April 2018 (has links)
La réalité augmentée (R.A.) est un domaine de recherche qui vise la combinaison d'environnements réels et virtuels en temps réel de façon à ce que ceux-ci semblent co-exister. De façon à obtenir un rendu réaliste, les interactions entre les deux environnements doivent être modélisées et gérées. Nous nous sommes intéressés à la gestion des occultations des objets virtuels par les objets réels. Cette gestion nécessite une acquisition d'informations 3D sur la scène réelle. Le projet du castelet électronique fournit un contexte applicatif approprié à cette étude. Deux approches d'acquisition sont présentées et analysées : une approche monoscopique basée sur une pré-modélisation approximative des objets réels et une approche stéréoscopique effectuant l'acquisition d'informations 3D en temps réel selon le point de vue
17

Ordonnancement de ressources en temps réel avec contraintes dynamiques dans un environnement non déterministe

Gagné, Olivier 13 April 2018 (has links)
Les problèmes militaires sont très complexes et plusieurs d'entre eux ne peuvent être résolues en utilisant les techniques d'optimisation classiques. Le problème visé par ce travail de maîtrise, est celui de la gestion en temps réel des ressources d'une frégate. Ces ressources doivent être assignées convenablement et dans les délais requis de manière à contrer les menaces et augmenter ainsi la probabilité de survie de la frégate. Pour contribuer à résoudre un tel problème, nous avons convenu tout d'abord, d'analyser les menaces une à une et de déterminer lesquelles sont les plus importantes et quel plan d'attaque il convient d'élaborer pour les contrer. Nous avons introduit à cet effet, l'évaluation de ``l'engageabilité'' qui permet de considérer différents facteurs déterminants dans l'allocation des ressources. Nous avons ensuite formalisé le problème en question, en utilisant un modèle formel emprunté à la satisfaction des contraintes (CSP=constraint Satisfaction problem). Finalement, nous avons montré dans quelles circonstances il est avantageux d'utiliser cette évaluation de l'engageabilité dans un processus d'allocation de ressources en temps réel et dans un environnement stochastique, le tout relativement à la survie de la frégate. / Military problems are very complex and they can be solved by different artificial intelligence techniques. In this thesis, we address the problem of weapon-targets assignment for a frigate. To defend efficiently the ship, we have to analyze each threat and determine which resource assigns against it. For that purpose, we utilize the engageability assessment to consider different characteristics; useful in the resources assignment. To this end, a mathematical model named Constraint Satisfaction Problem (CSP) is employed. This framework allows formalizing the problem to ensure the constraint consistency and to sort threats in importance order. We tried this algorithm on different types of weapon-target assignment problems. Finally, we demonstrate the advantage of engageability assessment on the weapon-target assignment problem in real time and stochastic environment.
18

Techniques for the allocation of resources under uncertainty

Plamondon, Pierrick 13 April 2018 (has links)
L’allocation de ressources est un problème omniprésent qui survient dès que des ressources limitées doivent être distribuées parmi de multiples agents autonomes (e.g., personnes, compagnies, robots, etc). Les approches standard pour déterminer l’allocation optimale souffrent généralement d’une très grande complexité de calcul. Le but de cette thèse est de proposer des algorithmes rapides et efficaces pour allouer des ressources consommables et non consommables à des agents autonomes dont les préférences sur ces ressources sont induites par un processus stochastique. Afin d’y parvenir, nous avons développé de nouveaux modèles pour des problèmes de planifications, basés sur le cadre des Processus Décisionnels de Markov (MDPs), où l’espace d’actions possibles est explicitement paramétrisés par les ressources disponibles. Muni de ce cadre, nous avons développé des algorithmes basés sur la programmation dynamique et la recherche heuristique en temps-réel afin de générer des allocations de ressources pour des agents qui agissent dans un environnement stochastique. En particulier, nous avons utilisé la propriété acyclique des créations de tâches pour décomposer le problème d’allocation de ressources. Nous avons aussi proposé une stratégie de décomposition approximative, où les agents considèrent des interactions positives et négatives ainsi que les actions simultanées entre les agents gérants les ressources. Cependant, la majeure contribution de cette thèse est l’adoption de la recherche heuristique en temps-réel pour l’allocation de ressources. À cet effet, nous avons développé une approche basée sur la Q-décomposition munie de bornes strictes afin de diminuer drastiquement le temps de planification pour formuler une politique optimale. Ces bornes strictes nous ont permis d’élaguer l’espace d’actions pour les agents. Nous montrons analytiquement et empiriquement que les approches proposées mènent à des diminutions de la complexité de calcul par rapport à des approches de planification standard. Finalement, nous avons testé la recherche heuristique en temps-réel dans le simulateur SADM, un simulateur d’allocation de ressource pour une frégate. / Resource allocation is an ubiquitous problem that arises whenever limited resources have to be distributed among multiple autonomous entities (e.g., people, companies, robots, etc). The standard approaches to determine the optimal resource allocation are computationally prohibitive. The goal of this thesis is to propose computationally efficient algorithms for allocating consumable and non-consumable resources among autonomous agents whose preferences for these resources are induced by a stochastic process. Towards this end, we have developed new models of planning problems, based on the framework of Markov Decision Processes (MDPs), where the action sets are explicitly parameterized by the available resources. Given these models, we have designed algorithms based on dynamic programming and real-time heuristic search to formulating thus allocations of resources for agents evolving in stochastic environments. In particular, we have used the acyclic property of task creation to decompose the problem of resource allocation. We have also proposed an approximative decomposition strategy, where the agents consider positive and negative interactions as well as simultaneous actions among the agents managing the resources. However, the main contribution of this thesis is the adoption of stochastic real-time heuristic search for a resource allocation. To this end, we have developed an approach based on distributed Q-values with tight bounds to diminish drastically the planning time to formulate the optimal policy. These tight bounds enable to prune the action space for the agents. We show analytically and empirically that our proposed approaches lead to drastic (in many cases, exponential) improvements in computational efficiency over standard planning methods. Finally, we have tested real-time heuristic search in the SADM simulator, a simulator for the resource allocation of a platform.
19

Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique

Phelippeau, Harold 03 April 2009 (has links) (PDF)
Ces dernières années, les appareils photos/vidéos numériques grand public sont devenus omniprésents. On peut aujourd'hui trouver des systèmes de captures d'images dans toutes sortes d'appareils numériques comme les téléphones portables, les assistants personnels numériques etc. Malgré une augmentation croissante de la puissance et de la complexité de ces appareils, laqualité de la chaîne de capture d'image, composée du couple système optique/capteur est toujours contrainte à des limitations d'espace et de coût. Les défauts introduits sont nombreuxet dégradent considérablement la qualité des images produites : flou, déformations géométriques, artefacts de couleurs, effets de moire, bruits statiques et dynamiques, etc. Une idée intéressante est de corriger ces défauts de manière algorithmique en utilisant la puissance toujours croissante des architectures de traitements. Dans cette thèse nous nous intéressons particulièrement à deux problèmes issues de l'acquisition de l'image par le capteur : le dématriçage de la matrice de Bayer et la réduction du bruit. Dans la première partie, nous décrivons la structure générale de la chaîne de capture d'image dans les appareils photos/vidéos numériques. Nous présentons le rôle, le fonctionnement et les défauts introduits par chacun de ses éléments. Enfin, nous illustrons comment ces défauts peuvent être corriges par des traitements algorithmiques. Dans la deuxième partie, nous montrons comment l'information de couleur est introduite dans les capteurs numériques. Nous présentons ensuite un état de l'art des algorithmes de dématriçage. Un nouvel algorithme de reconstruction de la matrice de Bayer base sur le principe de l'interpolation directionnelle est propose. Il permet d'associer une qualité d'image produite sans artefacts avec une faible complexité de calculs. Pour mieux comprendre les comportements du bruit dans les capteurs numériques, nous énumérons ses différentes sources et leurs dépendances par rapport aux conditions de prises de vues. Apres avoir présenté l'état de l'art des méthodes de restauration des images bruitées, nous nous intéressons particulièrement aux algorithmes de débruitage à voisinage local et plus précisément au filtre bilatéral. Nous proposons un filtre bilatéral pour la mosaïque de Bayer, adaptatif en fonction de la puissance du bruit dans les images. Dans la troisième partie, nous présentons l'implémentation, l'optimisation et la simulation de l'exécution des algorithmes de dématriçage et de réduction du bruit proposes. La plateforme d'implémentation est le processeur TriMedia TM3270 de NXP semiconductors. Nous montrons que nous arrivons à traiter des images de taille 5 méga-pixels en moins de 0,5 secondes et des images de résolution VGA à une cadence supérieure à 25 images par seconde. Finalement, pour des raisons de standardisation, de rapidité d'exécution et de consommation d'énergie, nous avons conçu une architecture dédiée à l'algorithme de dématriçage propose. Cette architecture permet de multiplier par 10 la rapidité d'exécution obtenue sur le processeur TriMedia TM3270
20

Méthodes et algorithmes de dématriçage et de filtrage du bruit pour la photographie numérique / Demosaicing and denoising methods and algorithms for digital photography

Phelippeau, Harold 03 April 2009 (has links)
Ces dernières années, les appareils photos/vidéos numériques grand public sont devenus omniprésents. On peut aujourd’hui trouver des systèmes de captures d’images dans toutes sortes d’appareils numériques comme les téléphones portables, les assistants personnels numériques etc. Malgré une augmentation croissante de la puissance et de la complexité de ces appareils, laqualité de la chaîne de capture d’image, composée du couple système optique/capteur est toujours contrainte à des limitations d’espace et de coût. Les défauts introduits sont nombreuxet dégradent considérablement la qualité des images produites : flou, déformations géométriques, artefacts de couleurs, effets de moire, bruits statiques et dynamiques, etc. Une idée intéressante est de corriger ces défauts de manière algorithmique en utilisant la puissance toujours croissante des architectures de traitements. Dans cette thèse nous nous intéressons particulièrement à deux problèmes issues de l’acquisition de l’image par le capteur : le dématriçage de la matrice de Bayer et la réduction du bruit. Dans la première partie, nous décrivons la structure générale de la chaîne de capture d’image dans les appareils photos/vidéos numériques. Nous présentons le rôle, le fonctionnement et les défauts introduits par chacun de ses éléments. Enfin, nous illustrons comment ces défauts peuvent être corriges par des traitements algorithmiques. Dans la deuxième partie, nous montrons comment l’information de couleur est introduite dans les capteurs numériques. Nous présentons ensuite un état de l’art des algorithmes de dématriçage. Un nouvel algorithme de reconstruction de la matrice de Bayer base sur le principe de l’interpolation directionnelle est propose. Il permet d’associer une qualité d’image produite sans artefacts avec une faible complexité de calculs. Pour mieux comprendre les comportements du bruit dans les capteurs numériques, nous énumérons ses différentes sources et leurs dépendances par rapport aux conditions de prises de vues. Apres avoir présenté l’état de l’art des méthodes de restauration des images bruitées, nous nous intéressons particulièrement aux algorithmes de débruitage à voisinage local et plus précisément au filtre bilatéral. Nous proposons un filtre bilatéral pour la mosaïque de Bayer, adaptatif en fonction de la puissance du bruit dans les images. Dans la troisième partie, nous présentons l’implémentation, l’optimisation et la simulation de l’exécution des algorithmes de dématriçage et de réduction du bruit proposes. La plateforme d’implémentation est le processeur TriMedia TM3270 de NXP semiconductors. Nous montrons que nous arrivons à traiter des images de taille 5 méga-pixels en moins de 0,5 secondes et des images de résolution VGA à une cadence supérieure à 25 images par seconde. Finalement, pour des raisons de standardisation, de rapidité d’exécution et de consommation d’énergie, nous avons conçu une architecture dédiée à l’algorithme de dématriçage propose. Cette architecture permet de multiplier par 10 la rapidité d’exécution obtenue sur le processeur TriMedia TM3270 / Digital cameras are now present everywhere. They are commonly included in portable digital devices such as mobile phones and personal digital assistants. In spite of constant improvements in terms of computing power and complexity, the digital imaging chain quality, including sensor and lenses system, is still limited by space and cost constraints. An important number of degradations are introduced by this chain that significantly decrease overall image quality : including blurring effects, geometric distortions, color artefacts, moiré effects, static and dynamic noise. Correcting these defects in an algorithmic way, using the increasing power of embedded processing architecture present in mobile phones and PDAs may appear like an interesting solution. In this thesis we are especially interested in reducing two major defects of the sensor acquisition chain : Bayer matrix demosaicing artefacts and photon noise. In the first part, we describe the general imaging chain commonly used in digital cameras and video devices. We show the function, the inner working and the defects introduced by each of its elements. Finally we exhibit possible ways to correct these defects using algorithmic solutions. In the second part, we introduce the principle of Bayer demosaicing. We present the state of the art and we propose a new method based on a directed interpolation principle. Our method yields a good image quality while retaining a low computational complexity. We then enumerate several noise sources present in imaging digital sensors and their dependencies with imaging conditions. We are particularly interested in local algorithms and more specifically in the bilateral filter. After presenting the state of the art in denoising algorithm, we propose a new adaptive bilateral filter for sensor colour mosaic denoising. In the third part, we present the implementation, the optimization and the execution simulation of the proposed demosaicing and denoising algorithms. The implementation target is the TM3270 TriMedia processor from NXP Semiconductors. We show that it is possible to process 5 megapixels images in less than 0.5 seconds and more than 25 images per second at VGA resolution. Finally, for standardization, execution speed and power consumption reasons, we describe a dedicated architecture for our proposed demosaicing algorithm. This architecture improves the execution speed by a factor of 10 compared to the TriMedia TM3270 processor

Page generated in 0.4948 seconds