• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 4
  • Tagged with
  • 8
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modèles d'interpolation spatiale et spectrale, anti-crénelage et mesures de qualité

Horé, Alain January 2011 (has links)
Cette thèse à publications décrit plusieurs travaux en imagerie, aussi bien au niveau de l'acquisition des images que du post-traitement des images. Le premier concerne un algorithme de redimensionnement d'images dans lequel le pixel n'est pas considéré comme un point, mais comme une unité surfacique exprimée par une fonction mathématique. L'intensité d'un pixel est déterminée par interpolation à l'aide des outils du calcul intégral. Le deuxième travail concerne un autre algorithme de redimensionnement d'images dans lequel les dérivées de l'image sont mises à contribution pour augmenter le contraste et rehausser les hautes fréquences lors du processus de redimensionnement. Pour combiner l'image et ses dérivées, nous utilisons le théorème d'échantillonnage généralisé de Papoulis. Dans ce deuxième travail et dans la suite de la thèse, le pixel est considéré comme un point. Dans le troisième travail, nous proposons une équation de diffusion aux dérivées partielles afin de réduire le crénelage qui apparaît régulièrement dans de nombreux algorithmes de redimensionnement d'images. L'équation que nous proposons résulte d'un raffinement de l'équation de diffusion de la chaleur utilisée par Perona et Malik. Pour cela, nous introduisons la diffusivité inverse afin de réduire considérablement le crénelage sur les contours nets. Le rehaussement du contraste pendant le processus de diffusion se fait par l'intégration d'un filtre passe-haut, en l'occurrence le Laplacien, dans notre équation de diffusion. Un modèle de réduction efficace du crénelage sur les lignés, basé sur les valeurs propres de la matrice hessienne, est également proposé. Le quatrième travail est un algorithme de dématriçage (ou demosaïçage) permettant de reconstruire une image couleur à partir d'une image acquise par une matrice de filtres couleurs (color filter array, CFA). Sachant que dans un CFA une seule couleur primaire rouge, vert ou bleu est disponible à chaque position de pixel, nous proposons un modèle d'interpolation permettant d'estimer les couleurs manquantes à chaque position de pixel. Notre algorithme peut être utilisé pour divers modèles de CFA. Il s'inspire de l'algorithme de dématriçage universel de Lukac et al. et y apporte diverses améliorations. La première amélioration est la mise en oeuvre d'une détection de contours ou de zones uniformes dans une image acquise d'un CFA. La deuxième amélioration concerne l'utilisation complète du modèle de différence des couleurs, qui est un modèle bien connu dans les algorithmes de dématriçage. La troisième amélioration est l'utilisation d'un modèle d'interpolation spectrale permettant d'interpoler la couleur d'un pixel à l'aide de la couleur et de la position de ses voisins. Dans le cinquième et dernier travail, nous abordons une problématique liée à la qualité des images, notion importante en imagerie pour la validation des algorithmes et des modèles. Dans notre travail, nous faisons une étude analytique et expérimentale pour comparer le PSNR (Peak Signal-to-Noise Ratio) et le SSIM (Structural Similarity Index Measure), qui sont deux mesures de qualité largement utilisés en traitement d'images. L'étude analytique fait ressortir l'existence d'une relation de type logarithmique entre ces deux mesures. Les nombreux tests expérimentaux réalisés avec différentes images donnent davantage de précisions sur l'efficacité de ces deux mesures à évaluer la qualité des images ayant subi certaines dégradations ou traitements tels que la compression Jpeg, la compression Jpeg 2000, le flou gaussien ou le bruit additif gaussien.
2

Ordonnancement et déploiement d'applications de gestion de données à grande échelle sur des plates-formes de type Clouds

Muresan, Adrian 10 December 2012 (has links) (PDF)
L'usage des plateformes de Cloud Computing offrant une Infrastructure en tant que service (IaaS) a augmenté au sein de l'industrie. Les infrastructures IaaS fournissent des ressources virtuelles depuis un catalogue de types prédéfinis. Les avancées dans le domaine de la virtualisation rendent possible la création et la destruction de machines virtuelles au fur et à mesure, avec un faible surcout d'exploitation. En conséquence, le bénéfice offert par les plate-formes IaaS est la possibilité de dimensionner une architecture virtuelle au fur et à mesure de l'utilisation, et de payer uniquement les ressources utilisées. D'un point de vue scientifique, les plateformes IaaS soulèvent de nouvelles questions concernant l'efficacité des décisions prises en terme de passage à l'échelle, et également l'ordonnancement des applications sur les plateformes dynamiques. Les travaux de cette thèse explorent ce thème et proposent des solutions à ces deux problématiques. La première contribution décrite dans cette thèse concerne la gestion des ressources. Nous avons travaillé sur le redimensionnement automatique des applications clientes de Cloud afin de modéliser les variations d'utilisation de la plateforme. De nombreuses études ont montré des autosimilarités dans le trafic web des plateformes, ce qui implique l'existence de motifs répétitifs pouvant être périodiques ou non. Nous avons développé une stratégie automatique de dimensionnement, capable de prédire le temps d'utilisation de la plateforme en identifiant les motifs répétitifs non périodiques. Dans un second temps, nous avons proposé d'étendre les fonctionnalités d'un intergiciel de grilles, en implémentant une utilisation des ressources à la demandes.Nous avons développé une extension pour l'intergiciel DIET (Distributed Interactive Engineering Toolkit), qui utilise un marché virtuel pour gérer l'allocation des ressources. Chaque utilisateur se voit attribué un montant de monnaie virtuelle qu'il utilisera pour exécuter ses tâches. Le mécanisme d'aide assure un partage équitable des ressources de la plateforme entre les différents utilisateurs. La troisième et dernière contribution vise la gestion d'applications pour les plateformes IaaS. Nous avons étudié et développé une stratégie d'allocation des ressources pour les applications de type workflow avec des contraintes budgétaires. L'abstraction des applications de type workflow est très fréquente au sein des applications scientifiques, dans des domaines variés allant de la géologie à la bioinformatique. Dans ces travaux, nous avons considéré un modèle général d'applications de type workflow qui contient des tâches parallèles et permet des transitions non déterministes. Nous avons élaboré deux stratégies d'allocations à contraintes budgétaires pour ce type d'applications. Le problème est une optimisation à deux critères dans la mesure où nous optimisons le budget et le temps total du flux d'opérations. Ces travaux ont été validés de façon expérimentale par leurs implémentations au sein de la plateforme de Cloud libre Nimbus et de moteur de workflow MADAG présent au sein de DIET. Les tests ont été effectuées sur une simulation de cosmologie appelée RAMSES. RAMSES est une application parallèle qui, dans le cadre de ces travaux, a été portée sur des plateformes virtuelles dynamiques. L'ensemble des résultats théoriques et pratiques ont débouché sur des résultats encourageants et des améliorations.
3

Scheduling and deployment of large-scale applications on Cloud platforms / Ordonnancement et déploiement d'applications de gestion de données à grande échelle sur des plates-formes de type Clouds

Muresan, Adrian 10 December 2012 (has links)
L'usage des plateformes de Cloud Computing offrant une Infrastructure en tant que service (IaaS) a augmenté au sein de l'industrie. Les infrastructures IaaS fournissent des ressources virtuelles depuis un catalogue de types prédéfinis. Les avancées dans le domaine de la virtualisation rendent possible la création et la destruction de machines virtuelles au fur et à mesure, avec un faible surcout d'exploitation. En conséquence, le bénéfice offert par les plate-formes IaaS est la possibilité de dimensionner une architecture virtuelle au fur et à mesure de l'utilisation, et de payer uniquement les ressources utilisées. D'un point de vue scientifique, les plateformes IaaS soulèvent de nouvelles questions concernant l'efficacité des décisions prises en terme de passage à l'échelle, et également l'ordonnancement des applications sur les plateformes dynamiques. Les travaux de cette thèse explorent ce thème et proposent des solutions à ces deux problématiques. La première contribution décrite dans cette thèse concerne la gestion des ressources. Nous avons travaillé sur le redimensionnement automatique des applications clientes de Cloud afin de modéliser les variations d'utilisation de la plateforme. De nombreuses études ont montré des autosimilarités dans le trafic web des plateformes, ce qui implique l'existence de motifs répétitifs pouvant être périodiques ou non. Nous avons développé une stratégie automatique de dimensionnement, capable de prédire le temps d'utilisation de la plateforme en identifiant les motifs répétitifs non périodiques. Dans un second temps, nous avons proposé d'étendre les fonctionnalités d'un intergiciel de grilles, en implémentant une utilisation des ressources à la demandes.Nous avons développé une extension pour l'intergiciel DIET (Distributed Interactive Engineering Toolkit), qui utilise un marché virtuel pour gérer l'allocation des ressources. Chaque utilisateur se voit attribué un montant de monnaie virtuelle qu'il utilisera pour exécuter ses tâches. Le mécanisme d'aide assure un partage équitable des ressources de la plateforme entre les différents utilisateurs. La troisième et dernière contribution vise la gestion d'applications pour les plateformes IaaS. Nous avons étudié et développé une stratégie d'allocation des ressources pour les applications de type workflow avec des contraintes budgétaires. L'abstraction des applications de type workflow est très fréquente au sein des applications scientifiques, dans des domaines variés allant de la géologie à la bioinformatique. Dans ces travaux, nous avons considéré un modèle général d'applications de type workflow qui contient des tâches parallèles et permet des transitions non déterministes. Nous avons élaboré deux stratégies d'allocations à contraintes budgétaires pour ce type d'applications. Le problème est une optimisation à deux critères dans la mesure où nous optimisons le budget et le temps total du flux d'opérations. Ces travaux ont été validés de façon expérimentale par leurs implémentations au sein de la plateforme de Cloud libre Nimbus et de moteur de workflow MADAG présent au sein de DIET. Les tests ont été effectuées sur une simulation de cosmologie appelée RAMSES. RAMSES est une application parallèle qui, dans le cadre de ces travaux, a été portée sur des plateformes virtuelles dynamiques. L'ensemble des résultats théoriques et pratiques ont débouché sur des résultats encourageants et des améliorations. / Infrastructure as a service (IaaS) Cloud platforms are increasingly used in the IT industry. IaaS platforms are providers of virtual resources from a catalogue of predefined types. Improvements in virtualization technology make it possible to create and destroy virtual machines on the fly, with a low overhead. As a result, the great benefit of IaaS platforms is the ability to scale a virtual platform on the fly, while only paying for the used resources. From a research point of view, IaaS platforms raise new questions in terms of making efficient virtual platform scaling decisions and then efficiently scheduling applications on dynamic platforms. The current thesis is a step forward towards exploring and answering these questions. The first contribution of the current work is focused on resource management. We have worked on the topic of automatically scaling cloud client applications to meet changing platform usage. There have been various studies showing self-similarities in web platform traffic which implies the existence of usage patterns that may or may not be periodical. We have developed an automatic platform scaling strategy that predicted platform usage by identifying non-periodic usage patterns and extrapolating future platform usage based on them. Next we have focused on extending an existing grid platform with on-demand resources from an IaaS platform. We have developed an extension to the DIET (Distributed Interactive Engineering Toolkit) middleware, that uses a virtual market based approach to perform resource allocation. Each user is given a sum of virtual currency that he will use for running his tasks. This mechanism help in ensuring fair platform sharing between users. The third and final contribution targets application management for IaaS platforms. We have studied and developed an allocation strategy for budget-constrained workflow applications that target IaaS Cloud platforms. The workflow abstraction is very common amongst scientific applications. It is easy to find examples in any field from bioinformatics to geology. In this work we have considered a general model of workflow applications that comprise parallel tasks and permit non-deterministic transitions. We have elaborated two budget-constrained allocation strategies for this type of workflow. The problem is a bi-criteria optimization problem as we are optimizing both budget and workflow makespan. This work has been practically validated by implementing it on top of the Nimbus open source cloud platform and the DIET MADAG workflow engine. This is being tested with a cosmological simulation workflow application called RAMSES. This is a parallel MPI application that, as part of this work, has been ported for execution on dynamic virtual platforms. Both theoretical simulations and practical experiments have shown encouraging results and improvements.
4

Compression vidéo très bas débit par analyse du contenu / Low bitrate video compression by content characterization

Decombas, Marc 22 November 2013 (has links)
L’objectif de cette thèse est de trouver de nouvelles méthodes de compression sémantique compatible avec un encodeur classique tel que H.264/AVC. . L’objectif principal est de maintenir la sémantique et non pas la qualité globale. Un débit cible de 300 kb/s a été fixé pour des applications de sécurité et de défense Pour cela une chaine complète de compression a dû être réalisée. Une étude et des contributions sur les modèles de saillance spatio-temporel ont été réalisées avec pour objectif d’extraire l’information pertinente. Pour réduire le débit, une méthode de redimensionnement dénommée «seam carving » a été combinée à un encodeur H.264/AVC. En outre, une métrique combinant les points SIFT et le SSIM a été réalisée afin de mesurer la qualité des objets sans être perturbée par les zones de moindre contenant la majorité des artefacts. Une base de données pouvant être utilisée pour des modèles de saillance mais aussi pour de la compression est proposée avec des masques binaires. Les différentes approches ont été validées par divers tests. Une extension de ces travaux pour des applications de résumé vidéo est proposée. / The objective of this thesis is to find new methods for semantic video compatible with a traditional encoder like H.264/AVC. The main objective is to maintain the semantic and not the global quality. A target bitrate of 300 Kb/s has been fixed for defense and security applications. To do that, a complete chain of compression has been proposed. A study and new contributions on a spatio-temporal saliency model have been done to extract the important information in the scene. To reduce the bitrate, a resizing method named seam carving has been combined with the H.264/AVC encoder. Also, a metric combining SIFT points and SSIM has been created to measure the quality of objects without being disturbed by less important areas containing mostly artifacts. A database that can be used for testing the saliency model but also for video compression has been proposed, containing sequences with their manually extracted binary masks. All the different approaches have been thoroughly validated by different tests. An extension of this work on video summary application has also been proposed.
5

Représentation et analyse algébriques de système de solides sur-contraints en boucle fermée / Algebraic representation and analysis of over-constrained closed-loop mechanisms

Ali, Anissa 11 July 2016 (has links)
Un système de solides peut être classé suivant trois états de mobilité: l’état non assemblé, l’état assemblé rigide et l’état assemblé mobile. L’étude se focalise sur les systèmes de solides sur-contraints en boucle fermée. Lors de l’étape de conception ou reconception, les dimensions d’un système de solides sur-contraints sont amenées à être modifiées, ce qui peut avoir pour conséquence la perte de son état de mobilité.L’approche présentée dans cette thèse a pour but de proposer une assistance au concepteur lors du redimensionnement, lui permettant de modifier ou conserver l’état de mobilité d’un système de solides. Le redimensionnement de systèmes de solides sur-contraints nécessite la connaissance de relations dépendant de leurs dimensions: les équations d’assemblage et les conditions de mobilité. Ces relations sont obtenues à l’aide d’un outil de résolution algébrique: les bases de Gröbner. La résolution algébrique est parfois coûteuse, voire impossible en un temps raisonnable, c’est ce qui justifie les méthodes décrites dans cette thèse.La solution proposée est composée de deux étapes principales. Tout d’abord, les représentations algébriques d’un système de solides fermé et mobile sont décrites. Les équations de fermeture d’un système de solides composé de plusieurs boucles sont obtenues en utilisant un paramétrage en coordonnées relatives. Les équations de mobilité sont elles générées à partir des équations de fermeture, à l’aide de méthodes directes ou incrémentales. Ensuite, afin de faciliter la génération des équations d’assemblage et de mobilité, une analyse algébrique reposant sur des outils d’analyse numérique est définie. L’état de mobilité du système de solides à redimensionner est déterminé à partir d’un ensemble de valeurs des paramètres le décrivant. Si le concepteur souhaite modifier l’état de mobilité du système de solides, de nouvelles valeurs sont alors générées. Lorsque l’état de mobilité souhaité est obtenu, il est possible de varier les dimensions tout en conservant cet état. Pour cela, certaines dimensions sont spécialisées afin de faciliter la génération des équations d’assemblage et des conditions de mobilité. Si les paramètres choisis sont liés ou trop nombreux, l’analyse mène inéluctablement à une absence de solutions. Des stratégies de partitionnement pour pallier ces problèmes sont aussi proposées. Enfin, les outils développés dans le logiciel Maple® afin d’illustrer les différents concepts proposés sont présentés, et un outil interactif permettant au concepteur de naviguer sur les équations de fermeture, équations d’assemblage et les conditions de mobilité obtenues après spécialisation, est proposé. / An assembly can be partitioned into three mobility states: the impossible state, the rigid state and the mobile state. The study focuses in over-constrained closed-loop assemblies. During the process of design or re-design, the dimensions of the assembly can vary and this can lead to the loss of its mobility state.The method presented in this thesis aims at helping the designer to resize an assembly. There exist relationships between the dimension of the assembly that ensure the closure and the mobility of over-constrained. These relationships called assembly equations and mobility conditions are hence necessary to resize an over-constrained solid assembly. Assembly equations and mobility conditions are computed by a computer algebra tool: Gröbner bases. However, the algebraic solving using Gröbner bases can be costly and may fail because of unreasonable computing time, this is the main reason of the strategies described in this thesis.The approach proposed in this thesis is composed of two main steps. First of all, an algebraic representation of a closed assembly and a mobile assembly is descibed. The closed-loop equations are written by using a coordinate free method and the mobility equations are generated from the closed-loop equations using direct and incremental methods. To simplify the computation of assembly equations and mobility conditions an algebraic analysis that rely on numerical analysis tools is proposed. Starting from a set of values of the parameters that describe the assembly to resize, the mobility state of the assembly is determined. Then, if the designer want to change the mobility state, a new set of values that have the mobility state chosen by the designer is generated. Once the initial set of values has the right mobility state, some dimensions are specialized to ease the computation of assembly equations and mobility conditions. However, if the parameters chosen are linked or its number is to high, there is a high chance that the study lead to no solution. Strategies to avoid these problems are also proposed. Finally, the tools developped in Maple® software that illustrate the methods proposed are described and an interactive tool that permits the designer to visualize the solutions of the closed-loop equations, assembly equations and mobility conditions computed after specialisation is proposed.
6

Méthodes d'approximation pour la reconstruction de signaux et le redimensionnement d'images

Condat, Laurent 18 September 2006 (has links) (PDF)
Ce travail porte sur la reconstruction de signaux et le redimensionnement d'images.<br /> La reconstruction vise à estimer une fonction dont on ne connaît que des mesures linéaires éventuellement bruitées.<br />Par exemple, le problème d'interpolation uniforme consiste à estimer une fonction s(t), n'en connaissant que les valeurs s(k) aux entiers k.<br /><br /> L'approche proposée est originale et consiste à effectuer une quasi-projection dans un espace fonctionnel fixé, en minimisant l'erreur d'approximation lorsque le pas d'échantillonnage tend vers zéro.<br />Les cas 1D, 2D cartésien, et 2D hexagonal sont évoqués.<br /><br /> Nous appliquons ensuite notre formalisme au problème de l'agrandissement d'images, pour lequel seules des méthodes non-linéaires s'avèrent à même de synthétiser correctement l'information géométrique à laquelle nous sommes le plus sensibles.<br /><br /> Nous proposons une méthode appelée induction, à la fois simple, rapide et performante.
7

Calcul en Tranches de Temps, Redimensionnement & Schéma Parallèle en Temps par la Méthode des Ratios

Makhoul-Karam, Noha 17 December 2010 (has links) (PDF)
Récemment, beaucoup de schémas parallèles en temps ont et e propos es pour résoudre des problèmes a valeur initiale de la forme (S): dY dt = F(Y ); Y (t0) = Y0, pouvant résulter, par exemple, de la semi-discretisation en espace d'équations aux derivees partielles. L'intégration des problèmes d'évolution étant naturellement séquentielle, de tels schémas ont pour principale motivation de résoudre des problèmes en temps réel ou de se superposer a un parallélisme a travers l'espace ou la méthode et ce, pour un usage plus efficace des machines fortement parallèles disponibles actuellement. Dans cette thèse, nous proposons l'algorithme RaPTI, qui permet de paralléliser en temps la résolution du problème (S), lorsque le comportement de la solution est connu. Une méthode de calcul par tranches est a la base de ce nouveau schéma. Elle consiste en (i) une procédure de génération de tranches de temps basée sur une condition de n de tranche que la solution doit vérifer et (ii) un redimensionnement de la variable temps et de la solution qui les initialise a zéro au début de chaque tranche de temps. Ainsi, la résolution de (S) devient équivalente a la résolution d'une suite de problèmes redimensionnes a valeur initiale et avec condition de fi n de tranche, donnant a la fois la solution sur chacune des tranches et le temps de fin de tranche. L'algorithme RaPTI utilise donc cette méthodologie, et certaines propriétés de similarité qui en découlent, pour générer la grille de temps grossière et fournir des prédictions au moyen d'une méthode de ratios. La procédure de correction se fait ensuite, sur une grille de temps fine, en résolvant en parallèle les systèmes redimensionnes. Ceci conduit a des sauts sur la grille de temps grossière. Les prédictions sont alors corrigées et le processus est itéré jusqu'à ce que tous les sauts soient inférieurs a une certaine tolérance. L'originalité de l'algorithme RaPTI réside dans le fait que les prédictions, et leur corrections a chaque itération, ne nécessitent aucune résolution sur la grille de temps grossière, contrairement aux autres schémas parallèles en temps. De plus, il ne commence pas par un choix de la grille grossière, mais plutôt par le choix d'une condition de fin de tranche qui va générer cette grille de façon bien adaptée au comportement de la solution. L'algorithme RaPTI est applique, dans cette thèse a trois problèmes: un problème de membrane, un problème de reaction-diffusion et un calcul de trajectoire de satellite dans un mouvement perturbe en J2. Dans quelques rares cas d'invariance, il conduit a un parallélisme parfait. Dans les cas plus courants de similarité asymptotique ou faible, il donne de bons speed-ups.
8

Méthologie de développement d'une bibliothèque d'IP-AMS en vue de la conception automatisée de systèmes sur puces analogiques et mixtes: application à l'ingénierie neuromorphique

Levi, Timothée 01 December 2007 (has links) (PDF)
Les travaux de cette thèse apportent une contribution à l'automatisation du flot de conception analogique et mixte, en termes de méthodologies de réutilisation. Des méthodologies de développement et d'exploration de bibliothèques d'IPs (Intellectual Property) analogiques sont développées : définition et caractérisation d'un IP analogique, création et exploration d'une base de données d'IPs, aide à la réutilisation destinée au concepteur. Le circuit utilisé pour l'application de ces méthodologies est un système neuromimétique c'est-à-dire qu'il reproduit l'activité électrique de neurones biologiques. Ces applications montrent à travers trois exemples, l'efficacité et la souplesse de notre méthodologie. Ces travaux proposent également une méthodologie de redimensionnement de circuits analogiques CMOS lors d'une migration technologique.

Page generated in 0.0761 seconds