• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1857
  • 935
  • 762
  • 17
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3576
  • 3545
  • 2361
  • 1799
  • 1786
  • 1775
  • 811
  • 798
  • 797
  • 789
  • 789
  • 789
  • 788
  • 646
  • 645
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Application of Model-Driven Engineering and Metaprogramming to DEVS Modeling & Simulation

Touraille, Luc 07 December 2012 (has links) (PDF)
The multiplication of software environments supporting DEVS Modeling & Simulation is becoming a hindrance to scientific collaboration. Indeed, the use of disparate tools in the community makes the exchange, reuse and comparison of models very difficult, preventing practitioners from building on previous works to devise models of ever-increasing complexity. Tool interoperability is not the only issue raised by the need for models of higher and higher complexity. As models grow, their development becomes more error-prone, and their simulation becomes more resource-consuming. Consequently, it is necessary to devise techniques for improving simulators performance and for providing thorough model verification to assist the practitioner during model design. In this thesis, we propose two innovative approaches for DEVS Modeling & Simulation that tackle the aforementioned issues. The first contribution described in this document is a model-driven environment for modeling systems with the DEVS formalism, named SimStudio. This environment relies on Model-Driven Engineering to provide a high-level framework where practitioners can create, edit and visualize models, and automatically generate multiple artifacts, most notably model specifications compatible with various DEVS simulators. The core of SimStudio is a platform-independent metamodel of the DEVS formalism, which provides a pivot format for DEVS models. Based on this metamodel, we developed several model verification features as well as many model transformations that can be used to automatically generate documentation, diagrams or code targeting various DEVS platforms. Thus, SimStudio gives a proof of concept of the integration capabilities that a DEVS standard would provide; as a matter of fact, the metamodel presented in this thesis could possibly serve as a basis for such a standard. The second contribution of this thesis is DEVS-MetaSimulator (DEVS-MS), a DEVS library relying on metaprogramming to generate simulation executables that are specialized and optimized for the model they handle. To do so, the library performs many computations during compilation, resulting in a simulation code where most overhead have been eliminated. The tests we conducted showed that the generated programs were very efficient, but the performance gain is not the only feature of DEVS-MS. Indeed, through metaprogramming, DEVS-MS can also assert the correctness of models by verifying model characteristics at compile-time, detecting and reporting modeling errors very early in the development cycle and with better confidence than what could be achieved with classical testing.
102

Approche dynamique de formation d'image et de compensation d'aberrations pour un système de réalité augmentée

Beuret, Marc 29 June 2012 (has links) (PDF)
La réalité augmentée consiste à superposer à l'environnement réel des informations virtuelles générées numériquement. Parmi les systèmes qui permettent de réaliser un tel mélange, nous nous intéressons dans ce travail aux systèmes de visualisation en réalité augmentée liés à la tête de l'utilisateur, généralement appelés HMD (Head-Mounted Display). Dans un tel système, la superposition des informations virtuelles à l'environnement réel peut être réalisée par un élément optique (optique mélangeuse) positionné devant l'oeil de l'utilisateur. La conception d'un système HMD est cependant une tâche complexe. En effet, la proximité de la tête introduit des contraintes géométriques importantes et provoque des déformations (aberrations) des images virtuelles. Généralement, ces aberrations sont minimisées de façon simultanée sur l'ensemble du champ de vision de l'utilisateur. Cette optimisation du système se fait néanmoins soit au détriment de la compacité ce qui s'avère problématique pour le confort d'utilisation du HMD, soit au détriment de la qualité de l'image au centre du champ de vision. Nous proposons dans ce travail ce qui nous semble être une nouvelle approche de conception en associant un modulateur spatial de lumière (SLM) et une optique mélangeuse diffractive statique. L'image virtuelle est créée séquentiellement point par point en modifiant l'incidence sous laquelle on éclaire l'optique mélangeuse. Le SLM permet d'adapter dynamiquement la correction des aberrations associées à chaque point virtuel. Nous avons dans un premier temps défini la fonction optique de l'optique mélangeuse diffractive et le champ de vision maximal (18° x 18°) qu'il est possible d'atteindre en respectant les contraintes géométriques d'utilisation. Nous avons pu alors montrer théoriquement que l'approche proposée permet d'atteindre une qualité d'image optimale sur l'ensemble du champ de vision. Les fonctions de correction sont réalisables avec les technologies actuelles. La validation expérimentale de ces résultats a été réalisée.
103

Approche par contraintes des problèmes d'ordonnancement et d'affectation : structures temporelles et mécanismes de propagation

Lopez, Pierre 10 December 2003 (has links) (PDF)
Ces travaux présentent une classe d'approches par contraintes pour aborder les problèmes d'ordonnancement de tâches et d'affectation de ressources. Ils présentent notamment les recherches menées sur la conception de mécanismes généraux de propagation de contraintes. Des rapprochements sont faits avec des techniques issues des problèmes de satisfaction de contraintes. Le cas des problèmes d'ordonnancement purement temporels est rapidement abordé, puis la présentation se consacre à des problèmes dans lesquels les tâches doivent respecter à la fois des contraintes temporelles et des contraintes de partage et d'affectation de ressources. On présente notamment une synthèse des travaux ayant pour but l'élaboration de règles de propagation faisant interagir des contraintes temporelles simples et des contraintes de ressources. Trois types de raisonnement sont étudiés et dans certains cas étendus par rapport à leur formulation originale. Le premier, les opérations locales, nécessite une analyse préalable des conflits entre tâches et infère des conditions de séquencement locales à une ressource. Le deuxième, les opérations globales, agit suivant le principe d'une contrainte posée sur l'ensemble du problème. Le troisième, le raisonnement énergétique, intègre simultanément les contraintes de temps et de ressources et permet de limiter l'intervalle de temps sur lequel peut être réalisée une tâche. L'utilisation et le contrôle des mécanismes de propagation de contraintes sont discutés. Ils peuvent servir à découvrir rapidement une inconsistance globale dans la formulation du problème, ou à simplifier sa résolution. Nous fournissons ainsi des éléments sur la décomposition et la stratégie de résolution des problèmes.
104

Conception et évaluation d'outils décisionnels pour des systèmes réactifs d'aide à la mobilité

Ren, Libo 05 October 2012 (has links) (PDF)
Dans le cadre de cette thèse, nous nous intéressons au traitement des problèmes d'optimisation combinatoire liés à la conception d'outils de gestion des systèmes de véhicules partagés. Ces problèmes sont proches des problèmes de collecte et de livraison. Après avoir réalisé une étude théorique sur des problèmes d'optimisation combinatoire autour du transport et des méthodes de résolutions, nous nous sommes intéressés ici à trois problèmes particuliers : le PPRV, le PPRV-PM et le PPRV-T. Le premier problème est le Problème de Planification du Redéploiement de Véhicules partagés (PPRV). C'est une extension du One-commodity Pickup-and-Delivery Problem (1-PDP) car les véhicules partagés sont indifférenciés. Nous avons proposé un modèle linéaire et une heuristique utilisant le schéma hybride ILS/VND. L'approche développée repose sur la stratégie " route-first, cluster-second " : on commence par construire une tournée géante, puis on l'améliore par une procédure de perturbation et une recherche locale. Pendant la recherche locale, la contrainte de capacité des véhicules est momentanément relaxée et progressivement restaurée ; la tournée géante obtenue est ensuite transformée en plusieurs tournées à l'aide de la procédure Split. Les deux problèmes suivants sont considérés comme des extensions du PPRV en autorisant des livraisons partielles : PPRV avec Passage Multiple (PPRV-PM) et PPRV avec Transfert d'objets (PPRV-T). Nous proposons une approche de type " divide-first, route-second " pour la résolution du PPRV-PM. Elle consiste à effectuer d'abord un fractionnement de la demande, puis la résoudre à l'aide d'un schéma hybride de type GRASP/VND. Le PPRV-T étend le PPRV-PM au transfert d'objets entre les transporteurs lors du passage sur un sommet. Nous avons reformulé le PPRV-T comme un problème de multi-flots couplés sur un réseau dynamique. Nous avons proposé une méthode d'insertion basée sur cette modélisation.
105

Construction et étude de composés fluorescents à base d'unités hydroxyphényl-s-triazines et boradiazaindacènes

Rihn, Sandra 13 June 2013 (has links) (PDF)
Les travaux réalisés dans le cadre de la thèse avaient pour but la synthèse de nouveaux fluorophores basés sur les unités BODIPYs et hydroxyphényl-s-triazines. Pour être utilisées comme sondes efficaces dans des applications en chimie et en biologie, les chromophores doivent présenter une forte brillance et des rendements quantiques de fluorescence élevés, une modulation aisée de ses propriétés optiques ainsi qu'une bonne stabilité chimique et photochimique. Une stratégie originale et efficace a été développée pour l'obtention de dérivés d'o-hydroxyphényl-s-triazine. Ces derniers présentent des déplacements de Stokes anormalement élevés ayant pour origine un transfert de proton intramoléculaire ultrarapide à l'état excité (ESIPT). L'extension du système π-conjugué sur les différentes plateformes de départ a été réalisée par couplages pallado-catalysés et/ou condensation de Knoevenagel, permettant ainsi d'accéder à une large gamme spectrale en absorption et en émission. Le développement d'une nouvelle voie de synthèse à permis l'obtention d'oligo-BODIPYs par couplage oxydant réalisé en associant PIFA et un acide de Lewis. Toutes les propriétés photophysiques des nouvelles sondes ont été étudiées et ont fait l'objet de discussions détaillées.
106

Contribution de l'ingénierie dirigée par les modèles à la conception de modèles grande culture

Barbier, Guillaume 13 June 2013 (has links) (PDF)
Cette thèse, à caractère industriel, vise à répondre à une problématique de production de l'entreprise ITK. Par la mise en oeuvre des techniques de l'ingénierie dirigée par les modèles, nous proposons un environnement de modélisation et de simulation pour la croissance des plantes. Outre sa facilité d'utilisation pour les agronomes, le prototype obtenu permet la génération automatique de code Java des modèles à intégrer dans des outils d'aide à la décision exécutés sur une plateforme Java Enterprise Edition.
107

Contributions à la segmentation des structures cérébrales en IRM foetale

Caldairou, Benoît 22 June 2012 (has links) (PDF)
L'étude de la maturation cérébrale a pour objectif une meilleure compréhension du développement du cerveau durant la grossesse et la mise en évidence des liens entre la modification des structures cérébrales et le développement cognitif. Cette étude est rendue particulièrement difficile par l'évolution constante que connaissent ces structures au cours de cette période, évolution due notamment à la croissance et à l'organisation des tissus cérébraux. La technique de visualisation privilégiée pour observer le cerveau est l'imagerie par résonance magnétique (IRM), méthode non invasive permettant l'acquisition d'images des structures cérébrales in vivo et en trois dimensions à une résolution relativement élevée. Cependant, les différences anatomiques et l'évolution rapide des structures cérébrales chez le fœtus nécessitent une nouvelle modélisation du cerveau. Le travail de cette thèse est composé de deux parties. Tout d'abord, nous avons modifié l'algorithme FCM (Fuzzy C-Means) de manière à permettre une meilleure prise en compte du bruit et du biais de l'image grâce à la méthode des moyennes non-locales issue du débruitage d'image. Ces travaux ont fait l'objet d'une validation à partir de bases d'images synthétiques et réelles. Enfin, nous nous sommes penchés sur la problématique de la segmentation des tissus cérébraux en IRM fœtale, et nous avons introduit un modèle comportant des contraintes topologiques de manière à permettre une segmentation séquentielle des tissus, en se fondant sur la position relative des différentes structures. Ces travaux ont fait l'objet d'une validation à partir de cas réels.
108

Développement d'un système de tracking vidéo sur caméra robotisée

Penne, Thomas 14 October 2011 (has links) (PDF)
Ces dernières années se caractérisent par la prolifération des systèmes de vidéo-surveillance et par l'automatisation des traitements que ceux-ci intègrent. Parallèlement, le problème du suivi d'objets est devenu en quelques années un problème récurrent dans de nombreux domaines et notamment en vidéo-surveillance. Dans le cadre de cette thèse, nous proposons une nouvelle méthode de suivi d'objet, basée sur la méthode Ensemble Tracking et intégrant deux améliorations majeures. La première repose sur une séparation de l'espace hétérogène des caractéristiques en un ensemble de sous-espaces homogènes appelés modules et sur l'application, sur chacun d'eux, d'un algorithme basé Ensemble Tracking. La seconde adresse, quant à elle, l'apport d'une solution à la nouvelle problématique de suivi induite par cette séparation des espaces, à savoir la construction d'un filtre particulaire spécifique exploitant une pondération des différents modules utilisés afin d'estimer à la fois, pour chaque image de la séquence, la position et les dimensions de l'objet suivi, ainsi que la combinaison linéaire des différentes décisions modulaires conduisant à l'observation la plus discriminante. Les différents résultats que nous présentons illustrent le bon fonctionnement global et individuel de l'ensemble des propriétés spécifiques de la méthode et permettent de comparer son efficacité à celle de plusieurs algorithmes de suivi de référence. De plus, l'ensemble des travaux a fait l'objet d'un développement industriel sur les consoles de traitement de la société partenaire. En conclusion de ces travaux, nous présentons les perspectives que laissent entrevoir ces développements originaux, notamment en exploitant les possibilités offertes par la modularité de l'algorithme ou encore en rendant dynamique le choix des modules utilisés en fonction de l'efficacité de chacun dans une situation donnée.
109

Développement de capteurs à pixels CMOS pour un détecteur de vertex adapté au collisionneur ILC

Fu, Yunan 09 May 2012 (has links) (PDF)
Le travail de thèse a consisté, en priorité, à s'approprier les technologies d'intégration verticale en usage dans l'industrie pour réaliser des mémoires à plusieurs étages, et à en évaluer l'apport pour les capteurs à pixel CMOS (CPS). Cette approche s'appuie sur la capacité de l'industrie à interconnecter des puces amincies empilées les unes sur les autres. Elle ouvre la perspective d'associer plusieurs microcircuits superposés à un même pixel, en dépits de sa taille réduite. L'interconnexion est donc réalisée au niveau du pixel. Ce saut technologique permet de lever la majorité des obstacles à l'obtention de performances optimales des CPS. On peut en particulier combiner des puces réalisées dans des technologies CMOS très différentes, chacune optimale pour une fonctionnalité précise. La collection des charges du signal peut ainsi être réalisée dans une couche dédiée, les microcircuits de conditionnement analogique des signaux peuvent être concentrés dans une autre couche, une troisième couche pouvant héberger les parties numériques assurant la compression puis la transmission des signaux, etc. Ce progrès se traduit notamment par la possibilité de combiner haute résolution spatiale et lecture rapide, avec une amélioration probable de la tolérance aux rayonnements intenses.On s'affranchit de cette manière des limitations provenant des paramètres de fabrication des fondeurs, qui ne permettent pas à l'heure actuelle, de pleinement exploiter le potentiel des CPS à l'aide d'une technologie CMOS unique.
110

Distributed frequent subgraph mining in the cloud

Aridhi, Sabeur 29 November 2013 (has links) (PDF)
Recently, graph mining approaches have become very popular, especially in certain domains such as bioinformatics, chemoinformatics and social networks. One of the most challenging tasks in this setting is frequent subgraph discovery. This task has been highly motivated by the tremendously increasing size of existing graph databases. Due to this fact, there is urgent need of efficient and scaling approaches for frequent subgraph discovery especially with the high availability of cloud computing environments. This thesis deals with distributed frequent subgraph mining in the cloud. First, we provide the required material to understand the basic notions of our two research fields, namely graph mining and cloud computing. Then, we present the contributions of this thesis. In the first axis, we propose a novel approach for large-scale subgraph mining, using the MapReduce framework. The proposed approach provides a data partitioning technique that consider data characteristics. It uses the densities of graphs in order to partition the input data. Such a partitioning technique allows a balanced computational loads over the distributed collection of machines and replace the default arbitrary partitioning technique of MapReduce. We experimentally show that our approach decreases significantly the execution time and scales the subgraph discovery process to large graph databases. In the second axis, we address the multi-criteria optimization problem of tuning thresholds related to distributed frequent subgraph mining in cloud computing environments while optimizing the global monetary cost of storing and querying data in the cloud. We define cost models for managing and mining data with a large scale subgraph mining framework over a cloud architecture. We present an experimental validation of the proposed cost models in the case of distributed subgraph mining in the cloud.

Page generated in 0.0461 seconds