• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 481
  • 201
  • 43
  • 2
  • Tagged with
  • 722
  • 722
  • 334
  • 329
  • 196
  • 174
  • 144
  • 126
  • 114
  • 113
  • 104
  • 88
  • 83
  • 67
  • 67
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Conception et développement d'un service web de mise à jour incrémentielle pour les cubes de données spatiales

Declercq, Charlotte 13 April 2018 (has links)
Les applications géodécisionnelles évoluent vers le temps réel et nécessitent un mécanisme de mise à jour rapide. Or, ce processus est complexe et très coûteux en temps de calcul à cause de la structure dénormalisée des données, stockées sous forme de cube. La méthode classique qui consistait à reconstruire entièrement le cube de données prend de plus en plus de temps au fur et à mesure que le cube grossit, et n'est plus envisageable. De nouvelles méthodes de mise à jour dites incrémentielles ont fait leurs preuves dans le domaine du Business Intelligence. Malheureusement, de telles méthodes n'ont jamais été transposées en géomatique décisionnelle, car les données géométriques nécessitent des traitements spécifiques et complexes. La mise à jour des cubes de données spatiales soulève des problèmes jusqu'alors inconnus dans les cubes de données classiques. En plus de cela, une large confusion règne autour de la notion de mise à jour dans les entrepôts de données. On remarque également que l'architecture des entrepôts de données suit la tendance actuelle d'évolution des architectures de systèmes informatiques vers une distribution des tâches et des ressources, au détriment des systèmes centralisés, et vers le développement de systèmes interopérables. Les architectures en émergence, dites orientées services deviennent dans ce sens très populaires. Cependant, les services dédiés à des tâches de mise à jour de cubes sont pour l'heure inexistants, même si ceux-ci représenteraient un apport indéniable pour permettre la prise de décision sur des données toujours à jour et cohérentes. Le but de ce mémoire est d'élaborer des méthodes de mise à jour incrémentielles pour les cubes spatiaux et d'inscrire le dispositif dans une architecture orientée services. La formulation de typologies pour la gestion de l'entrepôt de données et pour la mise à jour de cube a servi de base à la réflexion. Les méthodes de mise à jour incrémentielles existantes pour les cubes non spatiaux ont été passées en revue et ont permis d'imaginer de nouvelles méthodes incrémentielles adaptées aux cubes spatiaux. Pour finir, une architecture orientée services a été conçue, elle intègre tous les composants de l'entrepôt de données et contient le service web de mise à jour de cube, qui expose les différentes méthodes proposées.
342

Conception, construction et validation d'un mécanisme novateur permettant d'effectuer des essais hybrides en temps réel contrôlés en force avec un vérin hydraulique

Landry-Michaud, Louis January 2015 (has links)
Des recherches récentes démontrent que les normes nord-américaines de construction et de dimensionnement des ponts sous-estiment les efforts engendrés lors de collisions de camions ou de barges avec un pont. La majorité des recherches sont menées par modélisations, puisque l’étude d’une collision pleine échelle est très coûteuse. Afin de mener des recherches au sujet des charges d’impact pour l’étude des mécanismes d’endommagement ainsi que des méthodes de réhabilitation, il serait intéressant qu’une méthode d’essai en laboratoire soit développée. Une façon innovatrice de reproduire ces charges serait de procéder par des tests hybrides en temps réel avec un vérin hydraulique dynamique pour l’application des charges. Or, les charges d’impact sont caractérisées en force et le contrôle en force des vérins hydrauliques dynamiques en boucle fermée cause problème. La problématique est due à une faible stabilité de contrôle en boucle fermée ainsi qu’une faible précision des charges appliquées. Ces problèmes peuvent être évités par l’ajout d’un mécanisme flexible entre le vérin et la structure à tester. La déflexion du mécanisme est utilisé comme rétroaction pour contrôler le vérin. En connaissant la rigidité du mécanisme et en contrôlant sa déflexion, un contrôle indirect en force peut être accompli selon la loi de Hooke. Le projet présenté dans ce mémoire consiste à développer et à optimiser un tel mécanisme d’une capacité de [plus ou moins] 50 kN. Son effet sur la stabilité et la performance de la boucle de contrôle est étudié par modélisation et par essais en laboratoire, sa conception et ses principes de fonctionnement sont décrits, son comportement sous sollicitation statique et dynamique est analysé et discuté. Les résultats obtenus montrent l’excellent comportement du prototype sous chargement statique et dynamique ainsi que l’amélioration des performances de contrôle en force avec un vérin hydraulique.
343

FLCAA : système de codage parcimonieux et d'analyse perceptuelle des signaux sonores en temps réel

Tremblay-Boucher, Vincent January 2013 (has links)
Ce mémoire débute par un survol de l'état de l’art des méthodes de compositions musicales assistées par ordinateur (MCMAO). À l’aide d'un ensembles critères permettant l’évaluation des méthodes de compositions musicales assistées par ordinateur, on identifie une technique particulièrement prometteuse. Il s’agit d ’un compositeur statistique, présenté par Hoffman et al. en 2008, utilisant les "mel-frquecy cepstral coefficients" (MFCC), un prétraitement inspiré des techniques en reconnaissance de parole. Toutefois, cette technique présente diverses limitations, comme la qualité de reconstruction des signaux, qui l’empêche d'être utilisée pour composer de la musique utilisable professionnellement. Ainsi, ce mémoire tente de bonifier la méthode de composition musicale assistée par ordinateur de Hoffman et al. en remplaçant la technique MFCC d'analyse/synthèse du signal par une technique novatrice d'analyse/synthèse des signaux sonores nommée "Fast Locally competitive algorithm for audio" (FLCAA). Celle-ci permet une analyse perceptuelle parcimonieuse, en temps réel, ayant une bonne résolution fréquencielle et une bonne résolution temporelle. De plus le FLCAA permet une reconstruction robuste de bonne qualité également en temps réel. L’analyse est constituée de deux parties distinctes. La première consiste à utiliser un prétraitement inspiré de l’audition pour transformer le signal sonore afin d'obtenir une représentation cochléaire. Concrètement, la transformation d'analyse est accomplie à l’aide d'un filtrage par banc de filtres cochléaires combiné à un mécanisme de fenêtre coulissante. Le banc de filtres utilisé est composé de filtres cochléaires passe-bande à réponse impulsionnelle finie, de type "rounded exponential" (RoExp). La deuxième étape consiste à coder la représentation cochléaire de manière parcimonieuse afin d'augmenter la résolution spatiale et temporelle pour mettre en évidence certaines caractéristiques du signal comme les fréquences fondamentales, l’information contenue dans les basses fréquences et les signaux transitoires. Cela est fait, en intégrant un réseau de neurones (nommé LCA) utilisant les mécanismes d'inhibition latérale et de seuillage. À partir des coefficients de la représentation perceptuelle, il est possible d'effectuer la transformation de synthèse en utilisant une technique de reconstruction novatrice qui est expliqué en détail dans ce mémoire.
344

Interpolation temporelle des images avec estimation de mouvement raffinée basée pixel et réduction de l'effet de halo

Tran, Thi Thuy Ha January 2010 (has links)
Dans le présent travail, après un résumé de l'état de l'art, une nouvelle interpolation temporelle des images avec réduction de halo est proposée. D'abord, pour la télévision de définition standard, une estimation de mouvement dont la résolution est le pixel, est suggérée. L'estimation se fait par l'appariement des blocs, et est suivie par un raffinement basé pixel en considérant des vecteurs de mouvement environnant. La réduction de halo se faisant à l'aide d'une fenêtre glissante de forme adaptative ne recourt pas à une détection explicite des régions d'occlusion. Ensuite, pour la télévision à haute définition, dans le but de réduire la complexité, l'estimation de mouvement de résolution pixel ainsi que la réduction de halo sont généralisées dans le contexte d'une décomposition hiérarchique. L'interpolation finale proposée est générique et est fonction à la fois de la position de l'image et de la fiabilité de l'estimation. Plusieurs . post-traitements pour améliorer la qualité de l'image sont aussi suggérés. L'algorithme proposé intégré dans un ASIC selon la technologie de circuit intégré contemporain fonctionne en temps réel.
345

Evaluation de nouveaux outils de diagnostic de la tuberculose bovine : Conditions d'utilisation d'un test de dosage d'IFNγ et d'un test PCR IS6110 en temps réel

Faye, Sandy 06 October 2010 (has links) (PDF)
Face à une recrudescence préoccupante depuis 2004 des cas de tuberculose bovine (Tb) en Dordogne et du fait des défauts diagnostiques des méthodes de détection classiques comme l'intradermotuberculination simple (IDS), la bactériologie ou l'inspection systématique des carcasses à l'abattoir, deux nouveaux outils de diagnostic rapide, (i) le test de dosage d'interféron gamma (IFNγ) Bovigam® modifié, basé sur des dérivés protéiques purifiés bovins et aviaires (PPD) et des antigènes recombinants spécifiques, ESAT6 et CFP10 (R) et, (ii) une méthode PCR en temps réel basée sur la détection de la séquence d'insertion IS6110 (PCR), ont été intégrés dans le dispositif de lutte afin d'évaluer leurs utilités diagnostiques. Les différentes études réalisées ont montré que la méthode PCR est au moins aussi sensible que la bactériologie. Sa spécificité opérationnelle est très satisfaisante et sa valeur prédictive positive est excellente vis-à-vis de la bactériologie et l'histologie. Elle constitue donc un outil rapide et fiable de diagnostic de la Tb permettant, en complément d'une tuberculination ou une histologie positive, d'éviter d'attendre le résultat bactériologique pour déclarer l'infection. Elle permet ainsi de raccourcir considérablement les délais de confirmation définitive de l'infection (de 2,5 mois), ce qui constitue un avantage opérationnel crucial. L'application du test IFNγ modifié comme outil de confirmation des IDS non-négatives n'est pas parfait mais sa complémentarité vis-à-vis de l'IDS en fait un atout indéniable. D'un point de vue technique, un mode de calcul normalisé des résultats individuels doit être utilisé pour obtenir une meilleure reproductibilité et donc pouvoir établir des comparaisons intra et inter laboratoires. De plus, il est nécessaire d'adapter les critères d'analyse (seuils décisionnels des formules normalisées et méthodes d'interprétation du résultat final) au statut infectieux régional d'une part, (région de faible ou forte prévalence de Tb, réactions non-spécifiques rares ou fréquentes) et, aux conditions d'application du test d'autre part (dans la population générale ou dans une population d'IDS non-négatives), pour une utilisation appropriée du test IFNγ. Ces résultats satisfaisants ont conduit en août 2009 à la reconnaissance règlementaire des tests PCR IS6110 et IFNγ modifié comme outils de confirmation de l'infection de Tb et des IDS non-négatives respectivement.
346

Navigation sûre en environnement dynamique : une approche par planification de mouvement partiel

Petti, Stéphane Renaud 11 July 2007 (has links) (PDF)
Notre travail aborde le problème de navigation autonome en milieu dynamique partiellement connu. Ce problème a généré de nombreux travaux durant les dix dernières années. Néanmoins, nous avons observé que certains aspect fondamentaux liés à la nature dynamique de l'environnement ont été oubliés, en commençant par la limite de temps qu'un système placé dans un environnement dynamique a, pour prendre une décision et exécuter son mouvement. Bien que cette contrainte soit d'importance cruciale, il y a paradoxalement peu de travaux dans la littérature la prennent en compte. Cette contrainte temps réel a été placée au cœur de notre travail. Dans ce travail nous présentons une technique de planification qui prend en compte de manière explicite la contrainte temps réel imposée par l'environnement dynamique. La planification de mouvement partiel (PMP) est une technique originale de planification qui réagit à tout moment; dès que le temps imparti pour calculer une trajectoire est écoulé, la meilleure trajectoire calculée disponible est transmise. En fait, de notre point de vue, l'approche PMP est la meilleure approche possible au problème que nous avons observé, à savoir l'incompatibilité intrinsèque entre la planification en environnement dynamique et la contrainte temps réelle. PMP intègre également le problème de sûreté, que nous considérons d'un point de vue des états de collisions inévitables (ICS), concept récent qui englobe toutes les approches existantes et de proposer une technique qui donne de fortes garanties de sûreté pour notre système. Enfin, dans ce travail, nous démontrons l'efficacité de notre approche PMP pour des environnements relativement complexes. Plusieurs expérience ont été mises en œuvre où PMP a ainsi été intégré sur une plate forme réelle, le robot type voiture Cycab, véhicule conçu par l'INRIA.
347

Matrice d'électrodes intelligentes : un outil pour améliorer les performances spatiotemporelles des systèmes hybrides (vivant-artificiel), en boucle fermée et en temps réel

Bontorin, Guilherme 24 September 2010 (has links) (PDF)
Cette thèse présente un système bioélectronique prometteur, l'Hynet. Ce Réseau Hybride (vivant-artificiel) est conçu pour l'étude du comportement à long terme des cellules électrogénératrices, comme les neurones et les cellules betas, en deux aspects : l'individuel et en réseau. Il est basé sur une boucle fermée et sur la communication en temps réel entre la culture cellulaire et une unité artificielle (Matériel, Logiciel). Le premier Hynet utilise des Matrices d'électrodes (MEA) commerciales qui limitent les performances spatiotemporelles du Hynet. Une nouvelle Matrice d'électrodes intelligente (iMEA) est développée. Ce nouveau circuit intégré, analogique et mixte, fournit une interface à forte densité, à forte échelle et adaptative avec la culture. Le nouveau système améliore le traitement des données en temps réel et une acquisition faible bruit du signal extracellulaire.
348

A distributed and scalable architecture for real time volumetric reconstruction of arbitrary shapes exploiting inter-frame redundancy / Une architecture distribuée et modulable exploitant la redondance temporelle pour la reconstruction volumétrique et temps réels d’objets de forme arbitraire

Ruiz, Diego 06 May 2008 (has links)
The three-dimensional structure of the world makes 3D as the natural evolution of a huge panel of applications. Many different 3D reconstruction algorithms have been implemented to meet different application needs. We target immersive applications. The reconstructed models of users and objects are inserted in 3D virtual environments creating the mixed reality, which is rendered on spatially immersive displays. The user sees its model on the projection walls, allowing him to interact with elements of the virtual world. Immersion requires small latency, high reconstruction rates and non-invasive systems. Furthermore, we choose to reconstruct arbitrary shapes with a geometric method. The review of the state of the art shows that all the acquisition devices cannot be connected to a single computer performing real time reconstruction. The system needs a cluster of computers and a strategy to share information between them. We present a distributed and scalable architecture for real time reconstruction of arbitrary shapes exploiting inter-frame redundancy. The architecture is composed of acquisition nodes and master nodes. Each acquisition node reconstructs partial models from its attached cameras and sends non-redundant information to its master. Each master node merges several partial models. The output of several masters can be merged by another master. We exploit the properties of volumetric algorithms, i.e. an efficient exploitation of inter-frame redundancy and an efficient merging of partial models, to increase performances. We test our volumetric architecture with an innovative implementation of the visual hull. We use a label that codes simultaneously occupancy, subdivision of space and visibility allowing each camera to see only part of the volume of interest. We test our system on a particular implementation of the framework composed of eight cameras and twelve cores, two per acquisition node and four for the master. We achieve fifteen reconstructions per second and less than 100 ms latency from segmentation to the display of the reconstructed model. System performances have been measured on sequences of more than 20 000 frames with unconstrained user’s movements. The system computes a fair approximation of the user in all situations. / La structure tridimensionnelle du monde fait de la 3D l’évolution naturelle d’un grand nombre d’applications. De nombreux algorithmes de reconstruction différents ont été développés pour satisfaire les besoins de différents types d’applications. On cible les applications immersives: Les modèles reconstruits de l’utilisateur ainsi que des objets qu’il porte sont insérés dans des environnements virtuels créant ainsi la réalité mixte. Cette dernière est affichée ce qui permet à l’utilisateur d’interagir avec des éléments virtuels. Le caractère immersif de l’application requiert une reconstruction temps réel à faible latence. Qui plus est, on désire la reconstruction de modèles de formes arbitraires à l’aide de méthodes géométriques. L’état de l’art montre que les différentes caméras ne peuvent pas être connectées à un seul ordinateur responsable de la reconstruction 3D. L’application requiert un cluster d’ordinateurs et une méthode étudiée afin de répartir la charge de travail et d’optimiser les performances. J’ai développé au cours de ma thèse une architecture volumétrique distribuée pour reconstruire des objets de forme arbitraire en temps réel et avec faible latence. Le système exploite les propriétés des algorithmes volumétriques pour améliorer les performances. Il est composé de deux types de nœuds: acquisition et fusion. Les nœuds de type acquisition reconstruisent des modèles partiels et envoient des informations non redondantes aux nœuds de type fusion. Chaque nœud fusion est responsable de la création d’un modèle global à partir de plusieurs modèles partiels. Grâce aux algorithmes développés, chaque étape de fusion rassemble les informations de plusieurs modèles partiels tout en ayant un impact faible sur la latence totale du système. L’architecture a été testée avec une implémentation particulière du Visual Hull permettant une disposition plus libre des caméras. Ces dernières ne doivent plus observer l’entièreté du volume d’intérêt. Chaque partie de l’utilisateur est modélisée grâce aux caméras qui l’observent. Notre système dispose de quatre nœuds d’acquisitions dual core et d’un nœud de fusion dual CPU dual core. On reconstruit quinze modèles par seconde avec une latence inférieure à 100 ms mesurée depuis la segmentation jusqu’au rendu. Quelques soient les mouvements de l’utilisateur et les objets qu’il manipule, le système est capable de le modéliser.
349

Gestion Énergétique optimisée pour un bâtiment intelligent multi-sources multi-charges : différents principes de validations

Missaoui Badreddine, Rim 06 July 2012 (has links) (PDF)
Le bâtiment est un noeud énergétique important et un support idéal pour développer et analyser les effets d'un système de gestion optimisée d'énergie (SGEB) tant son impact potentiel sur la demande énergétique globale est important. Cependant, pour que ces objectifs soient atteints, plusieurs verrous doivent être levés. Au-delà des problématiques liées à l'architecture de distribution, aux modèles (y compris ceux relatifs au comportement des usagers), aux outils de dimensionnement, à la formalisation des paramètres, contraintes et critères, aux systèmes de production et aux modes de connexions au réseau de distribution, les problèmes liés à la mise en oeuvre d'un outil de gestion décentralisée et à sa validation sont centraux centrale. Ces travaux s'inscrivent directement dans cette optique. Ils portent en particulier sur l'élaboration de modèles énergétiques, de stratégies de gestion d'énergie dans une configuration multi-sources et multi-charges et surtout de mise en oeuvre de méthodes et d'outils de validation au travers de bancs tests variés où certains composants peuvent être réels. Ce travail analyse le gestionnaire énergétique " G-homeTech " comprenant plusieurs fonctionnalités de gestion testées sur des bancs d'essai virtuels et hybrides qui permettent de combiner à la fois des composants matériels et logiciels dans les simulations. Cela a permis d'insérer des actionneurs communicants pour tester leur pertinence. Les validations menées montrent que le gestionnaire énergétique permet l'effacement de pointes de consommation et des économies sur la facture énergétique globale tout en respectant les contraintes techniques et réglementaires. Les évènements prédits ne sont pas toujours ceux qui se produisent. Nous avons alors simulé de telles situations. La radiation solaire et la consommation totale des services non contrôlables sont différentes de celles prédites. Cette différence a conduit à des dépassements de puissance électrique souscrite qui a activé le mécanisme de gestion réactive du gestionnaire énergétique. Des ordres de délestage sont alors dynamiquement envoyés à certains équipements. Ces ordres alimentent directement les modèles des équipements électriques. Selon les importances relatives données au coût et au confort, nous avons montré que le gestionnaire énergétique permet de faire des économies substantielles en évitant les consommations durant les pics de prix et évitant les dépassements de souscription par effacement, par modulation du fonctionnement des systèmes de chauffage et par décalage de fonctionnement des services temporaires dans les périodes plus intéressante énergétiquement.
350

Conception d'une méthodologie d'implémentation d'applications de vision dans une plateforme hétérogène de type Smart Camera

Dias Real De Oliveira, Fabio 06 July 2010 (has links) (PDF)
Les cameras intelligentes, ou Smart Cameras, sont des systèmes embarqués de vision artificielle. Ces systèmes se différencient des caméras "communes" par leur capacité à analyser les images, afin d'en extraire des informations pertinentes sur la scène observée, et ceci de féçon autonome grâce à des dispositifs embarqués de calcul. Les applications pratiques de ce type de système sont nombreuses (vidéo-surveillance, vision industrielle, véhicules autonomes, etc.), mais leur implémentation est assez complexe, et demande un haut degré d'expertise et des temps de développement élevés. Les travaux présentés dans cette thèse s'adressent à cette problématisue, et proposent une méthodologie d'implémentation permettant de simplifier le développement d'applications au sein des plateformes Smart Camera basées sur un dispositif FPGA. Cette méthodologie s'appuie d'une part sur l'instanciation au sein du FPGA d'un processeur "soft-core" taillé sur mesure, et d'autre part sur un flot de design à deux niveaux, permettant ainsi de traiter séparément les aspects matériels liés à la plateforme et les aspects algorithmiques liés à l'application

Page generated in 0.0618 seconds