Spelling suggestions: "subject:"tempo réel""
341 |
Ordonnancement de ressources en temps réel avec contraintes dynamiques dans un environnement non déterministeGagné, Olivier 13 April 2018 (has links)
Les problèmes militaires sont très complexes et plusieurs d'entre eux ne peuvent être résolues en utilisant les techniques d'optimisation classiques. Le problème visé par ce travail de maîtrise, est celui de la gestion en temps réel des ressources d'une frégate. Ces ressources doivent être assignées convenablement et dans les délais requis de manière à contrer les menaces et augmenter ainsi la probabilité de survie de la frégate. Pour contribuer à résoudre un tel problème, nous avons convenu tout d'abord, d'analyser les menaces une à une et de déterminer lesquelles sont les plus importantes et quel plan d'attaque il convient d'élaborer pour les contrer. Nous avons introduit à cet effet, l'évaluation de ``l'engageabilité'' qui permet de considérer différents facteurs déterminants dans l'allocation des ressources. Nous avons ensuite formalisé le problème en question, en utilisant un modèle formel emprunté à la satisfaction des contraintes (CSP=constraint Satisfaction problem). Finalement, nous avons montré dans quelles circonstances il est avantageux d'utiliser cette évaluation de l'engageabilité dans un processus d'allocation de ressources en temps réel et dans un environnement stochastique, le tout relativement à la survie de la frégate. / Military problems are very complex and they can be solved by different artificial intelligence techniques. In this thesis, we address the problem of weapon-targets assignment for a frigate. To defend efficiently the ship, we have to analyze each threat and determine which resource assigns against it. For that purpose, we utilize the engageability assessment to consider different characteristics; useful in the resources assignment. To this end, a mathematical model named Constraint Satisfaction Problem (CSP) is employed. This framework allows formalizing the problem to ensure the constraint consistency and to sort threats in importance order. We tried this algorithm on different types of weapon-target assignment problems. Finally, we demonstrate the advantage of engageability assessment on the weapon-target assignment problem in real time and stochastic environment.
|
342 |
Techniques for the allocation of resources under uncertaintyPlamondon, Pierrick 13 April 2018 (has links)
L’allocation de ressources est un problème omniprésent qui survient dès que des ressources limitées doivent être distribuées parmi de multiples agents autonomes (e.g., personnes, compagnies, robots, etc). Les approches standard pour déterminer l’allocation optimale souffrent généralement d’une très grande complexité de calcul. Le but de cette thèse est de proposer des algorithmes rapides et efficaces pour allouer des ressources consommables et non consommables à des agents autonomes dont les préférences sur ces ressources sont induites par un processus stochastique. Afin d’y parvenir, nous avons développé de nouveaux modèles pour des problèmes de planifications, basés sur le cadre des Processus Décisionnels de Markov (MDPs), où l’espace d’actions possibles est explicitement paramétrisés par les ressources disponibles. Muni de ce cadre, nous avons développé des algorithmes basés sur la programmation dynamique et la recherche heuristique en temps-réel afin de générer des allocations de ressources pour des agents qui agissent dans un environnement stochastique. En particulier, nous avons utilisé la propriété acyclique des créations de tâches pour décomposer le problème d’allocation de ressources. Nous avons aussi proposé une stratégie de décomposition approximative, où les agents considèrent des interactions positives et négatives ainsi que les actions simultanées entre les agents gérants les ressources. Cependant, la majeure contribution de cette thèse est l’adoption de la recherche heuristique en temps-réel pour l’allocation de ressources. À cet effet, nous avons développé une approche basée sur la Q-décomposition munie de bornes strictes afin de diminuer drastiquement le temps de planification pour formuler une politique optimale. Ces bornes strictes nous ont permis d’élaguer l’espace d’actions pour les agents. Nous montrons analytiquement et empiriquement que les approches proposées mènent à des diminutions de la complexité de calcul par rapport à des approches de planification standard. Finalement, nous avons testé la recherche heuristique en temps-réel dans le simulateur SADM, un simulateur d’allocation de ressource pour une frégate. / Resource allocation is an ubiquitous problem that arises whenever limited resources have to be distributed among multiple autonomous entities (e.g., people, companies, robots, etc). The standard approaches to determine the optimal resource allocation are computationally prohibitive. The goal of this thesis is to propose computationally efficient algorithms for allocating consumable and non-consumable resources among autonomous agents whose preferences for these resources are induced by a stochastic process. Towards this end, we have developed new models of planning problems, based on the framework of Markov Decision Processes (MDPs), where the action sets are explicitly parameterized by the available resources. Given these models, we have designed algorithms based on dynamic programming and real-time heuristic search to formulating thus allocations of resources for agents evolving in stochastic environments. In particular, we have used the acyclic property of task creation to decompose the problem of resource allocation. We have also proposed an approximative decomposition strategy, where the agents consider positive and negative interactions as well as simultaneous actions among the agents managing the resources. However, the main contribution of this thesis is the adoption of stochastic real-time heuristic search for a resource allocation. To this end, we have developed an approach based on distributed Q-values with tight bounds to diminish drastically the planning time to formulate the optimal policy. These tight bounds enable to prune the action space for the agents. We show analytically and empirically that our proposed approaches lead to drastic (in many cases, exponential) improvements in computational efficiency over standard planning methods. Finally, we have tested real-time heuristic search in the SADM simulator, a simulator for the resource allocation of a platform.
|
343 |
Conception, construction et validation d'un mécanisme novateur permettant d'effectuer des essais hybrides en temps réel contrôlés en force avec un vérin hydrauliqueLandry-Michaud, Louis January 2015 (has links)
Des recherches récentes démontrent que les normes nord-américaines de construction et de dimensionnement des ponts sous-estiment les efforts engendrés lors de collisions de camions ou de barges avec un pont. La majorité des recherches sont menées par modélisations, puisque l’étude d’une collision pleine échelle est très coûteuse. Afin de mener des recherches au sujet des charges d’impact pour l’étude des mécanismes d’endommagement ainsi que des méthodes de réhabilitation, il serait intéressant qu’une méthode d’essai en laboratoire soit développée. Une façon innovatrice de reproduire ces charges serait de procéder par des tests hybrides en temps réel avec un vérin hydraulique dynamique pour l’application des charges. Or, les charges d’impact sont caractérisées en force et le contrôle en force des vérins hydrauliques dynamiques en boucle fermée cause problème. La problématique
est due à une faible stabilité de contrôle en boucle fermée ainsi qu’une faible
précision des charges appliquées. Ces problèmes peuvent être évités par l’ajout d’un mécanisme flexible entre le vérin et la structure à tester. La déflexion du mécanisme est utilisé comme rétroaction pour contrôler le vérin. En connaissant la rigidité du mécanisme et en contrôlant sa déflexion, un contrôle indirect en force peut être accompli selon la loi de Hooke. Le projet présenté dans ce mémoire consiste à développer et à optimiser un tel mécanisme d’une capacité de [plus ou moins] 50 kN. Son effet sur la stabilité et la performance de la boucle de contrôle est étudié par modélisation et par essais en laboratoire, sa conception et ses principes de fonctionnement sont décrits, son comportement sous sollicitation statique et dynamique est analysé et discuté. Les résultats obtenus montrent l’excellent comportement du prototype sous chargement statique et dynamique ainsi que l’amélioration des performances de contrôle en force avec un vérin hydraulique.
|
344 |
FLCAA : système de codage parcimonieux et d'analyse perceptuelle des signaux sonores en temps réelTremblay-Boucher, Vincent January 2013 (has links)
Ce mémoire débute par un survol de l'état de l’art des méthodes de compositions musicales assistées par ordinateur (MCMAO). À l’aide d'un ensembles critères permettant l’évaluation des méthodes de compositions musicales assistées par ordinateur, on identifie une technique particulièrement prometteuse. Il s’agit d ’un compositeur statistique, présenté par Hoffman et al. en 2008, utilisant les "mel-frquecy cepstral coefficients" (MFCC), un prétraitement inspiré des techniques en reconnaissance de parole. Toutefois, cette technique présente diverses limitations, comme la qualité de reconstruction des signaux, qui l’empêche d'être utilisée pour composer de la musique utilisable professionnellement. Ainsi, ce mémoire tente de bonifier la méthode de composition musicale assistée par ordinateur de Hoffman et al. en remplaçant la technique MFCC d'analyse/synthèse du signal par une technique novatrice d'analyse/synthèse des signaux sonores nommée "Fast Locally competitive algorithm for audio" (FLCAA). Celle-ci permet une analyse perceptuelle parcimonieuse, en temps réel, ayant une bonne résolution fréquencielle et une bonne résolution temporelle. De plus le FLCAA permet une reconstruction robuste de bonne qualité également en temps réel. L’analyse est constituée de deux parties distinctes. La première consiste à utiliser un prétraitement inspiré de l’audition pour transformer le signal sonore afin d'obtenir une représentation cochléaire. Concrètement, la transformation d'analyse est accomplie à l’aide d'un filtrage par banc de filtres cochléaires combiné à un mécanisme de fenêtre coulissante. Le banc de filtres utilisé est composé de filtres cochléaires passe-bande à réponse impulsionnelle finie, de type "rounded exponential" (RoExp). La deuxième étape consiste à coder la représentation cochléaire de manière parcimonieuse afin d'augmenter la résolution spatiale et temporelle pour mettre en évidence certaines caractéristiques du signal comme les fréquences fondamentales, l’information contenue dans les basses fréquences et les signaux transitoires. Cela est fait, en intégrant un réseau de neurones (nommé LCA) utilisant les mécanismes d'inhibition latérale et de seuillage. À partir des coefficients de la représentation perceptuelle, il est possible d'effectuer la transformation de synthèse en utilisant une technique de reconstruction novatrice qui est expliqué en détail dans ce mémoire.
|
345 |
Interpolation temporelle des images avec estimation de mouvement raffinée basée pixel et réduction de l'effet de haloTran, Thi Thuy Ha January 2010 (has links)
Dans le présent travail, après un résumé de l'état de l'art, une nouvelle interpolation temporelle des images avec réduction de halo est proposée. D'abord, pour la télévision de définition standard, une estimation de mouvement dont la résolution est le pixel, est suggérée. L'estimation se fait par l'appariement des blocs, et est suivie par un raffinement basé pixel en considérant des vecteurs de mouvement environnant. La réduction de halo se faisant à l'aide d'une fenêtre glissante de forme adaptative ne recourt pas à une détection explicite des régions d'occlusion. Ensuite, pour la télévision à haute définition, dans le but de réduire la complexité, l'estimation de mouvement de résolution pixel ainsi que la réduction de halo sont généralisées dans le contexte d'une décomposition hiérarchique. L'interpolation finale proposée est générique et est fonction à la fois de la position de l'image et de la fiabilité de l'estimation. Plusieurs . post-traitements pour améliorer la qualité de l'image sont aussi suggérés. L'algorithme proposé intégré dans un ASIC selon la technologie de circuit intégré contemporain fonctionne en temps réel.
|
346 |
Evaluation de nouveaux outils de diagnostic de la tuberculose bovine : Conditions d'utilisation d'un test de dosage d'IFNγ et d'un test PCR IS6110 en temps réelFaye, Sandy 06 October 2010 (has links) (PDF)
Face à une recrudescence préoccupante depuis 2004 des cas de tuberculose bovine (Tb) en Dordogne et du fait des défauts diagnostiques des méthodes de détection classiques comme l'intradermotuberculination simple (IDS), la bactériologie ou l'inspection systématique des carcasses à l'abattoir, deux nouveaux outils de diagnostic rapide, (i) le test de dosage d'interféron gamma (IFNγ) Bovigam® modifié, basé sur des dérivés protéiques purifiés bovins et aviaires (PPD) et des antigènes recombinants spécifiques, ESAT6 et CFP10 (R) et, (ii) une méthode PCR en temps réel basée sur la détection de la séquence d'insertion IS6110 (PCR), ont été intégrés dans le dispositif de lutte afin d'évaluer leurs utilités diagnostiques. Les différentes études réalisées ont montré que la méthode PCR est au moins aussi sensible que la bactériologie. Sa spécificité opérationnelle est très satisfaisante et sa valeur prédictive positive est excellente vis-à-vis de la bactériologie et l'histologie. Elle constitue donc un outil rapide et fiable de diagnostic de la Tb permettant, en complément d'une tuberculination ou une histologie positive, d'éviter d'attendre le résultat bactériologique pour déclarer l'infection. Elle permet ainsi de raccourcir considérablement les délais de confirmation définitive de l'infection (de 2,5 mois), ce qui constitue un avantage opérationnel crucial. L'application du test IFNγ modifié comme outil de confirmation des IDS non-négatives n'est pas parfait mais sa complémentarité vis-à-vis de l'IDS en fait un atout indéniable. D'un point de vue technique, un mode de calcul normalisé des résultats individuels doit être utilisé pour obtenir une meilleure reproductibilité et donc pouvoir établir des comparaisons intra et inter laboratoires. De plus, il est nécessaire d'adapter les critères d'analyse (seuils décisionnels des formules normalisées et méthodes d'interprétation du résultat final) au statut infectieux régional d'une part, (région de faible ou forte prévalence de Tb, réactions non-spécifiques rares ou fréquentes) et, aux conditions d'application du test d'autre part (dans la population générale ou dans une population d'IDS non-négatives), pour une utilisation appropriée du test IFNγ. Ces résultats satisfaisants ont conduit en août 2009 à la reconnaissance règlementaire des tests PCR IS6110 et IFNγ modifié comme outils de confirmation de l'infection de Tb et des IDS non-négatives respectivement.
|
347 |
Navigation sûre en environnement dynamique : une approche par planification de mouvement partielPetti, Stéphane Renaud 11 July 2007 (has links) (PDF)
Notre travail aborde le problème de navigation autonome en milieu dynamique partiellement connu. Ce problème a généré de nombreux travaux durant les dix dernières années. Néanmoins, nous avons observé que certains aspect fondamentaux liés à la nature dynamique de l'environnement ont été oubliés, en commençant par la limite de temps qu'un système placé dans un environnement dynamique a, pour prendre une décision et exécuter son mouvement. Bien que cette contrainte soit d'importance cruciale, il y a paradoxalement peu de travaux dans la littérature la prennent en compte. Cette contrainte temps réel a été placée au cœur de notre travail. Dans ce travail nous présentons une technique de planification qui prend en compte de manière explicite la contrainte temps réel imposée par l'environnement dynamique. La planification de mouvement partiel (PMP) est une technique originale de planification qui réagit à tout moment; dès que le temps imparti pour calculer une trajectoire est écoulé, la meilleure trajectoire calculée disponible est transmise. En fait, de notre point de vue, l'approche PMP est la meilleure approche possible au problème que nous avons observé, à savoir l'incompatibilité intrinsèque entre la planification en environnement dynamique et la contrainte temps réelle. PMP intègre également le problème de sûreté, que nous considérons d'un point de vue des états de collisions inévitables (ICS), concept récent qui englobe toutes les approches existantes et de proposer une technique qui donne de fortes garanties de sûreté pour notre système. Enfin, dans ce travail, nous démontrons l'efficacité de notre approche PMP pour des environnements relativement complexes. Plusieurs expérience ont été mises en œuvre où PMP a ainsi été intégré sur une plate forme réelle, le robot type voiture Cycab, véhicule conçu par l'INRIA.
|
348 |
Matrice d'électrodes intelligentes : un outil pour améliorer les performances spatiotemporelles des systèmes hybrides (vivant-artificiel), en boucle fermée et en temps réelBontorin, Guilherme 24 September 2010 (has links) (PDF)
Cette thèse présente un système bioélectronique prometteur, l'Hynet. Ce Réseau Hybride (vivant-artificiel) est conçu pour l'étude du comportement à long terme des cellules électrogénératrices, comme les neurones et les cellules betas, en deux aspects : l'individuel et en réseau. Il est basé sur une boucle fermée et sur la communication en temps réel entre la culture cellulaire et une unité artificielle (Matériel, Logiciel). Le premier Hynet utilise des Matrices d'électrodes (MEA) commerciales qui limitent les performances spatiotemporelles du Hynet. Une nouvelle Matrice d'électrodes intelligente (iMEA) est développée. Ce nouveau circuit intégré, analogique et mixte, fournit une interface à forte densité, à forte échelle et adaptative avec la culture. Le nouveau système améliore le traitement des données en temps réel et une acquisition faible bruit du signal extracellulaire.
|
349 |
A distributed and scalable architecture for real time volumetric reconstruction of arbitrary shapes exploiting inter-frame redundancy / Une architecture distribuée et modulable exploitant la redondance temporelle pour la reconstruction volumétrique et temps réels d’objets de forme arbitraireRuiz, Diego 06 May 2008 (has links)
The three-dimensional structure of the world makes 3D as the natural evolution of a huge panel of applications. Many different 3D reconstruction algorithms have been implemented to meet different application needs. We target immersive applications. The reconstructed models of users and objects are inserted in 3D virtual environments creating the mixed reality, which is rendered on spatially immersive displays. The user sees its model on the projection walls, allowing him to interact with elements of the virtual world.
Immersion requires small latency, high reconstruction rates and non-invasive systems. Furthermore, we choose to reconstruct arbitrary shapes with a geometric method. The review of the state of the art shows that all the acquisition devices cannot be connected to a single computer performing real time reconstruction. The system needs a cluster of computers and a strategy to share information between them.
We present a distributed and scalable architecture for real time reconstruction of arbitrary shapes exploiting inter-frame redundancy. The architecture is composed of acquisition nodes and master nodes. Each acquisition node reconstructs partial models from its attached cameras and sends non-redundant information to its master. Each master node merges several partial models. The output of several masters can be merged by another master. We exploit the properties of volumetric algorithms, i.e. an efficient exploitation of inter-frame redundancy and an efficient merging of partial models, to increase performances.
We test our volumetric architecture with an innovative implementation of the visual hull. We use a label that codes simultaneously occupancy, subdivision of space and visibility allowing each camera to see only part of the volume of interest. We test our system on a particular implementation of the framework composed of eight cameras and twelve cores, two per acquisition node and four for the master. We achieve fifteen reconstructions per second and less than 100 ms latency from segmentation to the display of the reconstructed model. System performances have been measured on sequences of more than 20 000 frames with unconstrained user’s movements. The system computes a fair approximation of the user in all situations. / La structure tridimensionnelle du monde fait de la 3D l’évolution naturelle d’un grand nombre d’applications. De nombreux algorithmes de reconstruction différents ont été développés pour satisfaire les besoins de différents types d’applications.
On cible les applications immersives: Les modèles reconstruits de l’utilisateur ainsi que des objets qu’il porte sont insérés dans des environnements virtuels créant ainsi la réalité mixte. Cette dernière est affichée ce qui permet à l’utilisateur d’interagir avec des éléments virtuels.
Le caractère immersif de l’application requiert une reconstruction temps réel à faible latence. Qui plus est, on désire la reconstruction de modèles de formes arbitraires à l’aide de méthodes géométriques. L’état de l’art montre que les différentes caméras ne peuvent pas être connectées à un seul ordinateur responsable de la reconstruction 3D. L’application requiert un cluster d’ordinateurs et une méthode étudiée afin de répartir la charge de travail et d’optimiser les performances.
J’ai développé au cours de ma thèse une architecture volumétrique distribuée pour reconstruire des objets de forme arbitraire en temps réel et avec faible latence. Le système exploite les propriétés des algorithmes volumétriques pour améliorer les performances. Il est composé de deux types de nœuds: acquisition et fusion. Les nœuds de type acquisition reconstruisent des modèles partiels et envoient des informations non redondantes aux nœuds de type fusion. Chaque nœud fusion est responsable de la création d’un modèle global à partir de plusieurs modèles partiels. Grâce aux algorithmes développés, chaque étape de fusion rassemble les informations de plusieurs modèles partiels tout en ayant un impact faible sur la latence totale du système.
L’architecture a été testée avec une implémentation particulière du Visual Hull permettant une disposition plus libre des caméras. Ces dernières ne doivent plus observer l’entièreté du volume d’intérêt. Chaque partie de l’utilisateur est modélisée grâce aux caméras qui l’observent. Notre système dispose de quatre nœuds d’acquisitions dual core et d’un nœud de fusion dual CPU dual core. On reconstruit quinze modèles par seconde avec une latence inférieure à 100 ms mesurée depuis la segmentation jusqu’au rendu. Quelques soient les mouvements de l’utilisateur et les objets qu’il manipule, le système est capable de le modéliser.
|
350 |
Gestion Énergétique optimisée pour un bâtiment intelligent multi-sources multi-charges : différents principes de validationsMissaoui Badreddine, Rim 06 July 2012 (has links) (PDF)
Le bâtiment est un noeud énergétique important et un support idéal pour développer et analyser les effets d'un système de gestion optimisée d'énergie (SGEB) tant son impact potentiel sur la demande énergétique globale est important. Cependant, pour que ces objectifs soient atteints, plusieurs verrous doivent être levés. Au-delà des problématiques liées à l'architecture de distribution, aux modèles (y compris ceux relatifs au comportement des usagers), aux outils de dimensionnement, à la formalisation des paramètres, contraintes et critères, aux systèmes de production et aux modes de connexions au réseau de distribution, les problèmes liés à la mise en oeuvre d'un outil de gestion décentralisée et à sa validation sont centraux centrale. Ces travaux s'inscrivent directement dans cette optique. Ils portent en particulier sur l'élaboration de modèles énergétiques, de stratégies de gestion d'énergie dans une configuration multi-sources et multi-charges et surtout de mise en oeuvre de méthodes et d'outils de validation au travers de bancs tests variés où certains composants peuvent être réels. Ce travail analyse le gestionnaire énergétique " G-homeTech " comprenant plusieurs fonctionnalités de gestion testées sur des bancs d'essai virtuels et hybrides qui permettent de combiner à la fois des composants matériels et logiciels dans les simulations. Cela a permis d'insérer des actionneurs communicants pour tester leur pertinence. Les validations menées montrent que le gestionnaire énergétique permet l'effacement de pointes de consommation et des économies sur la facture énergétique globale tout en respectant les contraintes techniques et réglementaires. Les évènements prédits ne sont pas toujours ceux qui se produisent. Nous avons alors simulé de telles situations. La radiation solaire et la consommation totale des services non contrôlables sont différentes de celles prédites. Cette différence a conduit à des dépassements de puissance électrique souscrite qui a activé le mécanisme de gestion réactive du gestionnaire énergétique. Des ordres de délestage sont alors dynamiquement envoyés à certains équipements. Ces ordres alimentent directement les modèles des équipements électriques. Selon les importances relatives données au coût et au confort, nous avons montré que le gestionnaire énergétique permet de faire des économies substantielles en évitant les consommations durant les pics de prix et évitant les dépassements de souscription par effacement, par modulation du fonctionnement des systèmes de chauffage et par décalage de fonctionnement des services temporaires dans les périodes plus intéressante énergétiquement.
|
Page generated in 0.1014 seconds