• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 59
  • 52
  • 13
  • Tagged with
  • 126
  • 98
  • 68
  • 26
  • 24
  • 23
  • 21
  • 21
  • 20
  • 20
  • 20
  • 19
  • 17
  • 14
  • 13
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Compression et transmission d'images avec énergie minimale application aux capteurs sans fil

Mammeri, Abdelhamid January 2010 (has links)
Un réseau de capteurs d'images sans fil (RCISF) est un réseau ad hoc formé d'un ensemble de noeuds autonomes dotés chacun d'une petite caméra, communiquant entre eux sans liaison filaire et sans l'utilisation d'une infrastructure établie, ni d'une gestion de réseau centralisée. Leur utilité semble majeure dans plusieurs domaines, notamment en médecine et en environnement. La conception d'une chaîne de compression et de transmission sans fil pour un RCISF pose de véritables défis. L'origine de ces derniers est liée principalement à la limitation des ressources des capteurs (batterie faible , capacité de traitement et mémoire limitées). L'objectif de cette thèse consiste à explorer des stratégies permettant d'améliorer l'efficacité énergétique des RCISF, notamment lors de la compression et de la transmission des images. Inéluctablement, l'application des normes usuelles telles que JPEG ou JPEG2000 est éner- givore, et limite ainsi la longévité des RCISF. Cela nécessite leur adaptation aux contraintes imposées par les RCISF. Pour cela, nous avons analysé en premier lieu, la faisabilité d'adapter JPEG au contexte où les ressources énergétiques sont très limitées. Les travaux menés sur cet aspect nous permettent de proposer trois solutions. La première solution est basée sur la propriété de compactage de l'énergie de la Transformée en Cosinus Discrète (TCD). Cette propriété permet d'éliminer la redondance dans une image sans trop altérer sa qualité, tout en gagnant en énergie. La réduction de l'énergie par l'utilisation des régions d'intérêts représente la deuxième solution explorée dans cette thèse. Finalement, nous avons proposé un schéma basé sur la compression et la transmission progressive, permettant ainsi d'avoir une idée générale sur l'image cible sans envoyer son contenu entier. En outre, pour une transmission non énergivore, nous avons opté pour la solution suivante. N'envoyer fiablement que les basses fréquences et les régions d'intérêt d'une image. Les hautes fréquences et les régions de moindre intérêt sont envoyées""infiablement"", car leur pertes n'altèrent que légèrement la qualité de l'image. Pour cela, des modèles de priorisation ont été comparés puis adaptés à nos besoins. En second lieu, nous avons étudié l'approche par ondelettes (wavelets ). Plus précisément, nous avons analysé plusieurs filtres d'ondelettes et déterminé les ondelettes les plus adéquates pour assurer une faible consommation en énergie, tout en gardant une bonne qualité de l'image reconstruite à la station de base. Pour estimer l'énergie consommée par un capteur durant chaque étape de la 'compression, un modèle mathématique est développé pour chaque transformée (TCD ou ondelette). Ces modèles, qui ne tiennent pas compte de la complexité de l'implémentation, sont basés sur le nombre d'opérations de base exécutées à chaque étape de la compression.
32

L'ajustement de faisceaux contraint comme cadre d'unification des méthodes de localisation : application à la réalité augmentée sur des objets 3D

Tamaazousti, Mohamed 13 March 2013 (has links) (PDF)
Les travaux réalisés au cours de cette thèse s'inscrivent dans la problématique de localisation en temps réel d'une caméra par vision monoculaire. Dans la littérature, il existe différentes méthodes qui peuvent être classées en trois catégories. La première catégorie de méthodes considère une caméra évoluant dans un environnement complètement inconnu (SLAM). Cette méthode réalise une reconstruction enligne de primitives observées dans des images d'une séquence vidéo et utilise cette reconstruction pour localiser la caméra. Les deux autres permettent une localisation par rapport à un objet 3D de la scène en s'appuyant sur la connaissance, a priori, d'un modèle de cet objet (suivi basé modèle). L'une utilise uniquement l'information du modèle 3D de l'objet pour localiser la caméra, l'autre peut être considérée comme l'intermédiaire entre le SLAM et le suivi basé modèle. Cette dernière méthode consiste à localiser une caméra par rapport à un objet en utilisant, d'une part, le modèle de ce dernier et d'autre part, une reconstruction en ligne des primitives de l'objet d'intérêt. Cette reconstruction peut être assimilée à une mise à jour du modèle initial (suivi basé modèle avec mise à jour). Chacune de ces méthodes possède des avantages et des inconvénients. Dans le cadre de ces travaux de thèse, nous proposons une solution unifiant l'ensemble de ces méthodes de localisation dans un unique cadre désigné sous le terme de SLAM contraint. Cette solution, qui unifie ces différentes méthodes, permet de tirer profit de leurs avantages tout en limitant leurs inconvénients respectifs. En particulier, nous considérons que la caméra évolue dans un environnement partiellement connu, c'est-à-dire pour lequel un modèle (géométrique ou photométrique) 3D d'un objet statique de la scène est disponible. L'objectif est alors d'estimer de manière précise la pose de la caméra par rapport à cet objet 3D. L'information absolue issue du modèle 3D de l'objet d'intérêt est utilisée pour améliorer la localisation de type SLAM en incluant cette information additionnelle directement dans le processus d'ajustement de faisceaux. Afin de pouvoir gérer un large panel d'objets 3D et de scènes, plusieurs types de contraintes sont proposées dans ce mémoire. Ces différentes contraintes sont regroupées en deux approches. La première permet d'unifier les méthodes SLAM et de suivi basé modèle, en contraignant le déplacement de la caméra via la projection de primitives existantes extraites du modèle 3D dans les images. La seconde unifie les méthodes SLAM et de suivi basé modèle avec mise à jour en contraignant les primitives reconstruites par le SLAM à appartenir à la surface du modèle (unification SLAM et mise à jour du modèle). Les avantages de ces différents ajustements de faisceaux contraints, en terme de précision, de stabilité de recalage et de robustesse aux occultations, sont démontrés sur un grand nombre de données de synthèse et de données réelles. Des applications temps réel de réalité augmentée sont également présentées sur différents types d'objets 3D. Ces travaux ont fait l'objet de 4 publications internationales, de 2 publications nationales et d'un dépôt de brevet.
33

Perfectionnement de métaheuristiques pour l'optimisation continue

Boussaid, Ilhem 29 June 2013 (has links) (PDF)
Les métaheuristiques sont des algorithmes génériques, souvent inspirés de la nature, conçues pour résoudre des problèmes d'optimisation complexes. Parmi les métaheuristiques les plus récentes, nous retenons celle basée sur la théorie de la biogéographie insulaire: Biogeography-based optimization (BBO).Dans cette thèse, nous considérons à la fois les problèmes d'optimisation globale à variables continues avec et sans contraintes. De nouvelles versions hybrides de BBO sont proposées comme des solutions très prometteuses pour résoudre les problèmes considérés. Les méthodes proposées visent à pallier les inconvénients de la convergence lente et du manque de diversité de l'algorithme BBO. Dans la première partie de cette thèse, nous présentons la méthode que nous avons développée, issue d'une hybridation de BBO avec l'évolution différentielle (DE) pour résoudre des problèmes d'optimisation sans contraintes. Nous montrons que les résultats de l'algorithme proposé sont plus précis, notamment pour des problèmes multimodaux, qui sont parmi les problèmes les plus difficiles pour de nombreux algorithmes d'optimisation. Pour résoudre des problèmes d'optimisation sous contraintes, nous proposons trois nouvelles variantes de BBO. Des expérimentations ont été menées pour rendre compte de l'utilité des méthodes proposées. Dans une deuxième partie, nous nous intéressons à l'étude des capacités des méthodes proposées à résoudre des problèmes d'optimisation, issus du monde réel. Nous nous proposons d'abord de résoudre le problème d'allocation optimale de puissance pour la détection décentralisée d'un signal déterministe dans un réseau de capteurs sans fil, compte tenu des fortes contraintes en ressources énergétiques et en bande passante des noeuds répartis. L'objectif est de minimiser la puissance totale allouée aux capteurs, tout en gardant la probabilité d'erreur de détection au dessous d'un seuil requis. Dans un deuxième temps, nous nous focalisons sur la segmentation d'images en niveaux de gris par seuillage multi-niveaux. Les seuils sont déterminés de manière à maximiser l'entropie floue. Ce problème d'optimisation est résolu en appliquant une variante de BBO (DBBO-Fuzzy) que nous avons développée. Nous montrons l'efficacité de la méthode proposée aux travers de résultats expérimentaux
34

Knowledge-based system for collaborative process specification / Conception assistée par ordinateur de modèles de processus entre entreprises basée sur une ontologie de collaboration

Rajsiri, Vatcharaphun 03 March 2009 (has links)
Le marché industriel est aujourd’hui de plus en plus dynamique et compétitif. Cette tendance évolutive de l’écosystème amène les entreprises à prendre part à un nombre croissant de réseaux industriels, dans l’optique de maintenir leur activité et d’accroître leur compétitivité. La qualité d’interaction et de collaboration de partenaires de ces réseaux dépend grandement de la capacité de leurs systèmes d’information (SIs) respectifs à gérer et à partager les informations. Le projet MISE (Mediation Information System Engineering) relève pleinement de cette problématique en proposant une approche de conception d’une solution (conceptuelle et technologique) pour le support de l’interopérabilité d’entreprises au travers de leurs SIs. Ce projet s’appuie sur la notion de MDE (Model-Driven Engineering) et s’articule autour de trois niveaux : métier, logique et technologique. Les travaux de! thèse dont il est ici question relèvent du niveau métier en présentant une démarche d’obtention d’un modèle indépendant de toute implémentation (CIM pour Computer Independent Model). Il s’agit en particulier de s’appuyer sur un système basé sur la gestion de connaissance pour concevoir des processus collaboratifs en BPMN (Business Process Modelling Notation). En se positionnant à un niveau d’abstraction au dessus de celui du CIM, on peut capitaliser, manipuler et raisonner une connaissance permettant d’une part de caractériser des collaborations et d’autre part de mettre en place des mécanismes de déduction pour descendre au niveau de CIM. Ces principes sont en outre illustrés par le biais d’un prototype développé pour valider l’approche. / Enterprises are now operating in an environment where market is more open, globalized, and competitive. Changes in market conditions are obliging enterprises to become involved in various kinds of industrial networks in order to maintain their business efficiency. The integration of business partners depends deeply on the ability to capture and share information seamlessly amongst the information systems (ISs) of different enterprises. The MISE (Mediation Information System Engineering) project was evolved in order to tackle this problem by providing an information technology solution for supporting the enterprise interoperability through ISs. It is developed on the basis of the MDE (Model Driven Engineering). This dissertation addresses the business level of the interoperability, and the CIM (Computer Independent Model) of the MDE. Its main objective is to develop a knowledge-based system for supporting the design of collabora! tive processes that conform to the BPMN (Business Process Modeling Notation). We propose to work at the upper level of the CIM to capture knowledge that allows us to characterize collaboration by basing on the perspectives and experiences of business partners. We use this knowledge together with the existing knowledge (instances about business processes) from the MIT Process Handbook for moving down to the CIM level. The prototype of our knowledge-based system is also developed in order to validate and evaluate the approach.
35

Level of Detail in Agent Societies in Games / Approche par niveau de détail pour l'IA des jeux vidéos

Mahdi, Ghulam 21 May 2013 (has links)
Aujourd'hui, l'intelligence artificielle (IA) est une composante essentielle d'un jeu vidéo et de plus en plus d'efforts sont portés sur cet aspect afin de rendre les jeux plus ludiques et plus immersifs. Cette amélioration va cependant de pair avec une augmentation sans cesse croissante des ressources informatiques nécessaires au fonctionnement de l'IA. De fait, il arrive que ces besoins soient si importants qu'ils dégradent le taux de rafraîchissement (TR) du jeu et ainsi la qualité d'expérience (QoE) du joueur. Dans ce contexte, notre objectif est de de maintenir le TR au dessus d'un certain seuil en modulant la quantité de ressources requises par l'IA. Pour ce faire, nous proposons de donner la possibilité au programmeur de définir plusieurs niveaux de détails pour l'IA (Level Of Details LOD), à l'instar de ce qui se fait pour afficher une scène graphique.Les travaux utilisant ce type d'approches proposent généralement d'utiliser des critères de distance à la caméra et de visibilité. Cependant, élaborés dans le contexte du rendu graphique, ces critères sont finalement assez peu adaptés au contexte IA car ils ne permettent pas toujours de rendre compte de l'importance réelle d'un personnage pour le joueur. Dans cette thèse, nous proposons d'utiliser des concepts organisationnels tels que le groupe et le rôle pour définir l'importance d'un personnage pour l'IA. De cette façon, un jeu vidéo est considéré comme une société d'agents (les personnages du jeu) dont l'importance individuelle ou collective est déterminée en fonction de leurs positions dans l'organisation, ce qui permet de déterminer une distribution des ressources de calcul disponibles adaptée : les entités les plus importantes dans l'histoire du jeu sont privilégiées.Notre approche a été implémentée et intégrée au moteur de jeu AGDE (Moteur Agent de développement du jeu). L'évaluation expérimentale a été réalisée à l'aide d'un système de mesures répétées pour évaluer la différence entre les QoE d'un jeu avec et sans notre approche. / In recent years there have been many efforts to develop original video games by improving both their aesthetic and mechanics. The more the mechanics is rich and realistic, the more advanced models of programming are required. However, using advanced models of programming such as agent-oriented programming often comes with an overhead in terms of computational resources. Furthermore, this overhead on computational resources may degrade the frame rate and subsequently quality of experience (QoE) for the players.In this context, our aim is to propose the QoE support means for ensuring that, in any case, the frame rate does not fall below a given lower bound. We suggest adapting the amount of time allocated for agents depending upon the importance of their organization roles. In this regard, we use a level of detail (LoD) approach to compute the dynamics of the game.LoD in game AI is based on the idea to use the most of the computational effort on the game characters that are the most important to the player(s). One critical issue in LoD for game AI is to determine the criterion for defining the importance of game characters. Existing work propose to use the criteria of camera distance and visibility. However such criteria have been developed from the perspective of graphics. In this thesis, we have used the roles played by the game characters (in the context of a video game) as the criterion for determining their importance. In this way, a video game has been considered as an agent society, where the game characters get priority and relatively higher share in distribution of the computational resources based on their relative importance in the game story.Our approach has been implemented and integrated to the AGDE (Agent Game Development Engine) game engine. The experimental evaluation has been carried out using a repeated measure scheme to assess the difference in QoE metrics between a game implemented our approach and a control game. The null hypothesizes have been rejected using t-paired test: the players have found significant positive difference in the QoE.
36

Development and experimental validation of vibration based damage indicator on a specific twin-wall sandwich structure / Développement et validation expérimentale d'indicateur d'endommagement basé sur la réponse vibratoire de structures sandwichs

Hui, Yi 30 November 2018 (has links)
La surveillance de santé structurale (SHM) a attiré beaucoup d'attention dans de nombreux domaines tels que l'industrie civile, aéronautique, mécanique, etc., car il est important de surveiller l'état de la structure afin d'éviter des défaillances structurelles imprévues. Le processus d'identification des endommagements à quatre niveaux: existence, localisation, sévérité et prédiction de l'évolution des endommagements peut être partiellement réalisé si un propre indicateur est bien choisi. Il existe différents indicateurs d'endommagements dont la gamme d'application de la fréquence s'étend de la réponse vibratoire à basses fréquences aux régimes ultrasoniques dans la gamme méga hertz.Les structures sandwich sont largement utilisées dans diverses applications d'ingénierie en raison de son rapport rigidité / poids exceptionnellement élevé par rapport aux structures monocoques. Dans ce travail, une structure sandwich a été étudiée et des indicateurs basés sur la réponse vibratoire ont été conçus en utilisant ses caractéristiques de directivité de propagation et d'amortissement relativement élevé de la structure. Des investigations numériques sur différents scénarios d'endommagement (càd, différents types d'endommagement et leurs combinaisons) et une discussion associée sur la plage d'application ont d'abord été effectuées. La configuration expérimentale a été facilement réalisée à l'aide d'un vibromètre laser à balayage Doppler (SLDV). L'endommagement a été détecté avec succès par les indicateurs proposés. / Structural health monitoring (SHM) has attracted much attention in many engineering fields like civil, aeronautic, mechanical industry, etc. since it is important to monitor the healthy condition of the operational structure in order to avoid unpredicted structural failure which may have severe consequences. The four-level damage identification process: existence, localization, severity and prediction of damage evolution, can be partly realized if a suitable indicator is chosen. It exists different damage indicators whose application range of frequency spans from vibrational response at low frequencies to the ultrasonic regimes in the mega hertz range.The sandwich structures are widely used in various engineering applications due to its exceptionally high flexural stiffness-to-weight ratio compared to monocoque structures. In this thesis a specified twin-wall sandwich structure in polypropylene was studied and vibration-based indicators were designed by taking use of its relative high damping and propagation directivity characteristics. Numerical investigations on different damage scenarios (i.e., different types of defect and their combinations) and an associated discussion on the range of application were first carried out. Experimental configuration was easily realized with the help of a scanning laser doppler vibrometer (SLDV). Defect was successfully detected by the proposed indicators.
37

Managing Extra-Functional Properties in Component-Based Development of Embedded Systems / Gestion des propriétés extra-fonctionnelles dans le développement basé "composant" de systèmes embarqués

Sentilles, Séverine 11 June 2012 (has links)
L’accroissement continu de la complexité des systèmes embarqués pose un problème majeur pour leur développement lequel doit aussi prendre en compte les exigences extra-fonctionnelles et les contraintes du domaine telles que la limitation et le partage des ressources, la distribution, et les contraintes temporelles et de fiabilité. De ce fait, les systèmes embarqués requièrent de nouvelles solutions pouvant efficacement et de manière prévisible répondre à l’ensemble de ces besoins. L’ingénierie logicielle basée composants est un paradigme qui a déjà démontré des aptitudes pour appréhender la complexité logicielle. Cependant, pour supporter de manière efficace les propriétés extra-fonctionnelles, un modèle de composants doit posséder des mécanismes spécifiques. L’objectif de cette thèse est de construire un tel support. Pour ce faire, nous avons analysé de manière systématique des modèles de composants existants à ce jour et identifié des challenges relatifs à la réalisation d’une approche basée composants dédiée au développement des systèmes embarqués. S’appuyant sur ces challenges, nous avons avancé l’état de l’art en développant ProCom, un nouveau modèle de composants qui répond aux attentes des systèmes embarqués au travers de sa sémantique d’exécution et de sa structuration en niveaux. Centré autour de ProCom, nous avons aussi développé PRIDE, son environnement de développement intégré. PRIDE couvre le procédé de développement des premières phases de spécification jusqu’à la synthèse et le déploiement et fournit des moyens d’intégrer différents outils d’analyse et de vérification. La contribution principale de cette thèse réside dans la modélisation et la réalisation d’un support pour la gestion des propriétés extra-fonctionnelles pour les systèmes embarqués construits à base de composants logiciels. Ce support facilite la spécification, le management et l’intégration de propriétés multi-valuées tenant compte du contexte dans lequel elles ont été établies. Les propriétés peuvent être attachées aux éléments architecturaux des modèles de composants et leurs valeurs peuvent être comparées et raffinées durant le développement. En particulier, le fait d’avoir des valeurs multiples avec leur contexte d’évaluation permet de comparer des valeurs provenant de différentes sources. Les concepts proposés ont été illustrés au travers d’exemples représentatifs de systèmes. / The continuously increasing complexity of embedded systems is a major issue for their development, which, in addition, must also consider specific extra-functional requirements and constraints, such as limited and shared resources, distribution, timing, and dependability. Thus, embedded systems call for development solutions that can efficiently and predictably cope with these issues. Component-based software engineering is a proven paradigm to handle complexity. Yet, for efficiently managing extra-functional properties, a component model needs to have dedicated mechanisms that provide a suitable support for their management. The objective of this thesis is to build this support. We have performed a systematic analysis of existing component models and identified challenges of applying a component-based approach to embedded system development. Based on these challenges we have advanced the current state-of-the-art by developing a new component model, called ProCom, that accommodates the specifics of embedded systems through its well-defined execution semantics and layered structure. Centered around ProCom, we have also developed PRIDE, the ProCom Integrated Development Environment. PRIDE supports the development from early specification to synthesis and deployment, providing the means to aggregate various analysis and verification tools. The main contribution of the thesis is in the design and implementation of an extra-functional property management framework that enables to seamlessly specify, manage and integrate multi-valued context-aware extra-functional properties of component-based embedded systems. Properties can be attached to architectural elements of component models and their values can be compared and refined during the development process. In particular, having multiple context-aware values allows values from different sources to be compared. The proposed concepts have been demonstrated on several representative example systems.
38

Verification and test of interoperability security policies / Vérification et test des politiques de sécurité d'interopérabilité

El Maarabani, Mazen 29 May 2012 (has links)
De nos jours, divers systèmes ou organisations peuvent collaborer et échanger des informations ou des services. Ainsi grâce à cette collaboration, ces derniers vont pouvoir travailler ensemble et mener des échanges afin d'atteindre un but commun. Ceci ne peut pas être réalisé sans des problèmes de sécurité. Pour collaborer chaque participant doit définir une politique d'interopérabilité. Cette politique sera en charge de : (i) définir les informations et les ressources partageables et (ii) définir les privilèges d'accès des utilisateurs qui participent à un projet commun qui nécessite une collaboration. Pour garantir un certain niveau de sécurité, il est indispensable de vérifier si le comportement des systèmes des différents participants respecte bien leurs politiques de sécurité. Pour atteindre cet objectif, nous proposons une méthode pour tester les politiques d'interopérabilité en se basant sur deux approches différentes de test : l'approche active et l'approche passive. Le principe de test actif consiste à générer automatiquement une suite de scenarios de test qui peuvent être appliqués sur un système sous test pour étudier sa conformité par rapport à ses besoins en matière de sécurité. Quant au test passif, il consiste à observer passivement le système sous test sans interrompre le flux normal de ses opérations. Dans notre étude nous avons remarqué que les techniques de test actif et passif sont complémentaires pour tester les politiques d'interopérabilité contextuelles. Une politique est dite contextuelle si l'activation de chacune de ses règles est conditionnée par des contraintes qui peuvent être liées à l'environnement de la collaboration ou à chaque participant. Afin de pouvoir générer automatiquement les scenarios de test, il est indispensable de modéliser les politiques d'interopérabilité et le comportement fonctionnel des participants. Dans cette thèse, nous proposons une méthode pour intégrer les politiques d'interopérabilité dans les modèles fonctionnels des participants afin d'obtenir un modèle sécurisé des participants. Le comportement fonctionnel des participants est modélisé par un modèle formel basé sur des automates à états finis. Tandis que les besoins de sécurité sont spécifiés en utilisant le modèle formel OrBAC et son extension O2O. De plus, nous proposons une méthode fondée sur la technique de model checking pour vérifier si le comportement des modèles utilisés dans notre processus de test respecte bien les politiques de sécurité. La génération de cas de test est ensuite effectuée en utilisant un outil développé dans notre laboratoire. Cet outil permet d'obtenir des cas de test abstraits décrits dans des notations standards (TTCN) facilitant ainsi leur portabilité. Dans l'approche de test passif, nous spécifions la politique d'interopérabilité que le système doit respecter en utilisant un langage temporel de premier ordre. Nous analysons ensuite les traces d'exécutions des participants afin d'élaborer un verdict sur leur conformité par rapport à la politique d'interopérabilité. Finalement, nous avons appliqué nos méthodes sur un cas d'usage d’un réseau hospitalier. Cette application permet de démontrer l’efficacité et la fiabilité des approches proposées / Nowadays, there is an increasing need for interaction in business community. In such context, organizations collaborate with each other in order to achieve a common goal. In such environment, each organization has to design and implement an interoperability security policy. This policy has two objectives: (i) it specifies the information or the resources to be shared during the collaboration and (ii) it define the privileges of the organizations’ users. To guarantee a certain level of security, it is mandatory to check whether the organizations’ information systems behave as required by the interoperability security policy. In this thesis we propose a method to test the behavior of a system with respect to its interoperability security policies. Our methodology is based on two approaches: active testing approach and passive testing approach. We found that these two approaches are complementary when checking contextual interoperability security policies. Let us mention that a security policy is said to be contextual if the activation of each security rule is constrained with conditions. The active testing consists in generating a set of test cases from a formal model. Thus, we first propose a method to integrate the interoperability security policies in a formal model. This model specifies the functional behavior of an organization. The functional model is represented using the Extended Finite Automata formalism, whereas the interoperability security policies are specified using OrBAC model and its extension O2O. In addition, we propose a model checking based method to check whether the behavior of a model respects some interoperability security policies. To generate the test cases, we used a dedicated tool developed in our department. The tool allows generating abstract test cases expressed in the TTCN notation to facilitate its portability. In passive testing approach, we specify the interoperability policy, that the system under test has to respect, with Linear Temporal logics. We analyze then the collected traces of the system execution in order to deduce a verdict on their conformity with respect to the interoperability policy. Finally, we show the applicability of our methods though a hospital network case study. This application allows to demonstrate the effectiveness and reliability of the proposed approaches
39

Traitement d'antenne adapté aux modèles linéaires intégrant une interférence structurée. Application aux signaux mécaniques.

Bouleux, Guillaume 04 December 2007 (has links) (PDF)
Le cadre d'étude de ce travail est celui du traitement d'antenne appliqué au modèle linéaire. Dans divers domaines, comme en bio-médical ou encore en RADAR, le nombre de Directions D'Arrivées (DDA) d'intérêts est un ensemble réduit de toutes les directions constituant le modèle. Nous optons donc pour un modèle structuré s'écrivant <br /><br />Observation = Signal d'intérêt + Interférence structurée + Bruit<br /><br />Où l'interférence structurée est composée d'un certain nombre de Directions D'Arrivées connues ou estimées. De ce modèle, nous proposons deux types d'approches : (1) nous supposons disposer de la connaissance de M-S DDA sur un total de M et (2) nous souhaitons estimer de manière séquentielle M DDA.<br /><br />La littérature fournit des solutions pour résoudre le problème d'estimation de S DDA d'intérêts sur un total de M. Les solutions proposées utilisent une déflation orthogonale du sous-espace signal bruité. Nous donnons alors une nouvelle Borne de Cramér-Rao (CRB) que nous nommons Prior-CRB associée à ce type modèle et nous montrons sous quelles conditions (très restrictives) cette borne est inférieure à une CRB classique issue du modèle linéaire composé de M DDA. Pour s'absoudre des contraintes liées au modèle à déflation orthogonale nous proposons alors d'employer une déflation oblique en place de la déflation orthogonale. Nous construisons alors de nouveau estimateurs des DDA d'intérêts. A la vue des simulations, les performances sont bien meilleures que les algorithmes à déflation orthogonale et nous proposons d'expliquer ces performances par la dérivation des variances théoriques de chacun des estimateurs proposés. Ainsi, via l'analyse de ces variances, nous montrons pourquoi la projection oblique est plus appropriée et nous donnons une relation d'ordre de chacune des variances associées aux algorithmes étudiés.<br /><br />Ici encore le problème de l'estimation séquentielle de M DDA est un problème suscitant un grand intérêt. Seulement, les solutions proposées dans la littérature utilisent une déflation orthogonale pour annuler séquentiellement les directions préalablement estimées via un critère MUSIC modifié. Nous nous démarquons en proposant un algorithme qui pondère, par une fonction quadratique de forçage à zéro, le pseudo-spectre de MUSIC. Cette approche montre de bien meilleures performances que les méthodes à déflation orthogonale et permet de s'affranchir très nettement de la résolution de Rayleigh grâce au contrôle de la fonction de pondération. Nous montrons de plus que cet algorithme est efficace et que l'erreur de propagation peut s'annuler via le réglage d'un paramètre de la fonction de pondération. Pour caractériser au mieux les performances de cet algorithme nous proposons une CRB, que nous nommons la Interfering-CRB issue d'un modèle linéaire constitué d'une DDA d'intérêt et de M-1 DDA interférentes (DDA estimées préalablement ou restant à estimer). Nous montrons que cette borne « reflète » bien l'algorithme ZF-MUSIC.
40

Reconstruction et analyse automatiques pour le rééclairage d'objets basés-image

Mercier, Bruno 24 October 2006 (has links) (PDF)
Le rééclairage d'objets réels à partir d'images est un problème difficile à traiter car il implique l'estimation d'un nombre important de paramètres. Néanmoins le rééclairage de tels objets est indispensable pour une intégration de manière réaliste dans un environnement comportant des conditions d'illumination différentes de celles présentes lors de l'acquisition. Le travail proposé dans ce mémoire décrit une méthodologie de reconstruction automatique de toute la chaîne d'analyse : il couvre tous les aspects allant de la reconstruction géométrique à l'estimation de la réflectance de la surface en passant par la détection de sources lumineuses. Les seules données nécessaires à l'application de cette méthode sont de multiples points de vue de l'objet acquis sous des conditions d'illumination fixes et les paramètres de la caméra. Aucun objet additionnel n'est présent sur les images et la surface de l'objet basé-image peut être diffuse, spéculaire et/ou texturée. Nous avons mis en place un système d'acquisition robuste constitué d'un appareil photographique grand marché et d'un plateau tournant. Notre modèle géométrique reconstruit permet de passer d'un modèle discret à un modèle triangulé sans perte d'information topologique (propriétés de fermeture et nombre de composantes connexes conservés). De multiples sources ponctuelles et directionnelles sont détectées et la réflectance des objets est estimée sur chaque maille par un modèle de BRDF paramétrique. Nous utilisons les données reconstruites pour visualiser les objets avec de nouvelles conditions d'illumination. La version actuelle permet de générer de nouvelles images en quelques secondes avec une méthode de lancer de rayons.

Page generated in 0.0327 seconds