• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Une architecture multi-agent pour la détection, la reconnaissance et l'identification de cibles

Ealet, Fabienne 25 June 2001 (has links) (PDF)
La fonction détection, reconnaissance et identification de cibles (DRI) impose l'intégration de connaissances hétérogènes en grande quantité. Ceci nous conduit vers des architectures distribuant la connaissance et permettant d'effectuer des traitements en parallèle et en concurrence. Nous proposons une approche multi-agent basée sur la mise en oeuvre d'agents spécialisés répondant aux principes d'incrémentalité, de distribution, de coopération, de focalisation et d'adaptation. L'architecture utilisée est de type multi-thread. Elle est dotée d'un administrateur et spécifie les moyens de communication entre les agents. Ceux-ci sont définis par leur rôle, leurs comportements et les informations qu'ils manipulent et qu'ils produisent. À un instant donné, différents agents coexistent dans l'image. Chacun dispose d'une autonomie pour accéder aux données et élaborer sa propre stratégie en fonction des informations disponibles. La planification est prise en charge localement au niveau de l'agent. Les connaissances nécessaires sont spécifiées dans une base de connaissances partagée par tous les agents. Les informations acquises sont stockées dans un modèle du monde. Le système se construit et vient s'enrichir au cours du temps, ceci impose une stratégie incrémentale dans la mise à jour des hypothèses. Cette modélisation est faite sous forme de réseaux bayésiens.
82

Modélisation de la détection de présence humaine

Belconde, Antoine 28 September 2010 (has links) (PDF)
Les travaux présentés dans ce manuscrit traitent de la détection de présence humaine à l'aide d'un ou plusieurs capteurs. Ces travaux ont été menés au sein de l'Institut PRISME dans le cadre du projet CAPTHOM du pôle de compétitivité S2E2. Nous proposons une réflexion sur les phénomènes physiques en jeu pour la détection de présence humaine et un état de l'art des différents systèmes utilisés pour la détection de présence humaine aujourd'hui. La solution commerciale la plus prisée aujourd'hui est l'utilisation des détecteurs de mouvements basés sur la détection de la chaleur du corps humain, c'est-à-dire, la détection des émissions infrarouges. Le besoin de l'information de présence se fait ressentir dans de nombreux projets qui ont pour but de gérer les ressources énergétiques domestiques et/ou qui ont une vocation pour le maintien à domicile. Après une évaluation de plusieurs capteurs de différentes technologies à l'aide de scénarios basiques, notre intérêt s'est porté sur les capteurs de type thermopile. Ces capteurs ont fait l'objet d'une série de tests pour aboutir à la proposition d'un modèle de la réponse des capteurs. En parallèle, nous abordons la problématique de la localisation d'une personne dans une pièce. Deux méthodes sont proposées et ont pour point commun l'utilisation d'un réseau de capteurs. La première méthode utilise les chaînes de Markov cachées et permet de trouver le chemin parcouru par la personne et ouvre des perspectives sur le diagnostic des erreurs de détections des capteurs. La deuxième méthode permet d'obtenir les coordonnées dans l'espace d'une cible à l'aide d'une optimisation par Levenberg-Marquardt des coordonnées à l'aide des réponses des capteurs de type thermopile et de leur modèle. Au final, nous nous sommes intéressés au cadre du maintien à domicile. Nous avons à notre disposition un appartement pilote qui a la particularité d'être entièrement domotisé. Une personne âgée a pu tester cet habitat durant plusieurs semaines. Les résultats obtenus nous confortent pour l'utilisation des capteurs étudiés et des méthodes de localisation développées.
83

Fusion de données multi-Kinect visant à améliorer l’interaction gestuelle au sein d’une installation de réalité virtuelle / Improved capture of gestural interaction by fusing multiple sensors skeletons in virtual reality

Salous, Saleh 23 November 2015 (has links)
Les technologies liées à la réalité virtuelle sont les outils les plus avancés dans le domaine de l’interaction numérique, permettant à un utilisateur de communiquer avec une simulation créée à partir d’un matériel et d’une solution logicielle dédiés. Le degré d’immersion proposé par ces technologies et leur feedback audio et vidéo peut donner l’impression que ces environnements virtuels sont réels. Par conséquent, de multiples secteurs tels que le divertissement vidéo-ludique ou la médecine peuvent incorporer ces technologies. De plus, les installations de réalité virtuelle existantes sont nombreuses et leurs caractéristiques peuvent varier en fonction des contraintes physiques et financières des projets, ainsi qu’en fonction de l’expérience utilisateur souhaitée. Un de ces types d’installations de réalité virtuelle, le CAVE, est au cœur de cette thèse. Notre CAVE, nommé « Le SAS », utilise à heure actuelle une combinaison de technologie AR pour détecter des utilisateurs et d’un joystick pour récupérer des inputs directionnels. Notre objectif à travers cette thèse est de présenter, décrire et analyser une méthode alternative de détection de mouvements au sein du SAS, reposant sur l’utilisation d’un système de 4 Kinects connectées ensemble. Cette analyse est pertinente et justifiée étant donnée l’importance d’un système de détection d’utilisateur dans une installation de réalité virtuelle. Afin de proposer un niveau satisfaisant ‟interaction avec l’environnement virtuel, les capteurs installés sur le CAVE peuvent détecter différents types d’inputs. Dans le cadre d’un système multi-Kinect, l’interaction repose sur la détection de gestes effectués par l’utilisateur. Ces gestes sont extraits d’un squelette virtuel formé à partir des données recueillies par les Kinects. Cette thèse va aborder quatre points-clés décrits ci-dessous : V Premièrement, nous étudierons le contexte lié à notre CAVE et définirions ses caractéristiques ainsi que les contraintes que cet environnement particulier de réalité virtuelle impose à notre dispositif multi-Kinect. En second lieu, nous aborderons le sujet es algorithmes de suivi d’utilisateur au sein d’un CAVE. En effet, les dimensions du SAS amènent à utiliser plusieurs capteurs pour suivre l’utilisateur. Par conséquent, il devient nécessaire d’utiliser un algorithme capable de déterminer en temps-réel quelles Kinects produisent les données les plus précises et les plus fiables afin de correctement détecter les mouvements de l’utilisateur. Par la suite, nous proposerons un algorithme de détection de gestes. Cette étape est la suite logique de la détection d’utilisateur et consiste à interpréter les mouvements enregistrés. Bien que les Kinects soient capables d’enregistrer les mouvements et gestes de l’utilisateur, le CAVE doit être configuré afin de reconnaître certains gestes spécifiques, créant ainsi la possibilité d’interagir avec un environnement virtuel. Notre analyse se concentrera sur trois gestes spécifiques : Lever la main droite, lever la main gauche, et effectuer un petit saut. Finalement, nous fournirons des résultats d’expériences ayant pour objectif de comparer l’efficacité d’un système Multi-Kinect par rapport à l’utilisation d’un seul capteur. Nous présenterons des données indiquant une amélioration de la précision de la détection de gestes avec plusieurs Kinects. / Virtual Reality is the most modern technology that allows a user to interact with an artificial environment created by Hardware and Software, with visual and aural feedback powerful enough to create the impression of a realistic environment. As a consequence, this form of computer interaction can be used in various contexts such as entertainment, medicine or vehicle driving training. Furthermore, numerous types of VR installations exist depending on the physical and financial constraints as well as on the intended final user experience provided by the system. The subject of this thesis is user interaction in a specific type of VR installation called a CAVE. Our CAVE, named “Le SAS”, currently relies on AR technology technology to detect users, and a joystick is used to provide directional inputs. Our objective is to present, describe and analyze an alternative user-tracking method relying on a 4-Kinect set-up tasked with tracking the user‟s movements inside this CAVE. Proper usertracking is one of the main challenges provided by Virtual Reality as well as one of the core elements that define a proper and functional VR system; therefore it is important to implement an effective tracking system.In order to create true interaction with the virtual world provided by the CAVE, the sensors can detect various types of input. In the case of a multi-Kinect system, interaction with the CAVE will be based on user gestures which recognition is performed by the Kinects on a skeleton created after fusing the joint data from the various sensors.This thesis will focus on four main points, as described below. The first part will provide a context analysis of our immersive CAVE “Le SAS” and define thefeatures as well as the constraints of this specific environment in which the multi-Kinect system is installed.In the second part, the topic of tracking algorithms will be discussed. Indeed, the immersive CAVE‟s large-scale implies a tracking system composed of several sensors. The use of a network of cameras to track a user inside the CAVE is synonymous with the use of an algorithm that determines in real-time what sensors provide the most accurate tracking data and will therefore properly recognize the user‟s inputs and movements.Subsequently, we will propose a gesture detection algorithm. Once the user‟s gestures are properly tracked, such an algorithm is necessary in order to provide interaction. While the Kinects can capture the user‟s movements, the question of the detection of specific gestures by this system comes into play as the CAVE needs to be configured as to recognize specific gestures as potential inputs. The presented algorithm will focus on three specific gestures: Raising the right hand, raising the left hand and short hopping. Lastly, we will provide experimental results comparing the effectiveness of a multi-Kinect set-up with the effectiveness of a single sensor and present data showing a noticeable increase in accuracy with the 4-Kinect system.
84

Modélisation d'un accélérateur linéaire clinique en vue de l'exploitation d'un détecteur à transmission dédié au contrôle qualité en radiothérapie / Modeling of a clinical linear accelerator for the use of a transmission detector dedicated to quality assurance in radiotherapy

Fabbro, Robin 06 November 2017 (has links)
L’assurance qualité est un sujet clé en radiothérapie. En effet, la complexification des méthodes de traitements ont induit de nombreuses sources d’erreurs potentielles, et la vérification du bon déroulé du traitement est plus que jamais une tâche difficile. Un des objectifs de l’équipe de radiophysique est ainsi d’assurer que la dose délivrée au patient sera aussi conforme que possible à la prescription du médecin.Nombres d’outils ont été mis à disposition de ces équipes pour assurer des contrôles efficaces, réduisant les chances d’erreur. Une des solutions innovantes à l’épreuve dépend de l’utilisation de nouveaux détecteurs bidimensionnels, solidaires de la tête de l’accélérateur et placé en amont du patient, permettant ainsi de collecter des informations sur le flux de photons délivré par l’accélérateur.Ce type de détecteur présente plusieurs avantages. Il ne perturbe que très peu le faisceau de photons et permet donc une utilisation en simultané du traitement du patient. De plus, sa localisation en amont du patient ne permet pas d’ambiguïté sur l’origine des déviations en dose observées, une erreur de positionnement patient ne pouvant pas se confondre à une avarie sur l’accélérateur.Dans ce contexte, le groupe PHYSMED du LPSC, en collaboration avec le CHU de Grenoble développe TraDeRa, un détecteur 2D basé sur une chambre d’ionisation plane pixélisée. Embarquant une électronique de lecture dédiée conçue, il permet l’acquisition de carte de signal décrivant avec une bonne précision le flux de photons en provenance de l’accélérateur en temps réel et sans zone morte.Son portage vers la routine clinique passe en partie par la traduction de la carte de signal fournie par le détecteur en une carte de dose exploitable par les physiciens médicaux. Une des solutions envisagée tient dans le recours à des simulations Monte-Carlo complexes, afin d’associer la réponse du détecteur à un dépôt de dose calculé.La précision sur les différents calculs Monte-Carlo à fournir est très importante, aussi un modèle précis de l’accélérateur clinique nous a paru indispensable. Nous avons donc entrepris la modélisation d’un accélérateur clinique type Clinac 2100 pour le code Monte-Carlo PENELOPE, afin de reproduire le plus fidèlement possible l’accélérateur du CHU de Grenoble. Outre la géométrie complexe du dispositif, la fidélité de la reproduction vient aussi de la connaissance des caractéristiques du faisceau d’électrons utilisé pour produire ces photons. Nous avons élaboré une méthode de détermination de ces paramètres basée sur un ajustement de ces caractéristiques utilisant la comparaison de mesures avec des simulations de référence, présentant des avantages sur le processus essais-erreurs habituellement utilisé. L’objectif était de proposer une méthode applicable à n’importe quel accélérateur du même modèle, en n’exploitant qu’un jeu commun de simulations de référence, et permettre l’ajustement des caractéristiques en un minimum de temps. Cette méthode a fait ses preuves, notamment grâce à son application sur deux autres accélérateurs modèle Clinac 2100 que celui utilisé dans la conception du détecteur.Puis, nous avons modélisé le détecteur et son environnement d’exploitation à l’hôpital dans PENELOPE. Cette simulation nous a donné accès à des propriétés intrinsèques que des mesures réelles ne permettent pas de déterminer. Nous avons ainsi pu étudier la linéarité de sa réponse en dose et en débit de dose, caractériser l’atténuation qu’il oppose au faisceau, ou encore évaluer la diaphonie entre les différentes électrodes de la matrice pixélisée.Nous avons initié le travail de conversion du signal collecté par le détecteur en dose déposée dans le patient. Nous avons associé à la réponse d’électrodes choisies une distribution de dose en trois dimensions dans la cuve à eau. En décomposant un champ quelconque en une somme de réponses élémentaires, nous avons déterminé une procédure de reconstruction du dépôt de dose dans le patient. / Quality assurance is a key topic in radiation therapy. Indeed, the increasing complexity of the treatment methods led to many additional sources of potential errors, and the verification of treatment is more than ever a task that can be difficult. One of the objectives of the radiophysicists lies in the application of quality assurance procedures to ensure that the dose delivered to the patient is consistent with the oncologist’s prescription.Numerous tools are available to ensure controls that are both effective and reliable, reducing the chances of errors. However, zero risk is not achievable, and the use of new treatment techniques can make these errors difficult to detect. One of the innovative solutions studied in recent years depends on the use of new two-dimensional detectors, embedded on the head of the linear accelerator and placed upstream of the patient. These devices thus allow to collect information on the photon flux delivered by the accelerator.This type of detector has several advantages. Their attenuation is very light, and grant the possibility to use them while treating the patient. Moreover, their location does not give space to ambiguity about the origin of the observed dose deviations. Indeed, a patient positioning error cannot be confused with mechanical misbehavior of the linear accelerator.In this context, the PHYSMED group of the LPSC, in collaboration with the Grenoble Public Hospital, is developing TraDeRa, a detector based on a pixelated planar ionization chamber, embedding dedicated electronics specially designed by the lab. The detector is able to collect a signal map that accurately describes the incoming photon flux, for any clinical field, in real time and without dead zone.The portage of the detector towards clinical routine partially depends on the translation of the signal map supplied by the detector into a reliable dose map that can be used by medical physicists. To begin with, one of the considered solutions is the use of complex Monte Carlo simulations, in order to associate the detector response with a calculated dose deposition in a water tank.The precision to provide on the various Monte-Carlo calculations seemed very important. Therefore, a precise model of the clinical accelerator seemed essential. Thus, we have initiated the modeling of a type Clinac 2100 clinical accelerator for the Monte-Carlo code PENELOPE, in order to reproduce as accurately as possible the accelerator available for our measurements campaign. The knowledge of the primary electron beam characteristics is critical. We have thus developed an original method for adjusting these characteristics based on comparison of measurements with reference simulations. This method has interesting features compared with the usual trial and error process. The objective was to propose a method applicable to any accelerator of the same model, using only a set of reference simulations, thus allowing the faster adjustment (sometimes slightly less accurate than the trial and error method) of the beam characteristics. This method seems to have proved itself worth, and has been used on two other Clinac 2100 accelerators to test its reliability.Next, the full modeling of the detector in PENELOPE coupled and its environment granted us to describe some characteristics intrinsic to conception choices. Thus, we have been able to study the linearity response of the detector in terms of dose and dose rate, characterize the attenuation it opposes to the beam, and evaluate the cross-talk between the different electrodes of the pixelated matrix.In addition, we were able to initiate the work of converting the signal collected by TraDeRa into a dose deposited in the patient. We associated the response of selected electrodes with calculated dose distributions in a water tank model. By decomposing any field into a sum of elementary responses, we have determined a procedure allowing the reconstruction of the dose deposition in the patient.
85

Analyse des réseaux sociaux : vers une adaptation de la navigation sociale / Social network analysis : towards an adaptation of social networks

Mezghani, Manel 29 September 2015 (has links)
L'avènement du web 2.0, centré utilisateur, a fait émerger une quantité importante d'informations (personnelles, collectives, partagées, "aimées", etc.). Ces informations peuvent constituer une aide pour les utilisateurs en les guidant vers l'information recherchée. Cependant, cette quantité rend l'accès à l'information partagée de plus en plus difficile, vu la diversité des contenus qui peuvent intéresser l'utilisateur. La désorientation de l'utilisateur est donc l'un des principaux problèmes liés aux médias sociaux. Pour surmonter ce problème, l'adaptation constitue une solution classique qui peut être appliquée dans un contexte social. Avec l'évolution des réseaux sociaux, de nouvelles notions apparaissent comme la navigation sociale, qui est une manière de naviguer en étant influencé par les autres utilisateurs du réseau. Une autre notion importante est celle de "tag". Ce terme définit les annotations sociales créées par les utilisateurs et associées à des ressources. La navigation peut être dès lors effectuée aussi bien par les liens qu'à travers les tags. Adapter la navigation sociale, signifie la rendre plus ciblée pour chaque utilisateur selon ses intérêts. Concrètement, cela peut se faire en recommandant à chaque utilisateur des tags, qu'il pourra suivre ou non. Pour cela, il faut garantir une détection adéquate des intérêts de l'utilisateur ainsi que la prise en compte de leur évolution. Cependant, nous sommes confrontés à des limites liées à : i) la détection des intérêts, puisque ces derniers peuvent être déduits de plusieurs ressources sociales (des amis, des ressources, des tags, etc.). Leur pertinence est primordiale afin de garantir un résultat d'adaptation adéquat. ii) la mise à jour du profil utilisateur. En effet, l'utilisateur social, est caractérisé par sa grande activité sociale, et par conséquent ses intérêts doivent refléter ses "vrais" intérêts à chaque période de temps afin d'aboutir à une adaptation fiable. Afin de résoudre les problèmes affectant la qualité d'adaptation de la navigation sociale cités ci-dessus, nous avons proposé en premier lieu, une approche de détection des intérêts de l'utilisateur. Cette approche analyse les tags des utilisateurs selon le contenu de leurs ressources respectives. La plupart des recherches ne considèrent pas l'exactitude des tags vis-à-vis du contenu des ressources : cette exactitude reflète si l'utilisateur peut vraiment être intéressé par le contenu ou pas. Les tags précis sont ceux qui reflètent fidèlement le contenu des ressources. Ceci est effectué grâce à l'interrogation du réseau de l'utilisateur et de l'analyse de son comportement d'annotation. Notre approche repose sur l'hypothèse qu'un utilisateur qui annote la ressource par des tags reflétant le contenu de ladite ressource, reflète mieux ses "vrais" intérêts. Nous avons proposé en deuxième lieu, une approche de mise à jour des intérêts des utilisateurs. Nous nous sommes intéressés aux techniques d'enrichissement du profil utilisateur est effectué par l'ajout des intérêts jugés pertinents à un moment donné. L'enrichissement dans un contexte social est effectué selon l'information sociale comme les personnes proches qui partagent avec l'utilisateur des comportements en communs, selon le comportement d'annotation des utilisateurs, et selon les métadonnées des ressources annotées. Le choix de ces informations est effectué selon l'étude de leur influence sur l'évolution des intérêts de l'utilisateur. L'approche d'enrichissement nous a servi à proposer des recommandations (de tags) selon les nouveaux tags ajoutés au profil utilisateur.Ces deux contributions ont été testées sur la base sociale Delicious. Elles ont montré un taux de précision assez important. Elles ont aussi prouvé leur efficacité par rapport à des méthodes classiques. De plus, le taux d'ambigüité associé aux tags a été fortement réduit, grâce au filtrage implicite des tags non pertinents par rapport au contenu des ressources. / The advent of Web 2.0, user-centered, has given rise to a significant amount of information (personal, collective, shared, "loved", etc.). This information is a way to help users and guide them to the information sought. However, this quantity makes access to shared information more and more difficult, given the diversity of content that may interest the user. Disorientation of the user is one of the main problems related to social media. To overcome such problem, adaptation is a standard solution that can be applied in a social context. With the evolution of these social networks, new concepts appear such as social navigation, which is a way to navigate while being influenced by other users in the network: Another important concept is that of "tag". This term is defined as social annotations created by users and associated to resources. Navigation can be therefore carried out by both links and tags. Adapting social navigation means making it more targeted for each user according to their interests. In practice, this can be done by recommending tags to each user, so he can follow or not. To adapt the social navigation, we must ensure proper detection of the user's interests and taking into account their evolution. However, we are faced with some problems: i) the detection of interest, since they can be derived from several social resources (friends, resources, tags, etc.). Their relevance is primordial to ensure adequate adaptation result. ii) updating the user profile. Indeed, the social user, is characterized by its great social activity, and therefore its interests should reflect its "real" interest each time period in order to achieve a reliable adaptation. To solve the problems affecting the quality of adaptation of social navigation quoted above, we first proposed a method for detecting the user's interests. This proposal aims to overcome the detection of irrelevant interests issues. This approach analyzes the user tags depending on the content of their respective resources. Unlike most research, who do not consider the accuracy of tags with the contents of resource, the accuracy reflects whether the user is really interested with the content or not. This is done by querying the user's network and analysis of the user annotation behavior. The approach is based on the assumption that a user annotates the resource by tags reflecting the content of this resource better reflects its "true" interests. Following the proposal of the interests of detection approach, we conducted second, the treatment of the problem of updating these interests. We were interested to the user profile enrichment techniques, performed by adding interests deemed relevant at a given time. The enrichment in a social context is performed according to social information such as neighbours who share the user behaviors in common, according to the user annotation behavior, and according to the metadata annotated resources. The choice of such information shall follow the study of their influence on the changing interests of the user. The approach we used enrichment propose recommendations (tags) according to the new tags added to the user profile. Both contributions were tested on the social database Delicious. They showed a sizeable accuracy rate. They have also proven their efficiency compared to conventional methods. In addition, the rate of ambiguity associated with the tags has been greatly reduced, thanks to the implicit filtering of irrelevant tags relative to resource content.
86

Modèles probabilistes indexés par les arbres : application à la détection de la peau dans les images couleur / Tree probability distribution : applictaion to skin detection in color images

Fkihi, Sanaa El 20 December 2008 (has links)
La détection de la peau constitue une phase primordiale de prétraitement dans plusieurs applications telles que la vidéo surveillance et le filtrage d'Internet. Toutefois, c'est une tâche difficile à accomplir étant donné la diversité des couleurs de la peau et la variété des conditions de prise de vue. Dans l'objectif de surmonter ces dernières contraintes, nos travaux de thèse consistent à définir un modèle robuste de la distribution de la peau capable de différencier les pixels de peau de ceux de non-peau dans des images variées. Notre modélisation est fondée sur le concept des modèles graphiques probabilistes connus par leur intuitivité et efficacité pour la représentation d'une distribution jointe de probabilités sur un ensemble de variables aléatoires, plus particulièrement les arbres indexant des probabilités. En vue de définir le modèle de l'arbre idéal indexant la distribution de la peau, nous avons proposé trois approches différentes : le modèle d'arbre de dépendances à b probabilité peau et non peau, le modèle de mélange des arbres et celui de leur combinaison. Le modèle d'arbre de dépendances à bi-probabilité peau et non peau proposé, exploite les propriétés d'interclasse et d'intra classe entre les deux classes peau et non peau ainsi que les interactions entre un pixel et ses voisins que nous traduisons par un arbre de dépendance optimal. L'arbre élaboré est un arbre idéal unique indexant conjointement les distributions de probabilités peau et non peau. Le modèle de mélange des arbres est proposé pour remédier à la multiplicité des arbres de dépendances optimaux possibles sur un graphe. L'entité du mélange proposée concerne aussi bien les structures des arbres considérés que les probabilités portées par ces dernières. Ainsi, l'arbre idéal indexant probabilité peau est l'arbre résultant du mélange portant la probabilité du mélange. Quant au modèle de combinaison des arbres élaboré, il constitue une approche alternative au mélange proposé visant l'exploitation des différent informations emmagasinées dans les différents arbres de dépendances optimaux possibles. Un fondement théorique est présenté dans cette thèse pour déterminer la meilleure approche à adopter, le mélange des arbres ou la combinaison des arbres, et ce en fonction des arbres de dépendances optimaL considérés. Les expérimentations réalisées sur la base Compaq montrent l'efficacité et la faisabilité de nos approches. En outre, des études comparatives entre n< modèles de peau et l'existant prouvent qu'en termes de qualité et de quantité des résultats obtenus, les modèles proposés permettent de discriminer les pixels de peau et ceux de non peau dans des images couleurs variées. / Skin detection or segmentation is considered as an important preliminary process in a number of existing systems ranging over face detection, filtering Internet images, and diverse human interaction areas. Nevertheless, there are two skin segmentation challenges: the pattern variability and the scene complexity. This thesis is devoted to define a new approach for modeling the skin probability distribution. ln the aim of dealing with the skin detection problem, we investigate the models of probability trees to approximate skin and non-skin probabilities. These models can represent a joint distribution in an intuitive and efficient way. Hence, we have proposed three main approaches to seek a perfect tree model estimating the skin probability distribution: (1) the model of dependency tree that approximates the skin and the non skin probability distribution together, (2) the mixture of trees' model, and (3) the combination of trees' model. The first proposed model is based on the optimal spanning tree principle combined to an appropriate relevant criterion that we have defined. The contribution takes into account both the interclass and the intra class between skin and non skin classes, and the interactions between a given pixel and its neighbors. The rationale behind proposing the second model is that in sorne cases the approximation of true class probability given by an optimal spanning tree (OST) is not unique and might be chosen randomly, while this model will take the advantages of the useful information represented on each OST. The mixture of trees' model consists in mixing the structures of the OSTs and their probabilities with the aim of seeking a perfect spanning tree. This latter emphasizes the dependencies' degrees of data, and approximates effectively the true probability distribution. Finally, the third model is defined to deal with a particular kind of multiple OSTs. This model is a parallel combination of different classifiers based on the OSTs. A mathematical theory, proving and specifying the appropriate approach to be used (mixture of trees or combination of trees) depending on the considered OSTs' kind, is presented in this thesis. In addition to experimental results, on the Compaq database, showing the effectiveness and the high reliability of our three approaches.
87

Contribution à l'étude d'une chaîne de conversion d'énergie AC-DC / DC-DC tolérantes aux défauts / Contribution for the study of a fault tolerant AC-DC / DC-DC energy conversion chain

Liang, Chenchen 06 November 2017 (has links)
Pour répondre au contexte d’exploitation des énergies renouvelables marines où l’accès aux systèmes de production d’énergie électrique est délicat, cette thèse porte sur l’étude d’une chaîne de conversion d’énergie tolérante aux défauts. Trois volets sont investigués : l’analyse comportementale de la topologie, le contrôle de la puissance produite ainsi que la détection et la localisation des défauts. La chaîne est constituée d’une MSAP pentaphasée, d’un redresseur à diodes à 5 bras et de 3 convertisseurs DC-DC de type Boost entrelacés. Pour la stratégie de contrôle de la puissance de sortie, un double asservissement est appliqué au bloc DC-DC. Des modèles dynamiques petits signaux sont établis. La boucle interne est dédiée à l’asservissement du courant d'entrée de l’étage Boost et la boucle externe au contrôle de la puissance. Trois types de régulateurs en courant sont étudiés et comparés. Des approches de synchronisation des commandes des 3 Boosts sont proposées. Il ressort que le régulateur non linéaire, dit MRC, satisfait complètement aux performances désirées. Le contrôle de puissance, intégré ensuite dans la chaîne complète de production d’énergie et testé pour différents modes de fonctionnement sains et dégradés, est de très bon niveau. Des méthodes de détection et de localisation des défauts au niveau de l’entrée et de la sortie du redresseur ont été développées. En se basant sur la mesure des courants de phase ou sur la mesure de la tension en sortie du redresseur, les défauts côté AC sont détectés et localisés. La détection côté continu est de faible complexité. Cette méthode est ensuite étendue aux défauts de l’étage DC-DC en utilisant son courant d’entrée. / To answer the context of marine renewable energy exploitation where the access of energy production system is difficult, this thesis deals with the study of a fault tolerant energy conversion chain. Three aspects are investigated: behavior analysis of the topology; output power control; detection and location of faults. The chain involves a five-phase PMSG, a five-leg diode rectifier and a three-interleaved DC-DC Boost converter. Concerning the output power control strategy, a double-loop control is applied on the DC-DC block. Small-signal dynamic models are established. The inner loop is used for controlling the input current of the Boost stage. The outer loop is for the output power. Three types of current controllers are studied and compared. Methods of synchronization for the three-interleaved Boost converter control are proposed. It results that the nonlinear controller, called in French version, the MRC, totally satisfies the desired performances. The control of power, which is then used for the full conversion chain, is tested under different operating modes (health and fault) and is of high performances. Several methods for detecting and locating rectifier’s AC and DC side faults have been developed. Based on the measurements of phase currents or the measurement of the output voltage of the rectifier, AC side faults can be detected and located. DC measurement based fault detection is of low complexity. This method is then extended to the faults of DC-DC block by using its input current.
88

Partitionnement de grands graphes : mesures, algorithmes et visualisation / Graph Partitioning : measures, algorithms and visualization

Queyroi, François 10 October 2013 (has links)
L'analyse de réseaux (représentés par des graphes) est une composante importante dans la compréhension de systèmes complexes issus de nombreuses disciplines telles que la biologie, la géographie ou la sociologie. Nous nous intéressons dans cette thèse aux décompositions de ces réseaux. Ces décompositions sont utiles pour la compression des données, la détection de communautés ou la visualisation de graphes. Une décomposition possible est un partitionnement hiérarchique des sommets du graphe. Nous traitons de l'évaluation de la qualité de telles structures (leur capacité à bien capturer la topologie du graphe) par le biais de mesures de qualité. Nous discutons ensuite l'utilisation de ces mesures en tant que fonctions objectives à maximiser dans le cadre d'algorithmes de partitionnement. Enfin, nous nous intéressons à la définition de métaphores visuelles efficaces permettant de représenter différentes décompositions de graphes. / Network analysis is an important step in the understanding of complex systems studied in various areas such as biology, geography or sociology. This thesis focuses on the problems related to the decomposition of those networks when they are modeled by graphs. Graph decomposition methods are useful for data compression, community detection or network visualisation. One possible decomposition is a hierarchical partition of the set of vertices. We propose a method to evaluate the quality of such structures using quality measures and algorithms to maximise those measures. We also discuss the design of effective visual metaphors to represent various graph decompositions.
89

Gaussian models and kernel methods / Modèles Gaussiens et méthodes à noyaux

Kellner, Jérémie 01 December 2016 (has links)
Les méthodes à noyaux ont été beaucoup utilisées pour transformer un jeu de données initial en les envoyant dans un espace dit « à noyau » ou RKHS, pour ensuite appliquer une procédure statistique sur les données transformées. En particulier, cette approche a été envisagée dans la littérature pour tenter de rendre un modèle probabiliste donné plus juste dans l'espace à noyaux, qu'il s'agisse de mélanges de gaussiennes pour faire de la classification ou d'une simple gaussienne pour de la détection d'anomalie. Ainsi, cette thèse s'intéresse à la pertinence de tels modèles probabilistes dans ces espaces à noyaux. Dans un premier temps, nous nous concentrons sur une famille de noyaux paramétrée - la famille des noyaux radiaux gaussiens - et étudions d'un point de vue théorique la distribution d'une variable aléatoire projetée vers un RKHS correspondant. Nous établissons que la plupart des marginales d'une telle distribution est asymptotiquement proche d'un « scale-mixture » de gaussiennes - autrement dit une gaussienne avec une variance aléatoire - lorsque le paramètre du noyau tend vers l'infini. Une nouvelle méthode de détection d'anomalie utilisant ce résultat théorique est introduite.Dans un second temps, nous introduisons un test d'adéquation basé sur la Maximum Mean Discrepancy pour tester des modèles gaussiens dans un RKHS. En particulier, notre test utilise une procédure de bootstrap paramétrique rapide qui permet d'éviter de ré-estimer les paramètres de la distribution gaussienne à chaque réplication bootstrap. / Kernel methods have been extensively used to transform initial datasets by mapping them into a so-called kernel space or RKHS, before applying some statistical procedure onto transformed data. In particular, this kind of approach has been explored in the literature to try and make some prescribed probabilistic model more accurate in the RKHS, for instance Gaussian mixtures for classification or mere Gaussians for outlier detection. Therefore this thesis studies the relevancy of such models in kernel spaces.In a first time, we focus on a family of parameterized kernels - Gaussian RBF kernels - and study theoretically the distribution of an embedded random variable in a corresponding RKHS. We managed to prove that most marginals of such a distribution converge weakly to a so-called ''scale-mixture'' of Gaussians - basically a Gaussian with a random variance - when the parameter of the kernel tends to infinity. This result is used in practice to device a new method for outlier detection.In a second time, we present a one-sample test for normality in an RKHS based on the Maximum Mean Discrepancy. In particular, our test uses a fast parametric bootstrap procedure which circumvents the need for re-estimating Gaussian parameters for each bootstrap replication.
90

Détection de collision par lancer de rayon : La quête de la performance / Ray-traced collision detection : Quest for performance

Lehericey, François 20 September 2016 (has links)
La détection de collision est une tâche essentielle pour la simulation physique d’environnements virtuels. De nos jours, la détection de collision est l’un des goulets d’étranglement calculatoire dans les applications de réalité virtuelle dû à la complexité des environnements que l’on souhaite simuler et par la contrainte d’interaction en temps-réel. Nous avons concentré nos travaux sur la seconde étape de la détection de collision (narrow-phase) dans laquelle les tests de collisions sont effectués sur des paires d’objets. Contrairement à la première étape, les tests de collisions sont effectués sur des versions détaillées des modèles géométriques et sont donc très sensible au niveau calculatoire à la complexité géométrique de ceux-ci.Cette thèse vise à améliorer les performances de la détection de collision lors de l’utilisation d’objets géométriques complexes (formes représentées par un maillage, éventuellement non-convexe et/ou déformable). Nos méthodes permettent d’accélérer le calcul de la narrow-phase. Les algorithmes proposés peuvent être implémentés sur GPU pour profiter de leur puissance de calcul et ainsi améliorer les performances.Pour réaliser la narrow-phase, nous proposons un pipeline adapté à une implémentation GPU. Celui-ci permet de réaliser la narrow-phase à l’aide d’algorithmes basés lancer de rayon. Notre méthode repose sur un principe commun où tous les tests de collision sont effectués par lancer de rayon à partir des sommets des objets. Cette généricité nous permet de réaliser les tests sur des maillages ayant n’importe quelles propriétés (rigide ou déformable, convexe ou non-convexe). Les algorithmes de lancer de rayon utilisés étant choisis en fonction des propriétés des objets pour optimiser les performances.Nous avons généralisé la méthode de détection de collision utilisée pour supporter, en plus des objets volumiques, des objets surfaciques (tels que des tissus). Cette méthode est compatible avec le pipeline proposé et permet de réaliser des tests de collisions entre n’importe quelle combinaison d’objets.De plus, nous proposons d’exploiter la cohérence temporelle pour améliorer les performances. Le résultat de la détection de collision est généralement très semblable entre deux pas de temps successifs. Suite à cette observation, nous proposons un algorithme de lancer de rayon itératif qui intègre le résultat du pas précédent pour exploiter cette cohérence temporelle. Cet algorithme peut être utilisé conjointement avec des algorithmes de lancer de rayon standard. Il permet de remplacer certains tests unitaires pour mettre à jour de manière incrémentale le résultat de la détection de collision. L’algorithme de lancer de rayon itératif est ajouté au pipeline en tant qu’alternative aux autres algorithmes de lancer de rayon et est utilisé prioritairement dû à son faible coût calculatoire. / Collision detection is an essential task for physical simulation of virtual environments. Nowadays, collision detection is one of the main bottleneck of virtual reality applications. This is due to the complexity of the environments we want to simulate and the real-time interaction constraint. We have concentrated our work on the second phase of collision detection, the narrow-phase, in which collision queries are performed on pairs of objects. Contrary to the first phase of collision detection, collision queries are performed on the full representation of the objects (with all details) and are thus sensible to the geometric complexity of the objects in term of computation time.This thesis is aimed to improve the performances of collision detection when using geometrically complex objects (represented with triangle meshes, potentially non-convex and deformable). Our methods are able to reduce computation times. Our proposed algorithms can be implemented on GPU to take advantage of their computational power and thus further improve the performances of our methods.To implements our narrow-phase, we propose a pipeline which is adapted for GPU execution. This pipeline perform collision detection with ray-tracing algorithms. Our methods rely on a shared principle where all collision queries are performed by casting rays from the vertices of the objects. This genericity allow us to perform collision detection on triangle meshes with any properties (rigid or deformable, convex or non-convex). The ray-tracing algorithms used are dynamically selected depending on the properties of the objects to improve the performances.We have generalized the collision detection method we use in our pipeline to handle, in addition to volumetric objects (represented by their surface), surface objects (such as cloth). This method is compatible with our pipeline and allow us to perform collision detection with any combination of volumetric and surface objects.Furthermore, we propose to exploit temporal coherency to improve performances. The result of collision queries (contact points) are generally similar between successive time-step. Starting from this observation, we propose a ray-racing algorithm which use the result of the previous time-step to exploit this temporal coherency. This ray-tracing algorithm can be used in conjunction to standard ray-tracing algorithms. It is used to replace standard ray-tracing algorithms in specific condition to update the result of the previous time-step instead of computing it from scratch. The iterative ray-tracing algorithm is added in our pipeline as an alternative to other ray-tracing algorithms and is used in priority due to his lower computational cost compared to other algorithms.

Page generated in 0.0827 seconds