• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 19
  • 17
  • 1
  • Tagged with
  • 80
  • 80
  • 70
  • 67
  • 65
  • 45
  • 43
  • 43
  • 25
  • 21
  • 12
  • 11
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Approche réactive pour la conduite en convoi des véhicules autonomes : Modélisation et vérification

Jradi, Madeleine 22 November 2013 (has links) (PDF)
Cette thèse se situe dans la problématique de la conduite en convoi de véhicules autonomes : des ensembles de véhicules qui se déplacent en conservant une configuration spatiale, sans aucune accroche matérielle. Ses objectifs sont d'abord, la définition d'une approche de prise de décision pour les systèmes de convois de véhicules, puis, la définition d'une approche de vérification, adaptée à la preuve de propriétés relatives aux convois de véhicules, avec une attention particulière envers les propriétés de sûreté.L'approche pour la prise de décision est décentralisée et auto organisée : chaque véhicule détermine son comportement de façon locale, à partir de ses propres capacités de perception, sans avoir recours à une communication explicite, de telle sorte que l'organisation du convoi, son maintien et son évolution soient le résultat émergeant du comportement de chaque véhicule. L'approche proposée s'applique a des convois suivant plusieurs types de configuration, et permet des changements dynamiques de configuration.L'approche proposée pour la vérification de propriétés de sûreté des convois de véhicules, adopte le model-checking comme technique de preuve. Pour contourner le problème de l'explosion combinatoire, rencontré dans la vérification des systèmes complexes, nous avons proposé une méthode compositionnelle de vérification, qui consiste a décomposer le système en sous systèmes et à associer une propriété auxiliaire à chacun des sous systèmes. La propriété globale sera ensuite déduite de l'ensemble des propriétés auxiliaires, par l'application d'une règle de déduction compositionnelle. La complexité calculatoire est mieux maîtrisée car le model-checking s'applique aux sous-systèmes. Nous proposons une règle de déduction adaptée aux systèmes de conduite en convoi, en particulier ceux qui sont basés sur des approches décentralisées. La règle considère chaque véhicule comme un composant. Elle est consistante sous la condition que l'ajout d'un nouveau composant au système n'a pas d'influence sur le comportement du reste du système. L'approche décentralisée proposée pour la conduite en convoi satisfait cette condition. Deux propriétés de sûreté ont été vérifiées : absence de collision et évolution confortable pour les passagers
62

Segmentation d'images par combinaison adaptative couleur-texture et classification de pixels. : Applications à la caractérisation de l'environnement de réception de signaux GNSS

ATTIA, Dhouha 03 October 2013 (has links) (PDF)
En segmentation d'images, les informations de couleur et de texture sont très utilisées. Le premier apport de cette thèse se situe au niveau de l'utilisation conjointe de ces deux sources d'informations. Nous proposons alors une méthode de combinaison couleur/texture, adaptative et non paramétrique, qui consiste à combiner un (ou plus) gradient couleur et un (ou plus) gradient texture pour ensuite générer un gradient structurel utilisé comme image de potentiel dans l'algorithme de croissance de régions par LPE. L'originalité de notre méthode réside dans l'étude de la dispersion d'un nuage de point 3D dans l'espace, en utilisant une étude comparative des valeurs propres obtenues par une analyse des composantes principales de la matrice de covariance de ce nuage de points. L'approche de combinaison couleur/texture proposée est d'abord testée sur deux bases d'images, à savoir la base générique d'images couleur de BERKELEY et la base d'images de texture VISTEX. Cette thèse s'inscrivant dans le cadre des projets ViLoc (RFC) et CAPLOC (PREDIT), le deuxième apport de celle-ci se situe au niveau de la caractérisation de l'environnement de réception des signaux GNSS pour améliorer le calcul de la position d'un mobile en milieu urbain. Dans ce cadre, nous proposons d'exclure certains satellites (NLOS dont les signaux sont reçus par réflexion voir totalement bloqués par les obstacles environnants) dans le calcul de la position d'un mobile. Deux approches de caractérisation, basées sur le traitement d'images, sont alors proposées. La première approche consiste à appliquer la méthode de combinaison couleur/texture proposée sur deux bases d'images réelles acquises en mobilité, à l'aide d'une caméra fisheye installée sur le toit du véhicule de laboratoire, suivie d'une classification binaire permettant d'obtenir les deux classes d'intérêt " ciel " (signaux LOS) et " non ciel " (signaux NLOS). Afin de satisfaire la contrainte temps réel exigée par le projet CAPLOC, nous avons proposé une deuxième approche basée sur une simplification de l'image couplée à une classification pixellaire adaptée. Le principe d'exclusion des satellites NLOS permet d'améliorer la précision de la position estimée, mais uniquement lorsque les satellites LOS (dont les signaux sont reçus de manière direct) sont géométriquement bien distribués dans l'espace. Dans le but de prendre en compte cette connaissance relative à la distribution des satellites, et par conséquent, améliorer la précision de localisation, nous avons proposé une nouvelle stratégie pour l'estimation de position, basée sur l'exclusion des satellites NLOS (identifiés par le traitement d'images), conditionnée par l'information DOP, contenue dans les trames GPS.
63

Approche à base d'agents pour l'ingénierie et le contrôle de micro-réseaux

Basso, Gillian 09 December 2013 (has links) (PDF)
La gestion d'énergie est un sujet de plus en plus important dans notre société. Nous faisons actuellement face à un nombre croissant de problèmes tels que l'épuisement des réserves pétrolières, le réchauffement climatique ou encore la diminution de la qualité de l'énergie (principalement due aux coupures pendant les pics de consommation). Les smartgrids sont une des solutions à ces problèmes. En ajoutant une communication bidirectionnelle et de nouvelles capacités en matière de technologies de l'information et de la communication, il est possible de créer un système autonome de gestion intelligente de l'énergie.Les travaux décrits dans ce mémoire s'intéressent particulièrement à la gestion des microgrids à l'aide de systèmes multi-agents (SMA). Les microgrids sont des réseaux de faibles puissances, composés de petits producteurs d'énergie décentralisés (éventuellement renouvelables) et de consommateurs. Ces réseaux peuvent être reliés (ou non) au réseau global ce qui ajoute à leur complexité. De par leurs complexités et leurs répartitions géographiques, les smartgrids, comme les microgrids, ne peuvent pas être gérés facilement par des systèmes centralisés. Les intelligences artificielles distribuées et plus particulièrement les SMA apparaissent comme un moyen cohérent de résoudre les problèmes liés aux smartgrids.Dans un premier temps, nous avons défini une approche mettant en oeuvre des boucles de rétroaction. Une boucle de rétroaction apparaît dans les systèmes complexes qui peuvent être définis avec plusieurs niveaux d'abstraction. Deux niveaux sont ainsi en interaction. Le niveau micro regroupe un ensemble d'agents ayant des comportements qui, une fois combinés, influeront sur l'état du système. Le niveau macro traite ces influences pour définir un nouvel état du système qui influera sur le comportement des agents du niveau micro. Cette boucle de rétroaction permet de séparer les comportements sur plusieurs niveaux.Cette approche est utilisée pour définir un problème de gestion offre-demande dans un microgrid. Ce problème permet de prendre en compte un ensemble d'objectifs qui sont actuellement traités de manière indépendante. Enfin, une application utilisant un SMA a été développée. Cette approche peut s'intégrer dans ce problème. Elle a pour but d'assurer la stabilité du réseau à tout instant grâce au contrôle de systèmes de stockage.Dans un second temps, un simulateur de réseau électrique permettant le contrôle dynamique des périphériques a été développé. Ce simulateur repose sur trois grands principes. Le premier est une modélisation à base d'agents du simulateur lui-même, pour représenter la complexité des réseaux électriques. Le second principe repose sur l'utilisation du paradigme holonique afin de prendre en compte les multiples niveaux inhérents aux réseaux électriques. Enfin, le troisième principe est inspiré du modelé influence/réaction et propose une technique qui permet de gérer les actions simultanées, éventuellement conflictuelles, au sein des SMA.
64

Cellular GPU Models to Euclidean Optimization Problems : Applications from Stereo Matching to Structured Adaptive Meshing and Traveling Salesman Problem

ZHANG, Naiyu 02 December 2013 (has links) (PDF)
The work presented in this PhD studies and proposes cellular computation parallel models able to address different types of NP-hard optimization problems defined in the Euclidean space, and their implementation on the Graphics Processing Unit (GPU) platform. The goal is to allow both dealing with large size problems and provide substantial acceleration factors by massive parallelism. The field of applications concerns vehicle embedded systems for stereovision as well as transportation problems in the plane, as vehicle routing problems. The main characteristic of the cellular model is that it decomposes the plane into an appropriate number of cellular units, each responsible of a constant part of the input data, and such that each cell corresponds to a single processing unit. Hence, the number of processing units and required memory are with linear increasing relationship to the optimization problem size, which makes the model able to deal with very large size problems.The effectiveness of the proposed cellular models has been tested on the GPU parallel platform on four applications. The first application is a stereo-matching problem. It concerns color stereovision. The problem input is a stereo image pair, and the output a disparity map that represents depths in the 3D scene. The goal is to implement and compare GPU/CPU winner-takes-all local dense stereo-matching methods dealing with CFA (color filter array) image pairs. The second application focuses on the possible GPU improvements able to reach near real-time stereo-matching computation. The third and fourth applications deal with a cellular GPU implementation of the self-organizing map neural network in the plane. The third application concerns structured mesh generation according to the disparity map to allow 3D surface compressed representation. Then, the fourth application is to address large size Euclidean traveling salesman problems (TSP) with up to 33708 cities.In all applications, GPU implementations allow substantial acceleration factors over CPU versions, as the problem size increases and for similar or higher quality results. The GPU speedup factor over CPU was of 20 times faster for the CFA image pairs, but GPU computation time is about 0.2s for a small image pair from Middlebury database. The near real-time stereovision algorithm takes about 0.017s for a small image pair, which is one of the fastest records in the Middlebury benchmark with moderate quality. The structured mesh generation is evaluated on Middlebury data set to gauge the GPU acceleration factor and quality obtained. The acceleration factor for the GPU parallel self-organizing map over the CPU version, on the largest TSP problem with 33708 cities, is of 30 times faster.
65

Multi-sources fusion based vehicle localization in urban environments under a loosely coupled probabilistic framework

Wei, Lijun 17 July 2013 (has links) (PDF)
In some dense urban environments (e.g., a street with tall buildings around), vehicle localization result provided by Global Positioning System (GPS) receiver might not be accurate or even unavailable due to signal reflection (multi-path) or poor satellite visibility. In order to improve the accuracy and robustness of assisted navigation systems so as to guarantee driving security and service continuity on road, a vehicle localization approach is presented in this thesis by taking use of the redundancy and complementarities of multiple sensors. At first, GPS localization method is complemented by onboard dead-reckoning (DR) method (inertial measurement unit, odometer, gyroscope), stereovision based visual odometry method, horizontal laser range finder (LRF) based scan alignment method, and a 2D GIS road network map based map-matching method to provide a coarse vehicle pose estimation. A sensor selection step is applied to validate the coherence of the observations from multiple sensors, only information provided by the validated sensors are combined under a loosely coupled probabilistic framework with an information filter. Then, if GPS receivers encounter long term outages, the accumulated localization error of DR-only method is proposed to be bounded by adding a GIS building map layer. Two onboard LRF systems (a horizontal LRF and a vertical LRF) are mounted on the roof of the vehicle and used to detect building facades in urban environment. The detected building facades are projected onto the 2D ground plane and associated with the GIS building map layer to correct the vehicle pose error, especially for the lateral error. The extracted facade landmarks from the vertical LRF scan are stored in a new GIS map layer. The proposed approach is tested and evaluated with real data sequences. Experimental results with real data show that fusion of the stereoscopic system and LRF can continue to localize the vehicle during GPS outages in short period and to correct the GPS positioning error such as GPS jumps; the road map can help to obtain an approximate estimation of the vehicle position by projecting the vehicle position on the corresponding road segment; and the integration of the building information can help to refine the initial pose estimation when GPS signals are lost for long time.
66

Um tiro no escuro: as estratégias e incertezas da inclusão digital no Brasil / A shot in the dark: the strategies and uncertainties of digital bridging in Brazil

Brito, Paulo Jorge Leal de 28 March 2005 (has links)
Made available in DSpace on 2016-04-26T18:15:44Z (GMT). No. of bitstreams: 1 paulo_brito.pdf: 674840 bytes, checksum: 7e8af7d18efdc331b641bba54aeb7a5e (MD5) Previous issue date: 2005-03-28 / This study aimed to investigate, in the available contemporary literature, the digital bridging in general, and specifically the access possibilities of brazilian citizens to new communication technologies the existence of such possibilities classifies an individual as digitally included . The study started with those theories that explain inclusion and exclusion. Digital exclusion (or digital divide), a set of interdictions that block the access of individuals to modern resources of digital communication, was found inside the social exclusion, and was studied so. The research on the subject regarding Brazil was performed preliminarily with some of the few works that were found on the theme, and then with the help of data surveys of IBGE on the possession of microcomputers, telephone lines and the availability of internet access, regarding not only individuals but households as well. Among our conclusions, we should remark these: 1) Brazil is needing more studies on this subject, since we found a good number of research on digital bridging in other languages and based on other countries but just a few in portuguese and regarding Brazil; 2) The main digital bridging actions have been done without any further assessment, what means that its results remain unknown; thus, it is impossible to tell if the knowledge acquired during these actions changes culture and behavior of an individual, turning him into an included in the digital communication world / Este estudo procurou investigar, dentro da literatura contemporânea disponível, a inclusão digital em geral, e especificamente as possibilidades de acesso dos brasileiros às novas tecnologias de comunicação a existência da possibilidade de acesso classifica o indivíduo como um incluído digital. O trabalho foi iniciado tomando por base as teorias que explicam inclusão e exclusão, percorrendo depois teorias e pesquisas relacionadas à exclusão social. A exclusão digital, um conjunto de interdições que impedem o acesso de indivíduos aos modernos recursos de comunicação digital, foi localizada dentro da exclusão social e assim estudada. A pesquisa sobre o assunto em relação ao Brasil foi feita preliminarmente a partir das poucas obras que tratam desse tema, e depois com o auxílio de dados de levantamentos do IBGE relativos à posse de microcomputadores, telefones e disponibilidade de acesso à Internet, referentes não só a indivíduos como também a domicílios. Entre as conclusões, devemos ressaltar as de que: 1) o Brasil está necessitando de estudos mais aprofundados sobre o assunto, já que localizamos boa quantidade de pesquisas sobre a Inclusão Digital em outras línguas e sobre outros países mas poucas em português e sobre essa questão no Brasil; 2) as grandes ações de inclusão digital estão sendo feitas sem acompanhamento posterior, ou seja, os resultados não são conhecidos, não sendo possível, portanto, concluir se o conhecimento adquirido nessas ações transforma a cultura e o comportamento do indivíduo, a ponto de torná-lo de fato um incluído no mundo da comunicação digital
67

Coordination des activités réparties dans des situations dynamiques : le cas de la gestion de crise inter-organisationnel

Franke, Jörn 14 October 2011 (has links) (PDF)
De nombreuses catastrophes de diverses envergures frappent régulièrement des populations partout dans le monde. Parmi les exemples marquant on peut citer l'ouragan Katrina en 2005, le tremblement de terre en Haïti en 2010 ou plus récemment le Tsunami au Japon et la catastrophe de Fukujima qui a suivie. Au cours de ces catastrophes, plusieurs centaines d'organisations, comme la police, les pompiers ou les organisations d'aide humanitaire, interviennent pour sauver les gens et aider à revenir à une vie normale. Ces organisations ont besoin de se coordonner pour faire face à une situation dynamique avec des ressources limitées et une vision partielle de la situation. L'évolution de la situation entraîne souvent des changements d'objectif et de plan. Un des problèmes typique est d'obtenir un aperçu sur les relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Ce problème est particulièrement difficile sur le plan inter-organisationnel : Chaque organisation coordonne la réponse de sa propre perspective et s'appuie sur les informations fournies par d'autres organisations. Notre objectif dans cette thèse est d'étudier comment supporter la coordination des activités par des personnes de différentes organisations dans une situation dynamique par un système d'information. L'idée de base est de tirer profit d'une approche basée sur les processus, où les activités et leurs relations sont rendues explicites. Nous présentons un cadre pour la coordination des activités dans des situations dynamiques. Il permet la modélisation ad hoc des relations entre ce qui a été fait, ce qui se passe actuellement et quelles sont les prochaines étapes. Les écarts par rapport au modèle et comment les activités ont été réalisées sont affichées à l'utilisateur pour mettre en évidence l'impact de l'évolution des objectifs. Nous étendons ce cadre au niveau inter-organisationnel. Certaines activités peuvent être partagées entre différentes organisations. Tout n'est pas partagé entre tout le monde pour tenir compte du respect de la vie privée, de la réglementation, des raisons stratégiques ou autres. Les activités partagées sont reproduites dans les espaces de travail de ces organisations. Nous décrivons comment des vues divergentes sur les activités et leurs relations peuvent etre détectées et traitées afin de revenir éventuellement à une vue convergente. Les concepts sont mis en œuvre comme une extension d'un service de collaboration distribuée ouvert. Ils ont été évalués par des gestionnaires de catastrophes expérimentés. Par ailleurs, nous avons conçu une expérience visant à évaluer l'utilisation d'outils pour aborder ces question. Nous avons effectué plusieurs expériences pour valider cette expérience. D'autres expériences pourront fournir une validation plus complété du modèle proposé dans cette thèse.
68

Conception et évaluation de performance d'un Bus applicatif, massivement parallèle et orienté service.

Benosman, Mohammed Ridha 12 December 2013 (has links) (PDF)
Enterprise Service Bus (ESB) est actuellement l'approche la plus prometteuse pour l'implémentation d'une architecture orientée services (SOA : Service-Oriented Architecture) par l'intégration des différentes applications isolées dans une plateforme centralisée. De nombreuses solutions d'intégration à base d'ESB on été proposées, elles sont soit open-source comme : Mule, Petals, ou encore Fuse, soit propriétaires tels que : Sonic ESB, IBM WebSphere Message Broker, ou Oracle ESB. Cependant, il n'en existe aucune en mesure de traiter, à la fois des aspects : d'intégration et de traitement massivement parallèle, du moins à notre connaissance. L'intégration du parallélisme dans le traitement est un moyen de tirer profit des technologies multicœurs/multiprocesseurs qui améliorent considérablement les performances des ESBs.Toutefois, cette intégration est une démarche complexe et soulève des problèmes à plusieurs niveaux : communication, synchronisation, partage de données, etc.Dans cette thèse, nous présentons l'étude d'une nouvelle architecture massivement parallèle de type ESB.
69

Two complementary approaches to detecting vulnerabilities in C programs

Jimenez, Willy 04 October 2013 (has links) (PDF)
In general, computer software vulnerabilities are defined as special cases where an unexpected behavior of the system leads to the degradation of security properties or the violation of security policies. These vulnerabilities can be exploited by malicious users or systems impacting the security and/or operation of the attacked system. Since the literature on vulnerabilities is not always available to developers and the used tools do not allow detecting and avoiding them; the software industry continues to be affected by security breaches. Therefore, the detection of vulnerabilities in software has become a major concern and research area. Our research was done under the scope of the SHIELDS European project and focuses specifically on modeling techniques and formal detection of vulnerabilities. In this area, existing approaches are limited and do not always rely on a precise formal modeling of the vulnerabilities they target. Additionally detection tools produce a significant number of false positives/negatives. Note also that it is quite difficult for a developer to know what vulnerabilities are detected by each tool because they are not well documented. Under this context the contributions made in this thesis are: Definition of a formalism called template. Definition of a formal language, called Vulnerability Detection Condition (VDC), which can accurately model the occurrence of a vulnerability. Also a method to generate VDCs from templates has been defined. Defining a second approach for detecting vulnerabilities which combines model checking and fault injection techniques. Experiments on both approaches
70

Analyse communicationnelle des systèmes d'information dans le secteur de la santé (2000-2012) : l'exemple de l'implantation de deux logiciels dans les pratiques de la clinique mutualiste La Sagesse de Rennes

Ndiaye, Diarra 25 January 2013 (has links) (PDF)
Nous présenterons dans le cadre de cette thèse les résultats d'une étude qualitative basée sur deux logiciels (HôpitalManager et CURSUS 3), implantés à la clinique La Sagesse de Rennes ; étude qui a pour objectif, de souligner les enjeuxcommunicationnels que pose ces outils dans les pratiques cliniques. Ces outils sont considérés aujourd'hui comme des dispositifs de modernisation, de rationalisation, de changementdes pratiques, et des interactions entre le patient, le médecin et les dispensateurs de soins. Ainsi, notre objectif est donc demontrer qu'en plus des enjeux techniques, managériaux, politiques et économiques qui sont identifiés par de nombreuxchercheurs, il existe des défis en termes de communication.Les interrogations que nous soulèverons du point de vue de la recherche en Science de l'Information et de la Communication, autour de ces processus de rationalisation, s'inscriront dans une problématique de changementorganisationnel, de circulation d'information ou encore de normalisation des pratiques professionnelles. Dans cespréoccupations, la technologie déduit tout son raisonnement à partir d'une seule prémisse, celle de la performativité dans les organisations. Ce que nous retenons des travaux d'Orlikowski, réside dans le fait que ce qui compte pour évaluer l'efficacité et la performance d'une technologie n'est pas l'artefact technologique, mais c'est la technologie en pratique(Orlikowski, 2000). Ainsi, notre objectif est de montrer que le discours médico-intégratif, est un énoncé performatif quirepose sur des modalités de communication

Page generated in 0.0575 seconds