• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

Information spotting in huge repositories of scanned document images / Localisation d'information dans des très grands corpus de documents numérisés

Dang, Quoc Bao 06 April 2018 (has links)
Ce travail vise à développer un cadre générique qui est capable de produire des applications de localisation d'informations à partir d’une caméra (webcam, smartphone) dans des très grands dépôts d'images de documents numérisés et hétérogènes via des descripteurs locaux. Ainsi, dans cette thèse, nous proposons d'abord un ensemble de descripteurs qui puissent être appliqués sur des contenus aux caractéristiques génériques (composés de textes et d’images) dédié aux systèmes de recherche et de localisation d'images de documents. Nos descripteurs proposés comprennent SRIF, PSRIF, DELTRIF et SSKSRIF qui sont construits à partir de l’organisation spatiale des points d’intérêts les plus proches autour d'un point-clé pivot. Tous ces points sont extraits à partir des centres de gravité des composantes connexes de l‘image. A partir de ces points d’intérêts, des caractéristiques géométriques invariantes aux dégradations sont considérées pour construire nos descripteurs. SRIF et PSRIF sont calculés à partir d'un ensemble local des m points d’intérêts les plus proches autour d'un point d’intérêt pivot. Quant aux descripteurs DELTRIF et SSKSRIF, cette organisation spatiale est calculée via une triangulation de Delaunay formée à partir d'un ensemble de points d’intérêts extraits dans les images. Cette seconde version des descripteurs permet d’obtenir une description de forme locale sans paramètres. En outre, nous avons également étendu notre travail afin de le rendre compatible avec les descripteurs classiques de la littérature qui reposent sur l’utilisation de points d’intérêts dédiés de sorte qu'ils puissent traiter la recherche et la localisation d'images de documents à contenu hétérogène. La seconde contribution de cette thèse porte sur un système d'indexation de très grands volumes de données à partir d’un descripteur volumineux. Ces deux contraintes viennent peser lourd sur la mémoire du système d’indexation. En outre, la très grande dimensionnalité des descripteurs peut amener à une réduction de la précision de l'indexation, réduction liée au problème de dimensionnalité. Nous proposons donc trois techniques d'indexation robustes, qui peuvent toutes être employées sans avoir besoin de stocker les descripteurs locaux dans la mémoire du système. Cela permet, in fine, d’économiser la mémoire et d’accélérer le temps de recherche de l’information, tout en s’abstrayant d’une validation de type distance. Pour cela, nous avons proposé trois méthodes s’appuyant sur des arbres de décisions : « randomized clustering tree indexing” qui hérite des propriétés des kd-tree, « kmean-tree » et les « random forest » afin de sélectionner de manière aléatoire les K dimensions qui permettent de combiner la plus grande variance expliquée pour chaque nœud de l’arbre. Nous avons également proposé une fonction de hachage étendue pour l'indexation de contenus hétérogènes provenant de plusieurs couches de l'image. Comme troisième contribution de cette thèse, nous avons proposé une méthode simple et robuste pour calculer l'orientation des régions obtenues par le détecteur MSER, afin que celui-ci puisse être combiné avec des descripteurs dédiés. Comme la plupart de ces descripteurs visent à capturer des informations de voisinage autour d’une région donnée, nous avons proposé un moyen d'étendre les régions MSER en augmentant le rayon de chaque région. Cette stratégie peut également être appliquée à d'autres régions détectées afin de rendre les descripteurs plus distinctifs. Enfin, afin d'évaluer les performances de nos contributions, et en nous fondant sur l'absence d'ensemble de données publiquement disponibles pour la localisation d’information hétérogène dans des images capturées par une caméra, nous avons construit trois jeux de données qui sont disponibles pour la communauté scientifique. / This work aims at developing a generic framework which is able to produce camera-based applications of information spotting in huge repositories of heterogeneous content document images via local descriptors. The targeted systems may take as input a portion of an image acquired as a query and the system is capable of returning focused portion of database image that match the query best. We firstly propose a set of generic feature descriptors for camera-based document images retrieval and spotting systems. Our proposed descriptors comprise SRIF, PSRIF, DELTRIF and SSKSRIF that are built from spatial space information of nearest keypoints around a keypoints which are extracted from centroids of connected components. From these keypoints, the invariant geometrical features are considered to be taken into account for the descriptor. SRIF and PSRIF are computed from a local set of m nearest keypoints around a keypoint. While DELTRIF and SSKSRIF can fix the way to combine local shape description without using parameter via Delaunay triangulation formed from a set of keypoints extracted from a document image. Furthermore, we propose a framework to compute the descriptors based on spatial space of dedicated keypoints e.g SURF or SIFT or ORB so that they can deal with heterogeneous-content camera-based document image retrieval and spotting. In practice, a large-scale indexing system with an enormous of descriptors put the burdens for memory when they are stored. In addition, high dimension of descriptors can make the accuracy of indexing reduce. We propose three robust indexing frameworks that can be employed without storing local descriptors in the memory for saving memory and speeding up retrieval time by discarding distance validating. The randomized clustering tree indexing inherits kd-tree, kmean-tree and random forest from the way to select K dimensions randomly combined with the highest variance dimension from each node of the tree. We also proposed the weighted Euclidean distance between two data points that is computed and oriented the highest variance dimension. The secondly proposed hashing relies on an indexing system that employs one simple hash table for indexing and retrieving without storing database descriptors. Besides, we propose an extended hashing based method for indexing multi-kinds of features coming from multi-layer of the image. Along with proposed descriptors as well indexing frameworks, we proposed a simple robust way to compute shape orientation of MSER regions so that they can combine with dedicated descriptors (e.g SIFT, SURF, ORB and etc.) rotation invariantly. In the case that descriptors are able to capture neighborhood information around MSER regions, we propose a way to extend MSER regions by increasing the radius of each region. This strategy can be also applied for other detected regions in order to make descriptors be more distinctive. Moreover, we employed the extended hashing based method for indexing multi-kinds of features from multi-layer of images. This system are not only applied for uniform feature type but also multiple feature types from multi-layers separated. Finally, in order to assess the performances of our contributions, and based on the assessment that no public dataset exists for camera-based document image retrieval and spotting systems, we built a new dataset which has been made freely and publicly available for the scientific community. This dataset contains portions of document images acquired via a camera as a query. It is composed of three kinds of information: textual content, graphical content and heterogeneous content.
122

L'intégration de la logistique dans les domaines d'aménagement du territoire : contribution à la conception d'un système d'aide à la décision dédié / Integration of logistics in areas of spatial planning : Contribution to the conception of a dedicated Decision Support System

Sassi, Ebtissem 05 April 2019 (has links)
Il est bien connu que l'écosystème industriel territorial représente aujourd'hui un enjeu majeur dans les politiques d’aménagement du territoire. De ce fait, il constitue un système d’action où les différents acteurs impliqués utilisent des différentes approches et dont les objectifs ne sont pas toujours proches et les points de vue parfois conflictuels. Toutes approches confondues, un type idéal de tableau de bord incorporant des indicateurs et centré sur le pilotage de la performance émerge aujourd'hui de la littérature.Dans ce contexte, il apparaît l'importance du traitement de la problématique d'évaluation d'un écosystème industriel territorial et plus précisément l'évaluation de la performance d'un système de distribution dans une zone portuaire : l’hinterland. Ce sujet n'a pas été assez développé dans la littérature puisqu’il n’a pas été traité selon une approche pluridisciplinaire.Cette problématique est caractérisée par la forte liaison entre l'infrastructure de transport, le système territorial et les zones logistiques suite à l'échange des flux de marchandises dans le territoire à travers l'infrastructure de transport. L'apport théorique de ce travail se présente dans la démarche originale d'investigation qui met en contribution des approches théoriques différentes dans le but de comprendre et résoudre une problématique relative à deux systèmes complexes (le système logistique et le système territorial). Pour plus de clarté, ce travail s'agit d'une aide à la décision à travers la réflexion sur les solutions de distribution en intégrant les spécificités territoriales et non pas comme un outil d'optimisation des tournées ou de l'organisation logistique. / It is well known that the territorial industrial ecosystem is now a major issue in territory planning policies. As a result, it constitutes a system of action in which the various actors involved use different approaches and whose objectives are not always close and sometimes conflicting points of view. In all approaches, an ideal type of dashboard incorporating indicators and focusing on performance pilotage is emerging today from the literature.In this context, it appears the importance of the treatment of the problem of evaluation of a territorial industrial ecosystem and more precisely the evaluation of the performance of a distribution system in a port area: the hinterland.This subject has not been sufficiently developed in the literature since it has not been treated with a multidisciplinary approach.This problem is characterized by the strong link between the transport infrastructure, the territorial system and the logistics zones following the exchange of goods flows in the territory through the transport infrastructure.The theoretical contribution of this work is presented in the original investigation approach, which involves different theoretical approaches in order to understand and solve a problem related to two complex systems (the logistics system and the territorial system).For clarity, this work is a decision aid through the reflection on distribution solutions by integrating territorial specificities and not as a tool for optimizing tours or logistics organization.
123

Deux critères de sécurité pour l'exécution de code mobile

Grall, Hervé 15 December 2003 (has links) (PDF)
Les programmes mobiles, comme les applettes, sont utiles mais potentiellement hostiles, et il faut donc pouvoir s'assurer que leur exécution n'est pas dangereuse pour le système hôte. Une solution est d'exécuter le programme mobile dans un environnement sécurisé, servant d'interface avec les ressources locales, dans le but de contrôler les flux d'informations entre le code mobile et les ressources, ainsi que les accès du code mobile aux ressources. Nous proposons deux critères de sécurité pour l'exécution de code mobile, obtenus chacun à partir d'une analyse de l'environnement local. Le premier porte sur les flux d'informations, garantit la confidentialité, est fondé sur le code de l'environnement, et est exact et indécidable ; le second porte sur les contrôles d'accès, garantit le confinement, s'obtient à partir du type de l'environnement, et est approché et décidable. Le premier chapitre, méthodologique, présente l'étude d'objets infinis représentés sous la forme d'arbres. Nous avons privilégié pour les définir, une approche équationnelle, et pour raisonner sur eux, une approche déductive, fondée sur l'interprétation co-inductive de systèmes d'inférence. Dans le second chapitre, on montre dans le cas simple du calcul, comment passer d'une sémantique opérationnelle à une sémantique dénotationnelle, en utilisant comme dénotation d'un programme son observation. Le troisième chapitre présente finalement en détail les deux critères de sécurité pour l'exécution de code mobile. Les techniques développées dans les chapitres précédents sont utilisées pour l'étude de la confidentialité, alors que des techniques élémentaires suffisent à l'étude du confinement.
124

Grammaires locales pour l'analyse automatique de textes : méthodes de construction et outils de gestion

Constant, Matthieu 08 September 2003 (has links) (PDF)
L'explosion du nombre de documents disponibles (notamment sur Internet) a rendu le domaine du Traitement Automatique des Langues (TAL) et ses outils incontournables. De nombreux chercheurs marquent l'importance de la linguistique dans ce domaine. Ils préconisent la construction de larges bases de descriptions linguistiques, composées de lexiques et de grammaires. Cette démarche a un gros inconvénient : elle nécessite un investissement lourd qui s'inscrit sur le long terme. Pour palier à ce problème, il est nécessaire de mettre au point des méthodes et des outils informatiques d'aide à la construction de composants linguistiques fins et directement applicables à des textes. Nous nous sommes penché sur le problème des grammaires locales qui décrivent des contraintes précises et locales sous la forme de graphes. Deux questions fondamentales se posent : - Comment construire efficacement des grammaires précises, complètes et applicables à des textes ? - Comment gérer leur nombre et leur éparpillement ? Comme solution au premier problème, nous avons proposé un ensemble de méthodes simples et empiriques. Nous avons exposé des processus d'analyse linguistique et de représentation à travers deux phénomènes : les expressions de mesure (un immeuble d'une hauteur de 20 mètres) et les adverbes de lieu contenant un nom propre locatif (à l'île de la Réunion), deux points critiques du TAL. Sur la base de M. Gross (1975), nous avons ramené chaque phénomène à une phrase élémentaire. Ceci nous a permis de classer sémantiquement certains phénomènes au moyen de critères formels. Nous avons systématiquement étudié le comportement de ces phrases selon les valeurs lexicales de ses éléments. Les faits observés ont ensuite été représentés formellement soit directement dans des graphes à l'aide d'un éditeur, soit par l'intermédiaire de tables syntaxiques ensuite converties semiautomatiquement en graphes. Au cours de notre travail, nous avons été confronté à des systèmes relationnels de tables syntaxiques pour lesquels la méthode standard de conversion due à E. Roche (1993) ne fonctionnait plus. Nous avons donc élaboré une nouvelle méthode adaptée avec des formalismes et des algorithmes permettant de gérer le cas où les informations sur les graphes à construire se trouvent dans plusieurs tables. En ce qui concerne le deuxième problème, nous avons proposé et implanté un prototype de système de gestion de grammaires locales : une bibliothèque en-ligne de graphes. Le but à terme est de centraliser et de diffuser les grammaires locales construites au sein du réseau RELEX. Nous avons conçu un ensemble d'outils permettant à la fois de stocker de nouveaux graphes et de rechercher des graphes suivant différents critères. L'implémentation d'un moteur de recherche de grammaires nous a également permis de nous pencher sur un nouveau champ d'investigation dans le domaine de la recherche d'information : la recherche d'informations linguistiques dans des grammaires locales.
125

Application de la télédétection et des systèmes d'informations géographiques à l'etude des mouvements de terrain au Liban

Abdallah, Chadi 11 July 2007 (has links) (PDF)
Parmi les aléas naturels, les mouvements de terrain (MT) sont probablement les plus nuisibles à l'environnement naturel et humain, notamment dans les pays méditerranéens, incluant le Liban qui représente un bon cas d'étude de région montagneuse. Ce phénomène n'a pas été étudié à l'échelle régionale bien qu'il affecte de vastes zones dans ce pays, et les cartes d'aléa manquent encore. La recherche présentée ici est consacrée à l'utilisation des techniques de télédétection et des systèmes d'informations géographiques (SIG), pour l'étude des MT au Liban. La première partie passe en revue les connaissances existantes sur le thème des mouvements de terrain (MT), plus spécifiquement dans la région méditerranéenne, et définit les lacunes de recherche. Elle expose les divers types existants de MT, leurs magnitudes, les agents causatifs, et leurs effets. Elle clarifie la terminologie utilisée pour les MT (aléa, susceptibilité, risque, etc.), et compare les méthodes les plus utilisées pour la cartographie de l'aléa/susceptibilité aux MT. Elle présente aussi un état des avantages et problèmes de la télédétection et du SIG dans les études de mouvements de terrain, en insistant sur les voies possibles de recherche. La deuxième partie est consacrée à la description détaillée de la région d'étude qui couvre les versants méditerranéens du nord du Liban central. Les caractéristiques physiques/morphodynamiques et socio-économiques de cette région sont exposées, ainsi que les aléas naturels, les événements de MT, les impacts socio-économiques et les mesures de conservation. Toutes les études sur l'aléa MT au Liban sont revisitées. La région d'étude, s'étendant de la côte méditerranéenne jusqu'à 3000 m d'altitude, couvre à peu près 36 % de la superficie totale du Liban. Elle est représentative de la diversité géo-environnementale de ce pays en termes de géologie, sol, hydrographie, occupation du sol et climat. Elle se caractérise par des activités humaines problématiques (par exemple une expansion urbaine chaotique, la recharge artificielle des eaux souterraines, un surpâturage, des incendies de forêt), accroissant la dégradation de l'environnement et induisant les MT, avec un contrôle gouvernemental minime. La troisième compare l'efficacité de différents capteurs satellitaires à résolutions variées (Landsat TM, IRS, SPOT4) et diverses techniques de traitement d'image (composition colorée, fusion, analyse en composantes principales ACP, vision stéréoscopique) pour la détection visuelle des mouvements de terrain classés en glissements, éboulements de blocs rocheux et de débris, et coulées de boue. Les résultats ont été validés sur le terrain et en analysant des images IKONOS (1 m) acquises en certaines localités menacées par des MT sur de longues périodes. Ensuite, les niveaux de précision de la détection des MT à partir des images satellitaires ont été calculés. Cette étude a montré que l'anaglyphe produit à partir des images panchromatiques stéréo SPOT4 reste l'outil le plus efficace grâce aux caractéristiques 3D jouant un rôle essentiel dans l'interprétation visuelle et montrant un niveau de précision (pourcentage des MT détectés et vérifiés sur le terrain) maximal de 69 %. De plus, l'image de fusion Landsat TM-IRS, calculée par ACP, fournit des résultats de détection des MT meilleurs que les autres techniques, avec un niveau de précision de 62 %. Les erreurs d'interprétation fluctuent non seulement en fonction de la technique de traitement utilisée, mais aussi en fonction des types de MT. Elles sont minimes quand l'anaglyphe (3D) SPOT4 est pris en considération, variant de 31 % (glissements), 36 % (éboulements de blocs rocheux et de débris) à 46 % dans le cas des coulées de boue. La quatrième partie explore les relations entre l'occurrence de MT et les paramètres du terrain. Ces paramètres sont: 1- les facteurs de prédisposition, comme l'altitude, la pente en gradient, l'aspect de pente, la courbure de pente, la lithologie, la proximité aux failles, le type de karst, la distance aux carrières, le type de sol, la distance aux réseaux de drainage, la distance aux sources, l'occupation/utilisation du sol et la proximité aux routes, et 2- les facteurs déclenchants, comme la quantité de pluies, les événements sismiques, les inondations et les incendies de forêt, qui ont été corrélés avec les MT en utilisant les approches SIG. Cette étude montre, en se basant sur les corrélations statistiques bi-variées satellitaires et SIG (corrélation Kendal Tau-b), que la lithologie est ce qui influence le plus l'occurrence des MT, puisqu'elle a la corrélation la plus élevée avec les autres paramètres (7 fois corrélée à un niveau de signification de 1 %, et 3 fois à 5 %). Elle montre aussi que les corrélations statistiques entre ces paramètres et les mouvements de terrain existent suivant l'ordre d'importance décroissant suivant : type de sol/distance aux sources (agissant de manière similaire sur l'occurrence des MT), karst/distance aux carrières/occupation/utilisation du sol, proximité aux failles, gradient de pente/proximité aux routes/inondations, événements sismiques, altitude/aspect de pente/incendies de forêt. Ces corrélations sont vérifiées sur le terrain et expliquées en utilisant des corrélations statistiques uni-variées. Par conséquent, elles peuvent être extrapolées à d'autres pays méditerranéens caractérisés par des conditions géoenvironnementales similaires. La cinquième partie propose une méthode mathématique décisionnelle (méthode analytique bi-univariée d'évaluation ou "Valuing Analytical Bi-Univariate (VABU)") qui considère deux niveaux de pondération pour la cartographie de l'aléa/susceptibilité des MT (échelle 1/50000) dans la région d'étude. La fiabilité de cette méthode est examinée sur le terrain et en la comparant avec d'autres méthodes statistiques - Valuing accumulation Area (VAA) (un seul niveau d'évaluation) and Information Value (InfoVal) (nécessitant des mesures détaillées des MT). Trois cartes de susceptibilité sont dérivées en utilisant les facteurs conditionnant l'occurrence des MT, tandis que les cartes d'aléa sont produites à partir des facteurs déclenchants. Les valeurs de coïncidence de superposition des cartes de susceptibilité sont de 47,5 % (VABU/VAA), 54 % (VABU/InfoVal) et 38% (VAA/InfoVal), respectivement. L'accord entre les cartes d'aléas montre des valeurs proches de celles des cartes de susceptibilité, variant entre 36,5 % (VAA/InfoVal), 39 % (VABU/VAA), et 44 % (VABU/InfoVal). La validation sur le terrain indique que la précision totale des cartes de susceptibilité produites varie entre 52,5% (méthode VAA), 67,5% (méthode InfoVal) et 77,5% (méthode VABU). Cela démontre l'efficacité de notre méthode qui peut être adoptée pour une cartographie prédictive de l'aléa et de la susceptibilité des MT dans d'autres régions au Liban, et peut être aussi aisément extrapolée en utilisant les capacités fonctionnelles du SIG. La sixième partie prédit la distribution géographique et le volume des blocs rocheux (m3) dans la région d'étude en utilisant la modélisation suivant un arbre décisionnel. Une telle cartographie est indisponible au Liban, mais aussi dans d'autres pays qui portent plutôt leur effort sur la recherche des glissements plutôt que les autres types de MT. Plusieurs modèles d'arbres décisionnels ont été développés en utilisant, (1) tous les paramètres de terrain, (2) les paramètres topographiques uniquement, (3) les paramètres géologiques, et en adoptant plusieurs techniques de traitement. Le meilleur arbre de régression combine tous les paramètres et explique 80 % de la variabilité dans les mesures des blocs rocheux sur le terrain. Le modèle construit en utilisant les quatre paramètres géologiques (lithologie, type de sol, proximité aux failles et type de karst) parait aussi intéressant car il classe 68 % des blocs rocheux tout en se référant à un petit nombre de données d'entrée (4 paramètres). La carte produite de 'prédiction quantitative des blocs rocheux' à l'échelle du 1/50 000 apparait extrêmement utile pour la décision, aidant à l'adoption des mesures de conservation afin de réduire l'occurrence de movements nuisibles de blocs rocheux. La septième partie s'intéresse à la surveillance de l'activité des MT à travers l'intégration des données spatiales radar et des techniques GPS (Système de positionnement global). Les données radar ERS sont traitées en utilisant les techniques InSAR et des réflecteurs permanents. Cette analyse montre des difficultés pour la détection des MT. Cependant, elle est jusqu'à présent préliminaire, et un plan de travail futur prendra en considération d'autres traitements pour la détection des déplacements. D'un autre côté, une installation GPS a été effectuée dans la région de Hammana, un village libanais menacé par un grand glissement. Deux campagnes ont été rassemblées, mais les résultats manquent encore puisqu'il n'y a pas des données accumulées suffisantes. Plus d'observations sont nécessaires afin de construire une représentation compréhensive de la direction et de la vitesse du mouvement.
126

Recalage et fusion d'informations multimodales pour l'optimisation de la thérapie de resynchronisation cardiaque

Tavard, François 24 April 2012 (has links) (PDF)
Ces travaux portent sur le recalage et la fusion d'informations multimodales dans le cadre de l'optimisation de la thérapie de resynchronisation cardiaque (CRT). Des descripteurs locaux du couplage électromécanique cardiaque sont extraits à partir d'informations anatomiques, fonctionnelles, électriques et mécaniques issues de volumes scanner (CT), d'échocardiographie par ''speckle tracking'' (US) et de cartographies électroanatomiques (EAM). L'approche proposée repose sur le recalage des données multimodales sur un modèle 3D+t du ventricule gauche (VG) calculé à partir de surfaces segmentées. Cette approche procède en deux temps : (1) un recalage semi-interactif des données EAM et d'images CT ; (2) un recalage de données US avec le modèle dynamique pour lequel les deux méthodes automatiques (statique et dynamique) ont été développées. Ces techniques intègrent un mode de projection radiale et une interpolation de mise en correspondance temporelle (par Dynamic Time Warping) des données EAM et US. Ces méthodes offrent la possibilité de calculer, sous différents modes de simulation cardiaque, les délais d'activation électrique, les cartes de voltage, les délais mécaniques et les délais électromécaniques locaux. La visualisation (cartographies 3D et 2D) de ces descripteurs permet de caractériser le couplage électromécanique intra-segments du VG. Ces méthodes ont été appliquées sur données simulées et réelles. Elles ont montré leur pertinence quant à la possibilité d'extraire des descripteurs locaux de la fonction cardiaque significatifs pour l'optimisation de la pose de stimulateur en CRT.
127

Elaboration d'une approche hybride SMA-SIG pour la définition d'un système d'aide à la décision;<br />application à la gestion de l'eau

Urbani, Dominique 29 November 2006 (has links) (PDF)
Les décideurs sont de plus en plus souvent confrontés à des problèmes complexes qui touchent des millions de personnes. Ils souhaitent faire face à ces problèmes avec le maximum d'éléments objectifs et prendre leur décision en tenant compte des intérêts de toutes les parties prenantes. Ces éléments doivent leur permettre de choisir rationnellement la meilleure solution, d'être en mesure d'expliquer et de justifier leur choix. Dans ce document, nous examinons dans un premier temps les systèmes informatiques d'aide à la décision et les liens qui existent entre la modélisation du problème et l'aide à la décision. Nous proposons une nouvelle approche des systèmes informatiques d'aide à la décision qui est basée sur l'utilisation combinée d'un modèle individus centrés construit suivant le paradigme multi-agents et d'un système d'informations géographiques. Après avoir mis en évidence les avantages de cette approche hybride, nous examinons les connaissances qui sont mobilisées dans un processus de prise de décision. Nous précisons quelles sont les relations qui existent dans ce cadre entre le modèle multi-agents et le système d'informations géographiques. Poursuivant nos travaux, nous proposons une architecture de plateforme de développement d'outils d'aide à la décision dédiés aux problèmes ayant une composante spatiale qui prend en compte les comportements individuels. Nous implémentons cette architecture en utilisant une plateforme multi-agents et un système d'informations géographiques existants. Nous validons nos travaux en développant suivant notre approche hybride un système informatique d'aide à la décision dédié au problème de l'eau.
128

Visions d’État : deux systèmes d'informations géographiques dans la « gouvernance »

Sibille, Bastien 05 1900 (has links)
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques. / During the 1990s, Canada’s federal government and the European Commission established two networks of geographic information systems (GIS): the National Forest Information System in Canada and the Infrastructure for Spatial Information in the European Union. These two systems permit social and environment facts to be studied geographically and to be mapped. In this thesis, we emphasize the heuristic value of these two networks of geographic information systems: an analysis of them allows us to better understand the institutional configurations that existed during their development, that is to say, in our cases, what is called “governance”. As instruments that measure and represent phenomena, GIS belong to knowledge tools. As knowledge tools, they allow us to discuss two issues of “governance” theories: relationships between central and local administrations, and relationships between state and non-state organizations. This discussion leads us to show, on the one hand, that the reorganization of different levels of government does not signify, as is described elsewhere in the literature, the retreat of central administrations in favor of local administrations, but is rather a means for more forcefully controlling them. On the other hand, we show that the renegotiation of relationships between central and local administrations is not accompanied, in reality, by a negotiation of relationships with non-state organizations. In light of the fact that non-state organizations are not integrated in states’ GIS networks, we must revisit theories of “governance” that foresee governments as more open to civil society. This helps us to understand how knowledge tools can be used in order to exclude certain facts from State's sight. In conclusion, this political analysis of two specific software – GIS – leads us to propose that some software can be considered as political institutions.
129

Des algorithmes presque optimaux pour les problèmes de décision séquentielle à des fins de collecte d'information

Araya-López, Mauricio 04 February 2013 (has links) (PDF)
Le formalisme des MDP, comme ses variantes, sert typiquement à contrôler l'état d'un système par l'intermédiaire d'un agent et de sa politique. Lorsque l'agent fait face à des informations incomplètes, sa politique peut eff ectuer des actions pour acquérir de l'information typiquement (1) dans le cas d'une observabilité partielle, ou (2) dans le cas de l'apprentissage par renforcement. Toutefois cette information ne constitue qu'un moyen pour contrôler au mieux l'état du système, de sorte que la collecte d'informations n'est qu'une conséquence de la maximisation de la performance escomptée. Cette thèse s'intéresse au contraire à des problèmes de prise de décision séquentielle dans lesquels l'acquisition d'information est une fin en soi. Plus précisément, elle cherche d'abord à savoir comment modi fier le formalisme des POMDP pour exprimer des problèmes de collecte d'information et à proposer des algorithmes pour résoudre ces problèmes. Cette approche est alors étendue à des tâches d'apprentissage par renforcement consistant à apprendre activement le modèle d'un système. De plus, cette thèse propose un nouvel algorithme d'apprentissage par renforcement bayésien, lequel utilise des transitions locales optimistes pour recueillir des informations de manière e fficace tout en optimisant la performance escomptée. Grâce à une analyse de l'existant, des résultats théoriques et des études empiriques, cette thèse démontre que ces problèmes peuvent être résolus de façon optimale en théorie, que les méthodes proposées sont presque optimales, et que ces méthodes donnent des résultats comparables ou meilleurs que des approches de référence. Au-delà de ces résultats concrets, cette thèse ouvre la voie (1) à une meilleure compréhension de la relation entre la collecte d'informations et les politiques optimales dans les processus de prise de décision séquentielle, et (2) à une extension des très nombreux travaux traitant du contrôle de l'état d'un système à des problèmes de collecte d'informations.
130

Analyse automatique d'opinion : problématique de l'intensité et de la négation pour l'application à un corpus journalistique

Zhang, Lei 11 December 2012 (has links) (PDF)
La problématique de l'analyse d'opinion connaît un intérêt croissant depuis une quinzaine d'années. Cette problématique mène à de nombreux travaux ayant des objectifs allant de la constitution de ressources lexicales à l'identification des cibles d'une opinion. Le cadre applicatif de notre étude est l'analyse automatique d'articles de journaux pour la veille d'opinion. Ce cadre est ambitieux vis-à-vis de l'état de l'art puisque nous sommes amené à étudier un grand nombre de critères propres à l'analyse d'opinion. Nous proposons un modèle conceptuel permettant de caractériser une opinion par la polarité, l'intensité, la prototypicalité, la cible, la source, l'engagement de l'auteur, etc. En particulier, nous modélisons la négation et ses effets sur l'intensité et la polarité. En plus des cas classiques de négation, nous sommes en mesure de modéliser des effets de rhétoriques tels que l'euphémisme ou la litote, très présents dans le genre journalistique. À partir de ce modèle conceptuel, nous présentons un ensemble de choix techniques permettant de préciser les ressources et traitements nécessaires à l'automatisation. Nous mettons en œuvre deux applications (en chinois et en français) de la chaîne de traitements issue du modèle permettant de confirmer la validité du modèle conceptuel ainsi que l'efficacité des traitements automatiques.

Page generated in 0.1153 seconds