• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 102
  • 30
  • 16
  • Tagged with
  • 150
  • 53
  • 51
  • 47
  • 42
  • 41
  • 29
  • 28
  • 27
  • 24
  • 21
  • 19
  • 18
  • 18
  • 15
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
121

L'intégration de la logistique dans les domaines d'aménagement du territoire : contribution à la conception d'un système d'aide à la décision dédié / Integration of logistics in areas of spatial planning : Contribution to the conception of a dedicated Decision Support System

Sassi, Ebtissem 05 April 2019 (has links)
Il est bien connu que l'écosystème industriel territorial représente aujourd'hui un enjeu majeur dans les politiques d’aménagement du territoire. De ce fait, il constitue un système d’action où les différents acteurs impliqués utilisent des différentes approches et dont les objectifs ne sont pas toujours proches et les points de vue parfois conflictuels. Toutes approches confondues, un type idéal de tableau de bord incorporant des indicateurs et centré sur le pilotage de la performance émerge aujourd'hui de la littérature.Dans ce contexte, il apparaît l'importance du traitement de la problématique d'évaluation d'un écosystème industriel territorial et plus précisément l'évaluation de la performance d'un système de distribution dans une zone portuaire : l’hinterland. Ce sujet n'a pas été assez développé dans la littérature puisqu’il n’a pas été traité selon une approche pluridisciplinaire.Cette problématique est caractérisée par la forte liaison entre l'infrastructure de transport, le système territorial et les zones logistiques suite à l'échange des flux de marchandises dans le territoire à travers l'infrastructure de transport. L'apport théorique de ce travail se présente dans la démarche originale d'investigation qui met en contribution des approches théoriques différentes dans le but de comprendre et résoudre une problématique relative à deux systèmes complexes (le système logistique et le système territorial). Pour plus de clarté, ce travail s'agit d'une aide à la décision à travers la réflexion sur les solutions de distribution en intégrant les spécificités territoriales et non pas comme un outil d'optimisation des tournées ou de l'organisation logistique. / It is well known that the territorial industrial ecosystem is now a major issue in territory planning policies. As a result, it constitutes a system of action in which the various actors involved use different approaches and whose objectives are not always close and sometimes conflicting points of view. In all approaches, an ideal type of dashboard incorporating indicators and focusing on performance pilotage is emerging today from the literature.In this context, it appears the importance of the treatment of the problem of evaluation of a territorial industrial ecosystem and more precisely the evaluation of the performance of a distribution system in a port area: the hinterland.This subject has not been sufficiently developed in the literature since it has not been treated with a multidisciplinary approach.This problem is characterized by the strong link between the transport infrastructure, the territorial system and the logistics zones following the exchange of goods flows in the territory through the transport infrastructure.The theoretical contribution of this work is presented in the original investigation approach, which involves different theoretical approaches in order to understand and solve a problem related to two complex systems (the logistics system and the territorial system).For clarity, this work is a decision aid through the reflection on distribution solutions by integrating territorial specificities and not as a tool for optimizing tours or logistics organization.
122

Deux critères de sécurité pour l'exécution de code mobile

Grall, Hervé 15 December 2003 (has links) (PDF)
Les programmes mobiles, comme les applettes, sont utiles mais potentiellement hostiles, et il faut donc pouvoir s'assurer que leur exécution n'est pas dangereuse pour le système hôte. Une solution est d'exécuter le programme mobile dans un environnement sécurisé, servant d'interface avec les ressources locales, dans le but de contrôler les flux d'informations entre le code mobile et les ressources, ainsi que les accès du code mobile aux ressources. Nous proposons deux critères de sécurité pour l'exécution de code mobile, obtenus chacun à partir d'une analyse de l'environnement local. Le premier porte sur les flux d'informations, garantit la confidentialité, est fondé sur le code de l'environnement, et est exact et indécidable ; le second porte sur les contrôles d'accès, garantit le confinement, s'obtient à partir du type de l'environnement, et est approché et décidable. Le premier chapitre, méthodologique, présente l'étude d'objets infinis représentés sous la forme d'arbres. Nous avons privilégié pour les définir, une approche équationnelle, et pour raisonner sur eux, une approche déductive, fondée sur l'interprétation co-inductive de systèmes d'inférence. Dans le second chapitre, on montre dans le cas simple du calcul, comment passer d'une sémantique opérationnelle à une sémantique dénotationnelle, en utilisant comme dénotation d'un programme son observation. Le troisième chapitre présente finalement en détail les deux critères de sécurité pour l'exécution de code mobile. Les techniques développées dans les chapitres précédents sont utilisées pour l'étude de la confidentialité, alors que des techniques élémentaires suffisent à l'étude du confinement.
123

Grammaires locales pour l'analyse automatique de textes : méthodes de construction et outils de gestion

Constant, Matthieu 08 September 2003 (has links) (PDF)
L'explosion du nombre de documents disponibles (notamment sur Internet) a rendu le domaine du Traitement Automatique des Langues (TAL) et ses outils incontournables. De nombreux chercheurs marquent l'importance de la linguistique dans ce domaine. Ils préconisent la construction de larges bases de descriptions linguistiques, composées de lexiques et de grammaires. Cette démarche a un gros inconvénient : elle nécessite un investissement lourd qui s'inscrit sur le long terme. Pour palier à ce problème, il est nécessaire de mettre au point des méthodes et des outils informatiques d'aide à la construction de composants linguistiques fins et directement applicables à des textes. Nous nous sommes penché sur le problème des grammaires locales qui décrivent des contraintes précises et locales sous la forme de graphes. Deux questions fondamentales se posent : - Comment construire efficacement des grammaires précises, complètes et applicables à des textes ? - Comment gérer leur nombre et leur éparpillement ? Comme solution au premier problème, nous avons proposé un ensemble de méthodes simples et empiriques. Nous avons exposé des processus d'analyse linguistique et de représentation à travers deux phénomènes : les expressions de mesure (un immeuble d'une hauteur de 20 mètres) et les adverbes de lieu contenant un nom propre locatif (à l'île de la Réunion), deux points critiques du TAL. Sur la base de M. Gross (1975), nous avons ramené chaque phénomène à une phrase élémentaire. Ceci nous a permis de classer sémantiquement certains phénomènes au moyen de critères formels. Nous avons systématiquement étudié le comportement de ces phrases selon les valeurs lexicales de ses éléments. Les faits observés ont ensuite été représentés formellement soit directement dans des graphes à l'aide d'un éditeur, soit par l'intermédiaire de tables syntaxiques ensuite converties semiautomatiquement en graphes. Au cours de notre travail, nous avons été confronté à des systèmes relationnels de tables syntaxiques pour lesquels la méthode standard de conversion due à E. Roche (1993) ne fonctionnait plus. Nous avons donc élaboré une nouvelle méthode adaptée avec des formalismes et des algorithmes permettant de gérer le cas où les informations sur les graphes à construire se trouvent dans plusieurs tables. En ce qui concerne le deuxième problème, nous avons proposé et implanté un prototype de système de gestion de grammaires locales : une bibliothèque en-ligne de graphes. Le but à terme est de centraliser et de diffuser les grammaires locales construites au sein du réseau RELEX. Nous avons conçu un ensemble d'outils permettant à la fois de stocker de nouveaux graphes et de rechercher des graphes suivant différents critères. L'implémentation d'un moteur de recherche de grammaires nous a également permis de nous pencher sur un nouveau champ d'investigation dans le domaine de la recherche d'information : la recherche d'informations linguistiques dans des grammaires locales.
124

Application de la télédétection et des systèmes d'informations géographiques à l'etude des mouvements de terrain au Liban

Abdallah, Chadi 11 July 2007 (has links) (PDF)
Parmi les aléas naturels, les mouvements de terrain (MT) sont probablement les plus nuisibles à l'environnement naturel et humain, notamment dans les pays méditerranéens, incluant le Liban qui représente un bon cas d'étude de région montagneuse. Ce phénomène n'a pas été étudié à l'échelle régionale bien qu'il affecte de vastes zones dans ce pays, et les cartes d'aléa manquent encore. La recherche présentée ici est consacrée à l'utilisation des techniques de télédétection et des systèmes d'informations géographiques (SIG), pour l'étude des MT au Liban. La première partie passe en revue les connaissances existantes sur le thème des mouvements de terrain (MT), plus spécifiquement dans la région méditerranéenne, et définit les lacunes de recherche. Elle expose les divers types existants de MT, leurs magnitudes, les agents causatifs, et leurs effets. Elle clarifie la terminologie utilisée pour les MT (aléa, susceptibilité, risque, etc.), et compare les méthodes les plus utilisées pour la cartographie de l'aléa/susceptibilité aux MT. Elle présente aussi un état des avantages et problèmes de la télédétection et du SIG dans les études de mouvements de terrain, en insistant sur les voies possibles de recherche. La deuxième partie est consacrée à la description détaillée de la région d'étude qui couvre les versants méditerranéens du nord du Liban central. Les caractéristiques physiques/morphodynamiques et socio-économiques de cette région sont exposées, ainsi que les aléas naturels, les événements de MT, les impacts socio-économiques et les mesures de conservation. Toutes les études sur l'aléa MT au Liban sont revisitées. La région d'étude, s'étendant de la côte méditerranéenne jusqu'à 3000 m d'altitude, couvre à peu près 36 % de la superficie totale du Liban. Elle est représentative de la diversité géo-environnementale de ce pays en termes de géologie, sol, hydrographie, occupation du sol et climat. Elle se caractérise par des activités humaines problématiques (par exemple une expansion urbaine chaotique, la recharge artificielle des eaux souterraines, un surpâturage, des incendies de forêt), accroissant la dégradation de l'environnement et induisant les MT, avec un contrôle gouvernemental minime. La troisième compare l'efficacité de différents capteurs satellitaires à résolutions variées (Landsat TM, IRS, SPOT4) et diverses techniques de traitement d'image (composition colorée, fusion, analyse en composantes principales ACP, vision stéréoscopique) pour la détection visuelle des mouvements de terrain classés en glissements, éboulements de blocs rocheux et de débris, et coulées de boue. Les résultats ont été validés sur le terrain et en analysant des images IKONOS (1 m) acquises en certaines localités menacées par des MT sur de longues périodes. Ensuite, les niveaux de précision de la détection des MT à partir des images satellitaires ont été calculés. Cette étude a montré que l'anaglyphe produit à partir des images panchromatiques stéréo SPOT4 reste l'outil le plus efficace grâce aux caractéristiques 3D jouant un rôle essentiel dans l'interprétation visuelle et montrant un niveau de précision (pourcentage des MT détectés et vérifiés sur le terrain) maximal de 69 %. De plus, l'image de fusion Landsat TM-IRS, calculée par ACP, fournit des résultats de détection des MT meilleurs que les autres techniques, avec un niveau de précision de 62 %. Les erreurs d'interprétation fluctuent non seulement en fonction de la technique de traitement utilisée, mais aussi en fonction des types de MT. Elles sont minimes quand l'anaglyphe (3D) SPOT4 est pris en considération, variant de 31 % (glissements), 36 % (éboulements de blocs rocheux et de débris) à 46 % dans le cas des coulées de boue. La quatrième partie explore les relations entre l'occurrence de MT et les paramètres du terrain. Ces paramètres sont: 1- les facteurs de prédisposition, comme l'altitude, la pente en gradient, l'aspect de pente, la courbure de pente, la lithologie, la proximité aux failles, le type de karst, la distance aux carrières, le type de sol, la distance aux réseaux de drainage, la distance aux sources, l'occupation/utilisation du sol et la proximité aux routes, et 2- les facteurs déclenchants, comme la quantité de pluies, les événements sismiques, les inondations et les incendies de forêt, qui ont été corrélés avec les MT en utilisant les approches SIG. Cette étude montre, en se basant sur les corrélations statistiques bi-variées satellitaires et SIG (corrélation Kendal Tau-b), que la lithologie est ce qui influence le plus l'occurrence des MT, puisqu'elle a la corrélation la plus élevée avec les autres paramètres (7 fois corrélée à un niveau de signification de 1 %, et 3 fois à 5 %). Elle montre aussi que les corrélations statistiques entre ces paramètres et les mouvements de terrain existent suivant l'ordre d'importance décroissant suivant : type de sol/distance aux sources (agissant de manière similaire sur l'occurrence des MT), karst/distance aux carrières/occupation/utilisation du sol, proximité aux failles, gradient de pente/proximité aux routes/inondations, événements sismiques, altitude/aspect de pente/incendies de forêt. Ces corrélations sont vérifiées sur le terrain et expliquées en utilisant des corrélations statistiques uni-variées. Par conséquent, elles peuvent être extrapolées à d'autres pays méditerranéens caractérisés par des conditions géoenvironnementales similaires. La cinquième partie propose une méthode mathématique décisionnelle (méthode analytique bi-univariée d'évaluation ou "Valuing Analytical Bi-Univariate (VABU)") qui considère deux niveaux de pondération pour la cartographie de l'aléa/susceptibilité des MT (échelle 1/50000) dans la région d'étude. La fiabilité de cette méthode est examinée sur le terrain et en la comparant avec d'autres méthodes statistiques - Valuing accumulation Area (VAA) (un seul niveau d'évaluation) and Information Value (InfoVal) (nécessitant des mesures détaillées des MT). Trois cartes de susceptibilité sont dérivées en utilisant les facteurs conditionnant l'occurrence des MT, tandis que les cartes d'aléa sont produites à partir des facteurs déclenchants. Les valeurs de coïncidence de superposition des cartes de susceptibilité sont de 47,5 % (VABU/VAA), 54 % (VABU/InfoVal) et 38% (VAA/InfoVal), respectivement. L'accord entre les cartes d'aléas montre des valeurs proches de celles des cartes de susceptibilité, variant entre 36,5 % (VAA/InfoVal), 39 % (VABU/VAA), et 44 % (VABU/InfoVal). La validation sur le terrain indique que la précision totale des cartes de susceptibilité produites varie entre 52,5% (méthode VAA), 67,5% (méthode InfoVal) et 77,5% (méthode VABU). Cela démontre l'efficacité de notre méthode qui peut être adoptée pour une cartographie prédictive de l'aléa et de la susceptibilité des MT dans d'autres régions au Liban, et peut être aussi aisément extrapolée en utilisant les capacités fonctionnelles du SIG. La sixième partie prédit la distribution géographique et le volume des blocs rocheux (m3) dans la région d'étude en utilisant la modélisation suivant un arbre décisionnel. Une telle cartographie est indisponible au Liban, mais aussi dans d'autres pays qui portent plutôt leur effort sur la recherche des glissements plutôt que les autres types de MT. Plusieurs modèles d'arbres décisionnels ont été développés en utilisant, (1) tous les paramètres de terrain, (2) les paramètres topographiques uniquement, (3) les paramètres géologiques, et en adoptant plusieurs techniques de traitement. Le meilleur arbre de régression combine tous les paramètres et explique 80 % de la variabilité dans les mesures des blocs rocheux sur le terrain. Le modèle construit en utilisant les quatre paramètres géologiques (lithologie, type de sol, proximité aux failles et type de karst) parait aussi intéressant car il classe 68 % des blocs rocheux tout en se référant à un petit nombre de données d'entrée (4 paramètres). La carte produite de 'prédiction quantitative des blocs rocheux' à l'échelle du 1/50 000 apparait extrêmement utile pour la décision, aidant à l'adoption des mesures de conservation afin de réduire l'occurrence de movements nuisibles de blocs rocheux. La septième partie s'intéresse à la surveillance de l'activité des MT à travers l'intégration des données spatiales radar et des techniques GPS (Système de positionnement global). Les données radar ERS sont traitées en utilisant les techniques InSAR et des réflecteurs permanents. Cette analyse montre des difficultés pour la détection des MT. Cependant, elle est jusqu'à présent préliminaire, et un plan de travail futur prendra en considération d'autres traitements pour la détection des déplacements. D'un autre côté, une installation GPS a été effectuée dans la région de Hammana, un village libanais menacé par un grand glissement. Deux campagnes ont été rassemblées, mais les résultats manquent encore puisqu'il n'y a pas des données accumulées suffisantes. Plus d'observations sont nécessaires afin de construire une représentation compréhensive de la direction et de la vitesse du mouvement.
125

Recalage et fusion d'informations multimodales pour l'optimisation de la thérapie de resynchronisation cardiaque

Tavard, François 24 April 2012 (has links) (PDF)
Ces travaux portent sur le recalage et la fusion d'informations multimodales dans le cadre de l'optimisation de la thérapie de resynchronisation cardiaque (CRT). Des descripteurs locaux du couplage électromécanique cardiaque sont extraits à partir d'informations anatomiques, fonctionnelles, électriques et mécaniques issues de volumes scanner (CT), d'échocardiographie par ''speckle tracking'' (US) et de cartographies électroanatomiques (EAM). L'approche proposée repose sur le recalage des données multimodales sur un modèle 3D+t du ventricule gauche (VG) calculé à partir de surfaces segmentées. Cette approche procède en deux temps : (1) un recalage semi-interactif des données EAM et d'images CT ; (2) un recalage de données US avec le modèle dynamique pour lequel les deux méthodes automatiques (statique et dynamique) ont été développées. Ces techniques intègrent un mode de projection radiale et une interpolation de mise en correspondance temporelle (par Dynamic Time Warping) des données EAM et US. Ces méthodes offrent la possibilité de calculer, sous différents modes de simulation cardiaque, les délais d'activation électrique, les cartes de voltage, les délais mécaniques et les délais électromécaniques locaux. La visualisation (cartographies 3D et 2D) de ces descripteurs permet de caractériser le couplage électromécanique intra-segments du VG. Ces méthodes ont été appliquées sur données simulées et réelles. Elles ont montré leur pertinence quant à la possibilité d'extraire des descripteurs locaux de la fonction cardiaque significatifs pour l'optimisation de la pose de stimulateur en CRT.
126

Elaboration d'une approche hybride SMA-SIG pour la définition d'un système d'aide à la décision;<br />application à la gestion de l'eau

Urbani, Dominique 29 November 2006 (has links) (PDF)
Les décideurs sont de plus en plus souvent confrontés à des problèmes complexes qui touchent des millions de personnes. Ils souhaitent faire face à ces problèmes avec le maximum d'éléments objectifs et prendre leur décision en tenant compte des intérêts de toutes les parties prenantes. Ces éléments doivent leur permettre de choisir rationnellement la meilleure solution, d'être en mesure d'expliquer et de justifier leur choix. Dans ce document, nous examinons dans un premier temps les systèmes informatiques d'aide à la décision et les liens qui existent entre la modélisation du problème et l'aide à la décision. Nous proposons une nouvelle approche des systèmes informatiques d'aide à la décision qui est basée sur l'utilisation combinée d'un modèle individus centrés construit suivant le paradigme multi-agents et d'un système d'informations géographiques. Après avoir mis en évidence les avantages de cette approche hybride, nous examinons les connaissances qui sont mobilisées dans un processus de prise de décision. Nous précisons quelles sont les relations qui existent dans ce cadre entre le modèle multi-agents et le système d'informations géographiques. Poursuivant nos travaux, nous proposons une architecture de plateforme de développement d'outils d'aide à la décision dédiés aux problèmes ayant une composante spatiale qui prend en compte les comportements individuels. Nous implémentons cette architecture en utilisant une plateforme multi-agents et un système d'informations géographiques existants. Nous validons nos travaux en développant suivant notre approche hybride un système informatique d'aide à la décision dédié au problème de l'eau.
127

Visions d’État : deux systèmes d'informations géographiques dans la « gouvernance »

Sibille, Bastien 05 1900 (has links)
L'administration fédérale canadienne et la Commission européenne ont construit, dans le courant des années 2000, deux réseaux de Systèmes d'informations géographiques (SIG) : le Système national d'information forestière au Canada, et l'Infrastructure d'information géographique dans la Communauté européenne. Ces SIG permettent le traitement géographique de données sociales et environnementales ainsi que leur représentation sur des cartes. Nous appréhendons ces deux réseaux de SIG sous l'angle de leur valeur heuristique : leur analyse nous permet d'étudier les configurations institutionnelles dans lesquelles ils ont été développés, c'est-à-dire, dans ces cas précis, ce qu'il est convenu d'appeler la « gouvernance ». Les SIG sont des instruments de mesure et de représentation de certains phénomènes : ils appartiennent à la classe des instruments d'objectivation. En tant qu'instruments d'objectivation, ils nous permettent de discuter deux éléments théoriques de la « gouvernance » : le rapport entre les administrations centrales et les administrations locales ; le rapport entre les administrations étatiques et les organisations non-étatiques. A travers cette discussion, nous montrons d'une part que la réarticulation de paliers de gouvernement différents ne signifie pas, comme cela a pu être écrit, un retrait de l'administration centrale au profit des administrations locales, mais au contraire une manière de contrôler plus étroitement celles-ci. Nous montrons d'autre part que cette renégociation des rapports entre les administrations centrales et locales ne s'accompagne pas, en pratique, d’une renégociation des rapports entre administrations étatiques et organisations non-étatiques. En révélant que les données non-étatiques ne sont pas intégrées dans les réseaux de SIG étatiques, nous relativisons les théories qui voient dans la « gouvernance » un mode de gouvernement ouvert aux organisations non-étatiques. Cela nous conduit à approfondir la piste qui envisage les instruments étatiques d'objectivation comme des moyens d'écarter de l'objectivation des phénomènes sociaux ou naturels les éléments qui contredisent l'action gouvernementale. Cette exégèse politique de deux ensembles de programmes informatiques particuliers – les SIG – nous amène, en conclusion, à proposer de considérer certains programmes informatiques comme des institutions politiques. / During the 1990s, Canada’s federal government and the European Commission established two networks of geographic information systems (GIS): the National Forest Information System in Canada and the Infrastructure for Spatial Information in the European Union. These two systems permit social and environment facts to be studied geographically and to be mapped. In this thesis, we emphasize the heuristic value of these two networks of geographic information systems: an analysis of them allows us to better understand the institutional configurations that existed during their development, that is to say, in our cases, what is called “governance”. As instruments that measure and represent phenomena, GIS belong to knowledge tools. As knowledge tools, they allow us to discuss two issues of “governance” theories: relationships between central and local administrations, and relationships between state and non-state organizations. This discussion leads us to show, on the one hand, that the reorganization of different levels of government does not signify, as is described elsewhere in the literature, the retreat of central administrations in favor of local administrations, but is rather a means for more forcefully controlling them. On the other hand, we show that the renegotiation of relationships between central and local administrations is not accompanied, in reality, by a negotiation of relationships with non-state organizations. In light of the fact that non-state organizations are not integrated in states’ GIS networks, we must revisit theories of “governance” that foresee governments as more open to civil society. This helps us to understand how knowledge tools can be used in order to exclude certain facts from State's sight. In conclusion, this political analysis of two specific software – GIS – leads us to propose that some software can be considered as political institutions.
128

Des algorithmes presque optimaux pour les problèmes de décision séquentielle à des fins de collecte d'information

Araya-López, Mauricio 04 February 2013 (has links) (PDF)
Le formalisme des MDP, comme ses variantes, sert typiquement à contrôler l'état d'un système par l'intermédiaire d'un agent et de sa politique. Lorsque l'agent fait face à des informations incomplètes, sa politique peut eff ectuer des actions pour acquérir de l'information typiquement (1) dans le cas d'une observabilité partielle, ou (2) dans le cas de l'apprentissage par renforcement. Toutefois cette information ne constitue qu'un moyen pour contrôler au mieux l'état du système, de sorte que la collecte d'informations n'est qu'une conséquence de la maximisation de la performance escomptée. Cette thèse s'intéresse au contraire à des problèmes de prise de décision séquentielle dans lesquels l'acquisition d'information est une fin en soi. Plus précisément, elle cherche d'abord à savoir comment modi fier le formalisme des POMDP pour exprimer des problèmes de collecte d'information et à proposer des algorithmes pour résoudre ces problèmes. Cette approche est alors étendue à des tâches d'apprentissage par renforcement consistant à apprendre activement le modèle d'un système. De plus, cette thèse propose un nouvel algorithme d'apprentissage par renforcement bayésien, lequel utilise des transitions locales optimistes pour recueillir des informations de manière e fficace tout en optimisant la performance escomptée. Grâce à une analyse de l'existant, des résultats théoriques et des études empiriques, cette thèse démontre que ces problèmes peuvent être résolus de façon optimale en théorie, que les méthodes proposées sont presque optimales, et que ces méthodes donnent des résultats comparables ou meilleurs que des approches de référence. Au-delà de ces résultats concrets, cette thèse ouvre la voie (1) à une meilleure compréhension de la relation entre la collecte d'informations et les politiques optimales dans les processus de prise de décision séquentielle, et (2) à une extension des très nombreux travaux traitant du contrôle de l'état d'un système à des problèmes de collecte d'informations.
129

Analyse automatique d'opinion : problématique de l'intensité et de la négation pour l'application à un corpus journalistique

Zhang, Lei 11 December 2012 (has links) (PDF)
La problématique de l'analyse d'opinion connaît un intérêt croissant depuis une quinzaine d'années. Cette problématique mène à de nombreux travaux ayant des objectifs allant de la constitution de ressources lexicales à l'identification des cibles d'une opinion. Le cadre applicatif de notre étude est l'analyse automatique d'articles de journaux pour la veille d'opinion. Ce cadre est ambitieux vis-à-vis de l'état de l'art puisque nous sommes amené à étudier un grand nombre de critères propres à l'analyse d'opinion. Nous proposons un modèle conceptuel permettant de caractériser une opinion par la polarité, l'intensité, la prototypicalité, la cible, la source, l'engagement de l'auteur, etc. En particulier, nous modélisons la négation et ses effets sur l'intensité et la polarité. En plus des cas classiques de négation, nous sommes en mesure de modéliser des effets de rhétoriques tels que l'euphémisme ou la litote, très présents dans le genre journalistique. À partir de ce modèle conceptuel, nous présentons un ensemble de choix techniques permettant de préciser les ressources et traitements nécessaires à l'automatisation. Nous mettons en œuvre deux applications (en chinois et en français) de la chaîne de traitements issue du modèle permettant de confirmer la validité du modèle conceptuel ainsi que l'efficacité des traitements automatiques.
130

Discours de presse et veille stratégique d'événements Approche textométrique et extraction d'informations pour la fouille de textes

Erin, Macmurray 02 July 2012 (has links) (PDF)
Ce travail a pour objet l'étude de deux méthodes de fouille automatique de textes, l'extraction d'informations et la textométrie, toutes deux mises au service de la veille stratégique des événements économiques. Pour l'extraction d'informations, il s'agit d'identifier et d'étiqueter des unités de connaissances, entités nommées -- sociétés, lieux, personnes, qui servent de points d'entrée pour les analyses d'activités ou d'événements économiques -- fusions, faillites, partenariats, impliquant ces différents acteurs. La méthode textométrique, en revanche, met en oeuvre un ensemble de modèles statistiques permettant l'analyse des distributions de mots dans de vastes corpus, afin faire émerger les caractéristiques significatives des données textuelles. Dans cette recherche, la textométrie, traditionnellement considérée comme étant incompatible avec la fouille par l'extraction, est substituée à cette dernière pour obtenir des informations sur des événements économiques dans le discours. Plusieurs analyses textométriques (spécificités et cooccurrences) sont donc menées sur un corpus de flux de presse numérisé. On étudie ensuite les résultats obtenus grâce à la textométrie en vue de les comparer aux connaissances mises en évidence au moyen d'une procédure d'extraction d'informations. On constate que chacune des approches contribuent différemment au traitement des données textuelles, produisant toutes deux des analyses complémentaires. À l'issue de la comparaison est exposé l'apport des deux méthodes de fouille pour la veille d'événements.

Page generated in 0.1161 seconds