• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 260
  • 70
  • 31
  • 4
  • 2
  • 1
  • Tagged with
  • 366
  • 186
  • 63
  • 61
  • 56
  • 56
  • 43
  • 39
  • 36
  • 33
  • 33
  • 30
  • 28
  • 27
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

Les données géographiques 3D pour simuler l’impact de la réglementation urbaine sur la morphologie du bâti / 3D geographic data for simulating the impact of urban regulations on building morphology

Brasebin, Mickaël 02 April 2014 (has links)
Les données géographiques 3D sont de plus en plus courantes et modélisent de manières variées le territoire. Elles sont souvent utilisées pour mieux comprendre la ville et ses phénomènes sous-jacents en intégrant de nombreuses informations (environnementales, économiques, etc.) pour l'appui à l'aménagement du territoire. À l'échelle locale, le plan local d'urbanisme (PLU) décrit les connaissances régulant le développement urbain, incluant des contraintes tri-dimensionnelles (par exemple : hauteur maximale d'un bâtiment ou surface de plancher) que doivent respecter les nouveaux bâtiments. Ces contraintes sont rédigées dans un format textuel, difficile de compréhension pour le non-initié et dont l'interprétation sur un territoire donné est complexe. L'objectif de cette thèse est de montrer comment les données géographiques 3D permettent d'exploiter les règlements locaux d'urbanisme à travers deux usages : la vérification de règles d'urbanisme et la proposition de configurations bâties. Notre méthodologie s'appuie sur une modélisation de l'espace urbain, représentant les objets pertinents mentionnés dans les règlements, support d'une formalisation des règles avec le langage OCL. La proposition de configurations bâties est réalisée grâce à une méthode d'optimisation basée sur un recuit simulé trans-dimensionnel et une technique de vérification du respect des règles / 3D geographic data are very frequent and represent territories in various ways. Such data are often used to better understand cities and their underlying phenomena by integrating different information (environmental, economic, etc.) to support urban planning. On a local scale, the French Local Urban Plan (PLU) describes constraints that regulate the urban development, notably through tri-dimensional constraints (for example by defining a maximal height or by limiting built area) that new buildings must respect. These constraints are compiled in a textual format. They are difficult to understand for non experts and their impact for a given territory is complex to assess. The aim of this thesis is to demonstrate how 3D geographic data enable the exploitation of local urban regulation constraints through two different uses: the verification of the respect of constraints and the generation of building configurations. Our method relies on a model of the urban environment, representing relevant objects according to regulations. This model supports the formulation of the constraints with the OCL language. The generation of building configurations is processed by an optimization method based on a trans-dimensional simulated annealing relying on a rule checker
102

Une approche de recherche d'images basée sur la sémantique et les descripteurs visuels / An Image Retrieval approach based on semantics and visual features

Allani Atig, Olfa 27 June 2017 (has links)
La recherche d’image est une thématique de recherche très active. Plusieurs approches permettant d'établir un lien entre les descripteurs de bas niveau et la sémantique ont été proposées. Parmi celles-là, nous citons la reconnaissance d'objets, les ontologies et le bouclage de pertinence. Cependant, leur limitation majeure est la haute dépendance d’une ressource externe et l'incapacité à combiner efficacement l'information visuelle et sémantique. Cette thèse propose un système basé sur un graphe de patrons, la sélection ciblée des descripteurs pour la phase en ligne et l'amélioration de la visualisation des résultats. L'idée est de (1) construire un graphe de patrons composé d'une ontologie modulaire et d'un modèle basé graphe pour l'organisation de l'information sémantique, (2) de construire un ensemble de collections de descripteurs pour guider la sélection des descripteurs à appliquer durant la recherche et (3) améliorer la visualisation des résultats en intégrant les relations sémantiques déduite du graphe de patrons.Durant la construction de graphe de patrons, les modules ontologiques associés à chaque domaine sont automatiquement construits. Le graphe de régions résume l'information visuelle en un format plus condensé et la classifie selon son domaine. Le graphe de patrons est déduit par composition de modules ontologiques. Notre système a été testé sur trois bases d’images. Les résultats obtenus montrent une amélioration au niveau du processus de recherche, une meilleure adaptation des descripteurs visuels utilisés aux domaines couverts et une meilleure visualisation des résultats qui diminue le niveau d’abstraction par rapport à leur logique de génération. / Image retrieval is a very active search area. Several image retrieval approaches that allow mapping between low-level features and high-level semantics have been proposed. Among these, one can cite object recognition, ontologies, and relevance feedback. However, their main limitation concern their high dependence on reliable external resources and lack of capacity to combine semantic and visual information.This thesis proposes a system based on a pattern graph combining semantic and visual features, relevant visual feature selection for image retrieval and improvement of results visualization. The idea is (1) build a pattern graph composed of a modular ontology and a graph-based model, (2) to build visual feature collections to guide feature selection during online retrieval phase and (3) improve the retrieval results visualization with the integration of semantic relations.During the pattern graph building, ontology modules associated to each domain are automatically built using textual corpuses and external resources. The region's graphs summarize the visual information in a condensed form and classify it given its semantics. The pattern graph is obtained using modules composition. In visual features collections building, association rules are used to deduce the best practices on visual features use for image retrieval. Finally, results visualization uses the rich information on images to improve the results presentation.Our system has been tested on three image databases. The results show an improvement in the research process, a better adaptation of the visual features to the domains and a richer visualization of the results.
103

Conception et réalisation de pièces prototypes fonctionnelles en usinage sur machines-outils à commande numérique 5 axes

Salloum, Tammam 21 October 2009 (has links) (PDF)
A ce jour, les pièces prototypes réalisées à partir de poudre ou de liquide n'ont pas forcement des propriétés mécaniques suffisantes ni la précision requise pour être placées dans des mécanismes fonctionnels. L'objectif de ce travail est de réaliser des mécanismes prototypes fonctionnels, c'est-à-dire capables de fonctionner sur un banc d'essais ou en service dans son milieu d'utilisation (sur un véhicule par exemple). L'approche URP "Usinage Rapide de Prototype" proposée consiste à décomposer une pièce complexe de type carter par exemple, en plusieurs strates épaisses usinées sur machine outil à commande numérique 5 axes et assemblées. Le tranchage en strates est déterminé de sorte que les entités fonctionnelles ne soient pas découpées et que l'usinage soit réalisable, y compris pour les entités à obtenir dans l'épaisseur de la pièce. Le type et la position des dispositifs de centrage et de fixation des strates sont ensuite choisis. Deux montages d'usinage originaux et une gamme d'usinage ont été conçus pour réaliser chaque strate en deux phases. Un protocole de vérification de l'usinabilité a été proposé. Un carter a été réalisé sur la machine MIKRON UCP 710 du laboratoire avec une analyse des précisions obtenues. Une pièce d'essai a été définie pour permettre l'évaluation des capabilités de la méthode.
104

Infrastrucuture orientée service pour le développement d'applications ubiquitaires

Lancia, Julien 18 December 2008 (has links) (PDF)
Un grand nombre de périphériques actuels sont dotés de connexions réseaux qui permettent d'accéder à leurs fonctionnalités au travers d'un réseau informatique. Les applications ubiquitaires visent à structurer ces fonctionnalités pour les mettre au service de l'utilisateur.<br /><br />Les environnements ubiquitaires sont caracttérisés par une disponibilité dynamique des fonctionnalités et une hétérogénéité matérielle et logicielle des périphériques. De plus les applications doivent s'adapter en fonction du contexte des utilisateurs.
105

Contribution à la définition de modèles de recherche d'information flexibles basés sur les CP-Nets

Boubekeur, Fatiha 01 July 2008 (has links) (PDF)
Ce travail de thèse adresse deux principaux problèmes en recherche d'information : (1) la formalisation automatique des préférences utilisateur, (ou la pondération automatique de requêtes) et (2) l'indexation sémantique. Dans notre première contribution, nous proposons une approche de recherche d'information (RI) flexible fondée sur l'utilisation des CP-Nets (Conditional Preferences Networks). Le formalisme CP-Net est utilisé d'une part, pour la représentation graphique de requêtes flexibles exprimant des préférences qualitatives et d'autre part pour l'évaluation flexible de la pertinence des documents. Pour l'utilisateur, l'expression de préférences qualitatives est plus simple et plus intuitive que la formulation de poids numériques les quantifiant. Cependant, un système automatisé raisonnerait plus simplement sur des poids ordinaux. Nous proposons alors une approche de pondération automatique des requêtes par quantification des CP-Nets correspondants par des valeurs d'utilité. Cette quantification conduit à un UCP-Net qui correspond à une requête booléenne pondérée. Une utilisation des CP-Nets est également proposée pour la représentation des documents dans la perspective d'une évaluation flexible des requêtes ainsi pondéreés. Dans notre seconde contribution, nous proposons une approche d'indexation conceptuelle basée sur les CP-Nets. Nous proposons d'utiliser le formalisme CP-Net comme langage d'indexation afin de représenter les concepts et les relations conditionnelles entre eux d'une manière relativement compacte. Les noeuds du CP-Net sont les concepts représentatifs du contenu du document et les relations entre ces noeuds expriment les associations conditionnelles qui les lient. Notre contribution porte sur un double aspect : d'une part, nous proposons une approche d'extraction des concepts en utilisant WordNet. Les concepts résultants forment les noeuds du CP-Net. D'autre part, nous proposons d'étendre et d'utiliser la technique de règles d'association afin de découvrir les relations conditionnelles entre les concepts noeuds du CP-Nets. Nous proposons enfin un mécanisme d'évaluation des requêtes basé sur l'appariement de graphes (les CP-Nets document et requête en l'occurrence).
106

Formalisation des Processus de l'Ingénierie Système : Proposition d'une méthode d'adaptation des processus génériques à différents contextes d'application

Rochet, Samuel 26 November 2007 (has links) (PDF)
Dans cette thèse, nous nous intéressons au problème de l'interaction des processus multiples nécessaires à la réalisation d'un projet d'ingénierie.<br />L'approche retenue repose sur l'idée qu'il existe une solution générique aux problèmes d'ingénierie. Notre proposition est de formaliser cette solution pour permettre de l'adapter ensuite à des domaines d'activités et à des projets précis par des opérations de transformation de modèles. Pour cela, nous nous reposons sur les concepts de l'IDM et les appliquons dans le cadre de l'ingénierie système. Les étapes de notre proposition sont :<br />• la formalisation d'un processus générique à partir d'un standard de l'ingénierie système (EIA-632) sous la forme d'un modèle SPEM/UML,<br />• sa spécialisation pour l'adapter au contexte d'application d'un projet,<br />• son enrichissement pour en préparer l'exploitation et la conduite. La formalisation des processus est la base d'une démarche nouvelle d'application de l'ingénierie système.<br />Cette démarche assure une cohérence globale et locale dans l'organisation et le déroulement des projets. En se reposant sur des règles de bonnes pratiques issues des standards internationaux elle s'assure d'un comportement global cohérent du projet. En laissant les acteurs du projet libres d'adapter leurs pratiques à leur environnement de travail elle permet à chacun de travailler de manière optimale avec l'assurance que les processus spécifiques qu'il emploie s'insèrent au mieux dans le projet.<br />La démarche que nous proposons répond à la problématique d'application concrète des processus d'ingénierie système posée par l'industrie et, plus généralement, à celle de l'amélioration continue des méthodes et des produits.
107

Méthodes symboliques de fouille de données avec la plate-forme Coron

Szathmary, Laszlo 24 November 2006 (has links) (PDF)
Le sujet principal de cette thèse est l'extraction de connaissances dans les bases de données (ECBD). Plus précisément, nous avons étudié deux des plus importantes tâches d'ECBD actuelles, qui sont l'extraction de motifs et la génération de règles d'association. Tout au long de notre travail, notre objectif a été de trouver des règles d'associations intéressantes selon plusieurs points de vue : dans un but de fouille efficace, pour réduire au minimum l'ensemble des règles extraites et pour trouver des unités de connaissances intelligibles (et facilement interprétables). Pour atteindre ce but, nous avons développé et adapté des algorithmes spécifiques. <br />Les contributions principales de cette thèse sont : <strong>(1)</strong> nous avons développé et adapté des algorithmes pour trouver les règles d'association minimales non-redondantes ; <strong>(2)</strong> nous avons défini une nouvelle base pour les règles d'associations appelée “règles fermées” ; <strong>(3)</strong> nous avons étudié un champ de l'ECBD important mais relativement peu étudié, à savoir l'extraction des motifs rares et des règles d'association rares ; <strong>(4)</strong> nous avons regroupé nos algorithmes et une collection d'autres algorithmes ainsi que d'autres opérations auxiliaires d'ECBD dans une boîte à outils logicielle appelée Coron.
108

Contribution à l'étude du pilotage de la modélisation des systèmes d'information

Alvares, Luis Otavio Campos 17 October 1988 (has links) (PDF)
Proposition d'une représentation formelle complète des méthodes de modélisation des systèmes d'information en informatique de gestion. Le but est de constituer une base de connaissances d'un système expert pour diriger des modélisations. Une architecture fonctionnelle d'un tel système expert est proposée et expérimentée
109

Réduction de la complexité des contrôleurs flous : applications à la commande multivariable

LACROSE, Véronique 07 November 1997 (has links) (PDF)
La commande en logique floue permet de s'affranchir de l'utilisation de modèles mathématiques parfois difficiles à obtenir. Sa capacité à traduire la connaissance d'un opérateur humain en règles d'expertise énoncées dans un langage simple en fait une technique très prometteuse. Néanmoins, lorsque le nombre de variables entrant en jeu devient trop important, la base de règles explose très vite, et des problèmes liés à sa réalisation pratique en découlent. Cette thèse s'inscrit dans la mouvance des travaux actuels sur la commande floue et s'attache au problème de l'explosion combinatoire du nombre de règles. Dans une première partie, les principes de base de la logique floue et de la commande floue sont rappelés. Dans une deuxième partie, des solutions visant à simplifier la synthèse d'un contrôleur flou sont présentées. Deux cas sont considérés : la base de règles existe déjà, la base de règles n'est pas disponible et la synthèse d'un contrôleur flou de complexité réduite est à réaliser. Dans la pratique, on ne dispose généralement pas de cette base de règles, aussi, on insiste davantage sur le deuxième cas de figure. Une fois la structure du contrôleur flou défini, le nombre de paramètres à régler pouvant atteindre un nombre important, il est intéressant d'utiliser des techniques d'apprentissage afin d'automatiser la mise au point du contrôleur flou. Les paramètres de ce dernier (gains et fonctions d'appartenance, en entrée et en sortie) sont ici réglés à travers la méthode, très simple, de descente du gradient. Dans une troisième partie, la démarche proposée dans ce mémoire est appliquée avec succès à la commande de deux processus multivariables : un bac mélangeur et un procédé biologique de traitement des eaux-usées.
110

Etude et réalisation d'un système d'extraction de connaissances à partir de textes

Cherfi, Hacène 15 November 2004 (has links) (PDF)
Ce travail de thèse porte sur la problématique d'extraction de connaissances à partir de textes, plus communément appelée la fouille de textes (FdT). Il s'articule autour des problèmes liés à l'analyse des textes, la fouille de textes proprement dite, et l'interprétation des éléments de connaissances extraits. Dans ce cadre, un système d'extraction des connaissances nécessaires pour analyser les textes en fonction de leur contenu est étudié et implanté. Les méthodes de fouille de données appliquées sont la recherche de motifs fréquents (avec l'algorithme Close) et l'extraction de règles d'association. Le mémoire s'attache à définir précisément le processus de fouille de textes et ses principales caractéristiques et propriétés en s'appuyant sur l'extraction de motifs fréquents et de règles d'association. En outre, une étude minutieuse d'un ensemble donné de mesures de qualité qu'il est possible d'attacher aux règles d'association est menée, toujours dans le cadre de la fouille de textes. Il est montré quel rôle ces mesures peuvent avoir sur la qualité et sur l'interprétation des règles extraites ; comment peuvent-elles influer sur la qualité globale du processus de fouille de textes.<br />L'utilisation d'un modèle de connaissances vient appuyer et surtout compléter cette première approche. Il est montré, par la définition d'une mesure de vraisemblance, l'intérêt de découvrir de nouvelles connaissances en écartant les connaissances déjà répertoriées et décrites par un modèle de connaissances du domaine. Les règles d'association peuvent donc être utilisées pour alimenter un modèle de connaissances terminologiques du domaine des textes choisi. La thèse inclut la réalisation d'un système appelé TAMIS : "Text Analysis by Mining Interesting ruleS" ainsi qu'une expérimentation et une validation sur des données réelles de résumés de textes en biologie moléculaire.

Page generated in 0.0454 seconds