• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 6
  • 4
  • 1
  • Tagged with
  • 31
  • 31
  • 15
  • 15
  • 11
  • 8
  • 7
  • 7
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contributions to music semantic analysis and its acceleration techniques / Contributions à l'analyse sémantique de la musique et de ses techniques d'accélération

Gao, Boyang 15 December 2014 (has links)
La production et la diffusion de musique numérisée ont explosé ces dernières années. Une telle quantité de données à traiter nécessite des méthodes efficaces et rapides pour l’analyse et la recherche automatique de musique. Cette thèse s’attache donc à proposer des contributions pour l’analyse sémantique de la musique, et en particulier pour la reconnaissance du genre musical et de l’émotion induite (ressentie par l’auditoire), à l’aide de descripteurs de bas-niveau sémantique mais également de niveau intermédiaire. En effet, le genre musical et l’émotion comptent parmi les concepts sémantiques les plus naturels perçus par les auditoires. Afin d’accéder aux propriétés sémantiques à partir des descripteurs bas-niveau, des modélisations basées sur des algorithmes de types K-means et GMM utilisant des BoW et Gaussian super vectors ont été envisagées pour générer des dictionnaires. Compte-tenu de la très importante quantité de données à traiter, l’efficacité temporelle ainsi que la précision de la reconnaissance sont des points critiques pour la modélisation des descripteurs de bas-niveau. Ainsi, notre première contribution concerne l’accélération des méthodes K-means, GMM et UMB-MAP, non seulement sur des machines indépendantes, mais également sur des clusters de machines. Afin d’atteindre une vitesse d’exécution la plus importante possible sur une machine unique, nous avons montré que les procédures d’apprentissage des dictionnaires peuvent être réécrites sous forme matricielle pouvant être accélérée efficacement grâce à des infrastructures de calcul parallèle hautement performantes telle que les multi-core CPU ou GPU. En particulier, en s’appuyant sur GPU et un paramétrage adapté, nous avons obtenu une accélération de facteur deux par rapport à une implémentation single thread. Concernant le problème lié au fait que les données ne peuvent pas être stockées dans la mémoire d’une seul ordinateur, nous avons montré que les procédures d’apprentissage des K-means et GMM pouvaient être divisées par un schéma Map-Reduce pouvant être exécuté sur des clusters Hadoop et Spark. En utilisant notre format matriciel sur ce type de clusters, une accélération de 5 à 10 fois a pu être obtenue par rapport aux librairies d’accélération de l’état de l’art. En complément des descripteurs audio bas-niveau, des descripteurs de niveau sémantique intermédiaire tels que l’harmonie de la musique sont également très importants puisqu’ils intègrent des informations d’un niveau d’abstraction supérieur à celles obtenues à partir de la simple forme d’onde. Ainsi, notre seconde contribution consiste en la modélisation de l’information liée aux notes détectées au sein du signal musical, en utilisant des connaissances sur les propriétés de la musique. Cette contribution s’appuie sur deux niveaux de connaissance musicale : le son des notes des instruments ainsi que les statistiques de co-occurrence et de transitions entre notes. Pour le premier niveau, un dictionnaire musical constitué de notes d’instruments a été élaboré à partir du synthétiseur Midi de Logic Pro 9. Basé sur ce dictionnaire, nous avons proposé un algorithme « Positive Constraint Matching Pursuit » (PCMP) pour réaliser la décomposition de la musique. Pour le second niveau, nous avons proposé une décomposition parcimonieuse intégrant les informations de statistiques d’occurrence des notes ainsi que les probabilités de co-occurrence pour guider la sélection des atomes du dictionnaire musical et pour construire un graphe à candidats multiples pour proposer des choix alternatifs lors des sélections successives. Pour la recherche du chemin global optimal de succession des notes, les probabilités de transitions entre notes ont également été incorporées. […] / Digitalized music production exploded in the past decade. Huge amount of data drives the development of effective and efficient methods for automatic music analysis and retrieval. This thesis focuses on performing semantic analysis of music, in particular mood and genre classification, with low level and mid level features since the mood and genre are among the most natural semantic concepts expressed by music perceivable by audiences. In order to delve semantics from low level features, feature modeling techniques like K-means and GMM based BoW and Gaussian super vector have to be applied. In this big data era, the time and accuracy efficiency becomes a main issue in the low level feature modeling. Our first contribution thus focuses on accelerating k-means, GMM and UBM-MAP frameworks, involving the acceleration on single machine and on cluster of workstations. To achieve the maximum speed on single machine, we show that dictionary learning procedures can elegantly be rewritten in matrix format that can be accelerated efficiently by high performance parallel computational infrastructures like multi-core CPU, GPU. In particular with GPU support and careful tuning, we have achieved two magnitudes speed up compared with single thread implementation. Regarding data set which cannot fit into the memory of individual computer, we show that the k-means and GMM training procedures can be divided into map-reduce pattern which can be executed on Hadoop and Spark cluster. Our matrix format version executes 5 to 10 times faster on Hadoop and Spark clusters than the state-of-the-art libraries. Beside signal level features, mid-level features like harmony of music, the most natural semantic given by the composer, are also important since it contains higher level of abstraction of meaning beyond physical oscillation. Our second contribution thus focuses on recovering note information from music signal with musical knowledge. This contribution relies on two levels of musical knowledge: instrument note sound and note co-occurrence/transition statistics. In the instrument note sound level, a note dictionary is firstly built i from Logic Pro 9. With the musical dictionary in hand, we propose a positive constraint matching pursuit (PCMP) algorithm to perform the decomposition. In the inter-note level, we propose a two stage sparse decomposition approach integrated with note statistical information. In frame level decomposition stage, note co-occurrence probabilities are embedded to guide atom selection and to build sparse multiple candidate graph providing backup choices for later selections. In the global optimal path searching stage, note transition probabilities are incorporated. Experiments on multiple data sets show that our proposed approaches outperform the state-of-the-art in terms of accuracy and recall for note recovery and music mood/genre classification.
2

Ressources et méthodes semi-supervisées pour l'analyse sémantique de texte en français

Mouton, Claire 17 December 2010 (has links) (PDF)
Pouvoir chercher des informations sur un niveau sémantique plutôt que purement lexical devrait améliorer la recherche d'informations. Cette thèse a pour objectif de développer des modules d'analyse sémantique lexicale a n d'améliorer le système de recherche de documents textuels de la société Exalead. Les travaux présentés concernent plus spécifi quement l'analyse sémantique de texte en français. La problématique liée au traitement du français réside dans le fait qu'il n'existe que peu de ressources sémantiques et de corpus annotés pour cette langue. Rendre possible une telle analyse implique donc d'une part de pourvoir aux besoins en ressources linguistiques françaises, et d'autre part, de trouver des méthodes alternatives ne nécessitant pas de corpus français manuellement annoté. Notre manuscrit est structuré en trois parties suivies d'une conclusion. Les deux chapitres de la première partie délimitent les objectifs et le contexte de notre travail. Le premier introduit notre thèse en évoquant la problématique de la sémantique en recherche d'information, en présentant la notion de sens et en identifiant deux tâches d'analyse sémantique : la désambiguïsation lexicale et l'analyse en rôles sémantiques. Ces deux tâches font l'objet de l'ensemble de notre étude et constituent respectivement les parties 2 et 3. Le second chapitre dresse un état de l'art de toutes les thématiques abordées dans notre travail. La deuxième partie aborde le problème de la désambiguïsation lexicale. Le chapitre 3 est consacré à la constitution de nouvelles ressources françaises pour cette tâche. Nous décrivons dans un premier temps une méthode de traduction automatique des synsets nominaux de WordNet vers le français à partir de dictionnaires bilingues et d'espaces distributionnels. Puis, nous constituons une ressource automatiquement en proposant une adaptation de deux méthodes d'induction de sens existantes. L'originalité des clusters de sens ainsi constitués est de contenir des mots dont la syntaxe est proche de celle des mots source. Ces clusters sont alors exploités dans l'algorithme que nous proposons au chapitre 4 pour la désambiguïsation elle-même. Le chapitre 4 fournit également des recommandations concernant l'intégration d'un tel module dans un système de recherche de documents. L'annotation en rôles sémantiques est traitée dans la troisième partie. Suivant une structure similaire, un premier chapitre traite de la constitution de ressources pour le français, tandis que le chapitre suivant présente l'algorithme développé pour l'annotation elle-même. Ainsi, le chapitre 5 décrit nos méthodes de traduction et d'enrichissement des prédicats de FrameNet, ainsi que l'évaluation associée. Nous proposons au chapitre 6 une méthode semi-supervisée exploitant les espaces distributionnels pour l'annotation en rôles sémantiques. Nous concluons ce chapitre par une ré flexion sur l'usage des rôles sémantiques en recherche d'information et plus particulièrement dans le cadre des systèmes de réponses à des questions posées en langage naturel. La conclusion de notre mémoire résume nos contributions en soulignant le fait que chaque partie de notre travail exploite les espaces distributionnels syntaxiques et que ceci permet d'obtenir des résultats intéressants. Cette conclusion mentionne également les perspectives principales que nous inspirent ces travaux. La perspective principale et la plus immédiate est l'intégration de ces modules d'analyse sémantique dans des prototypes de recherche documentaire.
3

Approche hybride - lexicale et thématique - pour la modélisation, la détection et l'exploitation des fonctions lexicales en vue de l'analyse sémantique de texte

Schwab, Didier 07 December 2005 (has links) (PDF)
Utilisée à la fois pour l'apprentissage et l'exploitation des vecteurs conceptuels, l'analyse sémantique de texte est centrale à nos recherches. L'amélioration qualitative du processus d'analyse entraîne celle des vecteurs. En retour, cette meilleure pertinence a un effet positif sur l'analyse. Parmi les différentes voies à explorer pour obtenir ce cercle vertueux, l'une des pistes les plus intéressantes semble être la découverte puis l'exploitation des relations lexicales entre les mots du texte. Ces relations, parmi lesquelles la synonymie, l'antonymie, l'hyperonymie, la bonification ou l'intensification, sont modélisables sous la forme de fonctions lexicales. Énoncées essentiellement dans un cadre de production par Igor Mel'čuk, nous cherchons, dans cette thèse, à les adapter à un cadre d'analyse. Nous introduisons ici deux classes de Fonctions Lexicales d'Analyse. Les premières, les FLA de construction permettent de fabriquer un vecteur conceptuel à partir des informations lexicales disponibles. Les secondes, les FLA d'évaluation permettent de mesurer la pertinence d'une relation lexicale entre plusieurs termes. Ces dernières sont modélisables grâce à des informations thématiques (vecteurs conceptuels) et/ou grâce à des informations lexicales (relations symboliques entre les objets lexicaux).<br /><br />Les informations lexicales sont issues de la base lexicale sémantique dont nous introduisons l'architecture à trois niveaux d'objets lexicaux (item lexical, acception, lexie). Elles sont matérialisées sous la forme de Relations Lexicales Valuées qui traduisent la probabilité d'existence de la relation entre les objets. L'utilité de ces relations a pu être mis en évidence pour l'analyse sémantique grâce à l'utilisation du paradigme des algorithmes à fourmis. Le modèle introduit dans cette thèse, utilise à la fois les vecteurs conceptuels et les relations du réseau lexical pour résoudre une partie des problèmes posés lors d'une analyse sémantique.<br /><br />Tous nos outils ont été implémentés en Java. Ils reposent sur Blexisma (Base LEXIcale Sémantique Multi-Agent) une architecture multi-agent élaborée au cours de cette thèse dont l'objectif est d'intégrer tout élément lui permettant de créer, d'améliorer et d'exploiter une ou plusieurs Bases Lexicales Sémantiques. Les expériences menées ont montré la faisabilité de cette approche, sa pertinence en termes d'amélioration globale de l'analyse et ouvert des perspectives de recherches fort intéressantes.
4

Découverte d'associations sémantiques pour le Web Sémantique Géospatial - le framework ONTOAST

Miron, Alina Dia 08 December 2009 (has links) (PDF)
Il est à présent communément admis que plus de 70% des pages Web contiennent des références spatiales et temporelles à travers l'occurrence de noms de lieux, d'adresses, de coordonnées géographiques, de dates, etc. Néanmoins, ces informations spatiales et temporelles restent inexploitées, alors qu'elles pourraient être utilisées par les moteurs de recherche pour préciser le contexte d'une requête, pour la désambiguïsation de celle-ci, pour la classification des résultats, etc. Partant de ce constat, notre travail s'intéresse à l'étude des techniques de représentation et de raisonnement à base d'annotations spatiales et temporelles, indispensables pour la mise en place d'un futur Web Sémantique que l'on souhaiterait aussi Géospatial, c'est-à-dire capable par extension de gérer les dimensions spatiale mais également temporelle de l'information. L'objectif du Web Sémantique Géospatial est, en ce sens, identique à celui du Web Sémantique : associer aux données spatio-temporelles des descriptions (métadonnées) interprétables par les humains, mais surtout par les machines, afin que le traitement automatisé de ces données par des agents logiciels soit possible et efficient. Nous définissons dans cette thèse un raisonneur spatial et temporel, compatible avec le langage standard de définition d'ontologies, OWL, ainsi qu'avec l'évolution OWL 2. Notre système, appelé ONTOAST, est capable d'exploiter à la fois des données spatiales et temporelles quantitatives (i.e. les coordonnées géométriques des objets spatiaux, les intervalles de temps ou/et les instants. . . ) et des relations spatiales et temporelles qualitatives pour déduire des relations spatiales et temporelles jusque là implicites. Le but est de répondre à des questions telles que : "Quelles sont les villes qui se trouvent au Sud-Ouest de la France ?" ou "Quels sont les objectifs touristiques proches de ma position actuelle ?". . . Cette thèse s'intéresse également à une nouvelle technique de fouille du Web Sémantique, appelé analyse sémantique, qui vise la découverte des relations directes et indirectes qui existent entre deux individus. Nous proposons l'adaptation de l'analyse sémantique, initialement définie pour les graphes RDF(S), pour les ontologies OWL 2. Également, nous étendons ce processus d'analyse en y intégrant les informations spatiales et temporelles attachées aux individus. Celles-ci sont utilisées pour filtrer des connaissances ontologiques par rapport à un contexte spatial et temporel défini qui vise à préciser la portée spatiale et temporelle d'une requête, mais également pour la déduction de nouvelles associations sémantiques mettant en exergue une proximité spatiale ou/et temporelle entre individus.
5

Les anaphores possessives et les adverbiaux temporels comme marqueurs de la structure du discours

Piérard, Sophie 22 June 2007 (has links)
Cette thèse s'inscrit dans le cadre général de l'étude de la production et de la compréhension du discours. Afin de comprendre un texte, le lecteur doit identifier correctement les relations entre les phrases et entre les segments. L'auteur peut faciliter l'identification de ces relations par différents dispositifs linguistiques. Parmi ceux-ci, nous avons choisi d'étudier les marqueurs qui signalent une continuité ou une rupture thématique. Deux types de marqueurs ont retenu notre attention : les anaphores possessives et les marqueurs temporels. D'une manière générale, le groupe "déterminant possessif + syntagme nominal" représente deux entités : un possesseur (par le biais du déterminant) et un possédé (le syntagme nominal). Un des objectifs de cette thèse est d'étudier l'impact de cette propriété de l'anaphore possessive sur les processus cognitifs à l'œuvre lors de la production et de la compréhension du discours. Spécifiquement, nous avons testé l'impact de cette propriété sur l'accessibilité du possesseur et son éventuel effet structurateur du discours. Après une analyse théorique de ces concepts, des expériences de production libres ou sous contraintes, ainsi que des expériences où les participants devaient faire des choix d'anaphores ou de suites adéquates ont été menées. La deuxième partie est consacrée aux analyses de corpus. Nous étudions les dispositifs signalant la structure d'un texte, dont les anaphores possessives et les marqueurs temporels. Ces derniers jouent un rôle très important en production et en compréhension du discours. L'auteur les utilise pour mettre en évidence la structure de son texte. L'étude de ce type de marqueurs nous a permis de développer des outils pour l'analyse automatique de grands corpus de textes. Nous avons également étudié de manière simultanée plusieurs types de marques afin de comparer leur efficacité en tant que marqueurs de rupture thématique et d'analyser l'emploi cumulatif des adverbiaux temporels et de certaines expressions référentielles. Si les marqueurs temporels sont importants en langue maternelle, ils le sont encore plus lors de l'apprentissage et de la maîtrise d'une langue étrangère. C'est pourquoi nous avons réalisé une étude avec des apprenants du néerlandais qui fait l'objet de la troisième partie.
6

Prise en compte de la perception émotionnelle du consommateur dans le processus de conception de produits

Mantelet, Fabrice 11 1900 (has links) (PDF)
L'objectif de cette recherche est de montrer qu'il est possible d'intégrer un outil qui permette de décomposer et de quantifier le ressenti émotionnel du consommateur par rapport à un produit ou une représentation intermédiaire d'un produit dans le processus de conception afin d'optimiser celui-ci. En effet, de nos jours, face à un environnement économique en forte croissance, il ne peut pas y avoir de conception de produit sans désir de communication entre les concepteurs et les consommateurs. Cette volonté de communiquer entraîne de la part du consommateur, des comportements et réactions véritables. Il est donc pertinent de s'intéresser aux réactions des consommateurs, de pouvoir mesurer et prendre en compte leurs émotions dans le processus de conception de produit. L'intérêt scientifique de cette recherche est d'explorer de nouvelles voies, par la combinaison de différentes techniques issues de plusieurs domaines (Ingénierie, Ergonomie, Psychologie, Marketing...). Nous résumons notre apport en recherche par la quantification et la décomposition du ressenti émotionnel du consommateur par rapport à un produit. Pour cela, nous proposons un outil utilisable transversalement dans le processus de conception et générique car il est utilisable indépendamment du secteur industriel. Les résultats de cet outil peuvent être exploités par l'ensemble de l'équipe projet. Notre travail s'appuie sur des actions en conception et innovation, accomplies dans le cadre d'un projet européen, et de deux projets de mastères recherches avec des partenaires industriels.
7

Adaptive word prediction and its application in an assistive communication system / Prédiction de mots adaptative pour l'aide à la communication pour personnes handicapées

Wandmacher, Tonio 22 October 2008 (has links)
Ce travail étudie les capacités de méthodes d’adaptation pour la prédiction de mots. Le premier groupe de méthodes traite de l’adaptation aux préférences lexicales et syntaxiques de l’utilisateur d’un système de communication assistée. Au sein de ce groupe de méthodes, nous avons étudié le modèle cache, le lexique auto-adaptatif et le modèle d’utilisateur dynamique (MUD), intégrant toute saisie de l’utilisateur. Le deuxième groupe de méthodes rassemble des approches qui ont pour objectif d’exploiter le contexte sémantique. Dans ce contexte, nous avons en particulier étudié l’Analyse Sémantique Latente (LSA), un modèle vectoriel qui se base sur les propriétés distributionnelles. Dans la dernière partie nous présentons un système d’aide à la communication, dans lequel nous avons implémenté les méthodes d’adaptation. Après une description de l’interface utilisateur nous avons exposé quelques expériences réalisées avec ce système, qui est utilisé dans un centre de rééducation fonctionnelle. / This thesis investigates the capacities of adaptive methods for word prediction. We present and evaluate several adaptation methods: First, we consider strategies enabling to adapt to the lexical and syntactic preferences of the user of an AAC system. Here we investigate the cache model, an auto-adaptive user lexicon and the dynamic user model (DUM), which integrates every input of the user. The second class of methods aims to adapt to the semantic context. Here we focus in particular on Latent Semantic Analysis (LSA), a vectorial model establishing semantic similarity from distributional properties. In the last part an assistive communication system is presented that implements the previously investigated adaptation methods. After a description of the user interface we report results from the application of this system in a rehabilitation center. / Die vorliegende Arbeit untersucht die Kapazitäten adaptiver Methoden für die Wortprädiktion, einer zentralen Strategie im Kontext der unterstützenden Kommunikation (UK) für sprach- und bewegungsbehinderte Menschen. Zunächst wird eine allgemeine Einführung in die Forschungsgebiete der UK einerseits und derWortprädiktion andererseits gegeben. Dabei wird insbesondere Bezug genommen auf stochastische Sprachmodelle, welche sich für die Prädiktion als sehr geeignet erwiesen haben. Die Untersuchung adaptiver Methoden erfolgt daraufhin entlang zweier Achsen: In einem ersten Abschnitt werden die Verfahren betrachtet, welche die Adaption an die spezifische Lexik und Syntax des Benutzers eines UK-Systems erlauben. Dabei werden insbesondere das sogenannte Cache-Modell, ein selbstlernendes Benutzerlexikon sowie das dynamische Benutzermodell (dynamic user model, DUM) diskutiert. Auf der zweiten Achse werden nun Modelle untersucht, welche auf eine Adaption der Wortprädiktion an den semantischen bzw. topikalischen Kontext abzielen. Hier rückt vor allem eine Methode in den Mittelpunkt: die Latent-Semantische Analyse (LSA), ein vektorraumbasiertes Verfahren, welches semantische Ähnlichkeit durch distributionelle Eigenschaften lexikalischer Einheiten etabliert. Als schwierig erweist sich jedoch die Integration der LSA-basierten semantischen Information in das allgemeine Prädiktionsmodell, weshalb hier verschiedene Integrationsmöglichkeiten untersucht werden. Im letzten Teil dieser Arbeit wird ein UK-System vorgestellt, welches die erfolgreichsten der zuvor betrachteten Adaptionsverfahren implementiert. Nach einer Präsentation der verschiedenen kommunikationsfördernden Komponenten wird von der Anwendung dieses Systems berichtet, welches seit mehreren Jahren in einem Rehabilitationszentrum eingesetzt wird.
8

Adjectifs dérivés de noms : analyse en corpus médical et élaboration d'un modèle d'encodage terminologique

Carrière, Isabelle January 2006 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
9

Matérialité du texte et picturalité poétique : étude du recueil Le vierge incendié de Paul-Marie Lapointe

Demers, Gabrielle January 2008 (has links) (PDF)
L'objectif de ce mémoire est de développer une réflexion sur les relations texte-image en jeu dans l'oeuvre de Paul-Marie Lapointe. À partir du recueil Le Vierge incendié, il s'agit de démontrer l'évolution du traitement de l'espace de la page, actualisant une étude sémantique, thématique et visuelle. Notre travail a donc pour but l'élaboration d'une étude actuelle de cette oeuvre de 1948, notamment de ses dimensions figurale et visuelle. Il convoque certaines théories littéraires (écriture fragmentaire, figure littéraire, lecture tabulaire), ainsi que des théories en arts visuels. il touche ainsi aux questions de la poésie visuelle et des livres d'artistes, mais aussi, il permet une étude génétique des poèmes. Les questions d'espace-page et de poème-tableau sont aussi convoquées. Nous posons l'hypothèse selon laquelle le poème permet, grâce à l'étude de ses qualités picturales et esthétiques, d'en élaborer une étude visuelle. Il s'agit de prolonger les analyses sémantique et thématique par ce lien indéniable qu'elles entretiennent avec le domaine visuel du texte poétique. En reliant les études déjà existantes (Haeck, Fisette et van Schendel), ainsi qu'en articulant une analyse exhaustive de la composition du recueil (Major, Melançon), tout en ralliant l'étude nouvelle des dimensions tant figurale (Lyotard, Gervais) que génétique (Martel, Maunet), Le Vierge incendié de PauI-Marie Lapointe justifie la méthode utilisée pour aborder et confirmer cette hypothèse. En effet, c'est à partir de la rencontre et du dialogue des concepts littéraires précédents (écriture fragmentaire: Blanchot, Michaud, ... ), ainsi que de ceux de lecture tabulaire (Krüger, Vandendorpe) et des travaux concernant le poème-tableau (Maunet, Cornu), que s'élaborent les principaux postulats de notre mémoire. Ils permettent une lecture toute autre du travail de Lapointe, une lecture picturale et esthétique, motivée tant par l'interrelation entre la variété formelle du recueil et sa composition thématique, par la figure littéraire qui façonne le texte et par le poème-tableau. Cette étude est novatrice en ce qu'elle offre des voies analytiques encore inexplorées. L'originalité du travail de recherche réside dans l'étude de nouveaux aspects théoriques et poétiques chez Lapointe (la figure littéraire, la dimension picturale et l'analyse génétique). Plutôt que de s'attarder uniquement au discours de révolte (souvent pointé chez Lapointe), les dimensions figurale, génétique et picturale rendent compte de la valeur et de la portée de ce recueil. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Le Vierge incendié, Figure, Génétique, Picturalité, Poésie québécoise, Poésie visuelle, Relation texte-image.
10

Modélisation sémantique des bases de données d'inventaires en cycle de vie

Bertin, Jean-Marie 25 June 2013 (has links) (PDF)
L'analyse des impacts environnementaux de la production de biens et de services est aujourd'hui devenue un enjeu majeur. L'analyse en cycle de vie est la méthode consacrée pour modéliser les impacts environnementaux des activités humaines. L'inventaire en cycle de vie, qui est l'une des étapes de cette méthode, consiste à décomposer les activités économiques en processus interdépendants. Chaque processus a des impacts environnementaux et la composition de ces processus nous donne l'impact cumulé des activités étudiées. Plusieurs entreprises et agences gouvernementales fournissent des bases de données d'inventaires en cycle de vie pour que les experts puissent réutiliser des processus déjà étudiés lors de l'analyse d'un nouveau système. L'audit et la compréhension de ces inventaires nécessite de s'intéresser à un très grand nombre de processus et à leurs relations d'interdépendance. Ces bases de données peuvent comporter plusieurs milliers de processus et des dizaines de milliers de relations de dépendance. Pour les experts qui utilisent les bases de données d'inventaire en cycle de vie, deux problèmes importants sont clairement identifiés : - organiser les processus pour avoir une meilleure compréhensibilité du modèle ; - calculer les impacts d'une modélisation (composition de processus) et, le cas échéant, détecter les raisons de la non convergence du calcul. Dans cette thèse, nous : - mettons en évidence de l'existence de similarités sémantiques entre les processus et leurs relations d'interdépendance et proposons une nouvelle approche pour modéliser les relations d'interdépendance entre les processus d'une base de données d'inventaire. Elle se base sur un étiquetage sémantique des processus à l'aide d'une ontologie et une modélisation multi-niveaux des relations d'interdépendance entre les processus. Nous étudions aussi deux approches déclaratives d'interaction avec ce modèle multi-niveau. - étudions les différentes méthodes de calcul des impacts basées sur des notions classiques d'algèbre linéaire et de théorie des graphes. Nous étudions aussi les conditions de non convergence de ces méthodes en présence de cycle dans le modèle des relations de dépendances. Un prototype implémentant cette approche a montré des résultats probants sur les cas étudiés. Nous avons réalisé une étude de cas de ce prototype sur les processus de production d'électricité aux États-Unis extraits de la base de données d'inventaire en cycle de vie de l'agence environnementale américaine. Ce prototype est à la base d'une application opérationnelle utilisée par l'entreprise.

Page generated in 0.0778 seconds