• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2447
  • 1618
  • 1255
  • 21
  • 6
  • 6
  • 2
  • 2
  • 1
  • Tagged with
  • 5650
  • 3140
  • 3002
  • 1276
  • 692
  • 690
  • 662
  • 645
  • 620
  • 597
  • 486
  • 476
  • 457
  • 453
  • 438
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
421

Des "cadavres exquis" aux paradis virtuels : jeux et enjeux de la littérature sur support informatique

Bernier, Gina 24 April 2018 (has links)
Cette recherche porte sur les nouveaux enjeux de la littérature sur support informatique. Les nouvelles technologies de l'information et des communications (NTIC) apportent de nouvelles possibilités créatrices et d'organisation de l'écrit qui viennent bouleverser certains paramètres fondamentaux de l'écriture. De nouveaux paradigmes d'écriture émergent, de nouveaux genres littéraires semblent en train de se constituer. Mais quels sont les véritables enjeux de ces nouvelles formes d'écriture? Telle est la question fondamentale à laquelle nous tentons de fournir quelques éléments de réponse. Cette recherche comporte deux sections principales: une section théorique ainsi qu'une section création. La partie théorique com porte trois chapitres, dont le premier vise à décrire sommairement les principales formes d'application de l'informatique à la création littéraire, tout en les situant dans le contexte historique de leur apparition: la génération automatique de textes, l'écriture télématique ainsi que l'écriture hypertextuelle. Le deuxième chapitre est entièrement consacré à l'hypertextualité. Nous y voyons comment cette nouvelle technologie du texte entraîne la remise en question des rôles de l'auteur et du lecteur ainsi que de la notion même d'oeuvre littéraire. Le troisième chapitre vise à soulever la problématique reliée à la construction d'un recueil poétique hypertextuel, Histoires sorties du miroir. L'essence de cette expérience étant de n'être possible que sur support informatique, elle n 'est donc disponible que sur CD-ROM et via Internet, à l'adresse URL:http://pages.infinit.net/gulliver / Québec Université Laval, Bibliothèque 2018
422

Mise en place d'approches bioinformatiques innovantes pour l'intégration de données multi-omiques longitudinales

Bodein, Antoine 28 July 2021 (has links)
Les nouvelles technologies «omiques» à haut débit, incluant la génomique, l'épigénomique, la transcriptomique, la protéomique, la métabolomique ou encore la métagénomique, ont connues ces dernières années un développement considérable. Indépendamment, chaque technologie omique est une source d'information incontournable pour l'étude du génome humain, de l'épigénome, du transcriptome, du protéome, du métabolome, et également de son microbiote permettant ainsi d'identifier des biomarqueurs responsables de maladies, de déterminer des cibles thérapeutiques, d'établir des diagnostics préventifs et d'accroître les connaissances du vivant. La réduction des coûts et la facilité d'acquisition des données multi-omiques à permis de proposer de nouveaux plans expérimentaux de type série temporelle où le même échantillon biologique est séquencé, mesuré et quantifié à plusieurs temps de mesures. Grâce à l'étude combinée des technologies omiques et des séries temporelles, il est possible de capturer les changements d'expressions qui s'opèrent dans un système dynamique pour chaque molécule et avoir une vision globale des interactions multi-omiques, inaccessibles par une approche simple standard. Cependant le traitement de cette somme de connaissances multi-omiques fait face à de nouveaux défis : l'évolution constante des technologies, le volume des données produites, leur hétérogénéité, la variété des données omiques et l'interprétabilité des résultats d'intégration nécessitent de nouvelles méthodes d'analyses et des outils innovants, capables d'identifier les éléments utiles à travers cette multitude d'informations. Dans cette perspective, nous proposons plusieurs outils et méthodes pour faire face aux challenges liés à l'intégration et l'interprétation de ces données multi-omiques particulières. Enfin, l'intégration de données multi-omiques longitudinales offre des perspectives dans des domaines tels que la médecine de précision ou pour des applications environnementales et industrielles. La démocratisation des analyses multi-omiques et la mise en place de méthodes d'intégration et d'interprétation innovantes permettront assurément d'obtenir une meilleure compréhension des écosystèmes biologiques. / New high-throughput «omics» technologies, including genomics, epigenomics, transcriptomics, proteomics, metabolomics and metagenomics, have expanded considerably in recent years. Independently, each omics technology is an essential source of knowledge for the study of the human genome, epigenome, transcriptome, proteome, metabolome, and also its microbiota, thus making it possible to identify biomarkers leading to diseases, to identify therapeutic targets, to establish preventive diagnoses and to increase knowledge of living organisms. Cost reduction and ease of multi-omics data acquisition resulted in new experimental designs based on time series in which the same biological sample is sequenced, measured and quantified at several measurement times. Thanks to the combined study of omics technologies and time series, it is possible to capture the changes in expression that take place in a dynamic system for each molecule and get a comprehensive view of the multi-omics interactions, which was inaccessible with a simple standard omics approach. However, dealing with this amount of multi-omics data faces new challenges: continuous technological evolution, large volumes of produced data, heterogeneity, variety of omics data and interpretation of integration results require new analysis methods and innovative tools, capable of identifying useful elements through this multitude of information. In this perspective, we propose several tools and methods to face the challenges related to the integration and interpretation of these particular multi-omics data. Finally, integration of longidinal multi-omics data offers prospects in fields such as precision medicine or for environmental and industrial applications. Democratisation of multi-omics analyses and the implementation of innovative integration and interpretation methods will definitely lead to a deeper understanding of eco-systems biology.
423

Approche cognitive pour la planification de trajectoire sous contraintes / A cognitive approach for kinodynamic trajectory planning

Gaillard, François 02 February 2012 (has links)
Je présente une approche cognitive pour la planification de trajectoire sous contraintes. Elle repose en premier lieu sur DKP : une approche de planification de trajectoire par échantillonage. DKP construit un arbre d’exploration dans les parties atteignables de l’environnement à la manière d’un A*. Les solutions sont des trajectoires splines adaptées au contrôle de robots à deux roues indépendantes. La couche de propagation construit un espace des paramètres, contenant toutes les valeurs des paramètres laissés libres dans les solutions. Il est représenté sous la forme d’une surface contenant toutes les solutions locales du problème qui respectent les contraintes du problème : vitesse, accélération, évitement d’obstacle,. . .Ensuite, une recherche de solutions est effectuée sur l’espace des paramètres selon un critère de recherche. DKP a la propriété d’êtredéterministe : les résultats sont reproductibles et son comportement est entièrement contrôlable. Ce contrôle me sert à définir des comportements de pilotage. Ils sont exprimés sous la forme d’un arbre de comportements : chaque comportement agit sur la manière dont l’arbre d’exploration progresse dans l’environnement. Les comportements sont appliqués en fonction de la partie explorée. Ainsi, seuls les comportements faisables sont développés. TÆMS permet de décrire ces comportements de pilotage puis d’évaluer les solutions ainsi construites par DKP. Au final, mon approche cognitive repose sur l’évolution conjointe d’un arbre de comportements de pilotage et d’un arbre d’exploration : elle fait ainsi le lien entre planification classique et planification de trajectoire sous contraintes. / In this thesis, I present two new contributions. First, I provide DKP : a sample-based approach for trajectory planning.DKP uses a selection/propagation architecture to build an exploration tree in the reachable part of the environment, guided in an A∗ manner. Solutions are spline trajectories that are immediately executable by two-wheeled robots. The propagation level builds a parameter space which contains all the values of the free parameters in the solution. It is represented as a surface containing all local solutions which respect kinodynamic constraints : speed, acceleration, obstacle avoidance,. . .Then, a search is applied on the parameter space using a search criterion. DKP is deterministic : every result produced by DKP may be repeated. Second, this control is used to define steering behaviors. These are expressed within a steering tree : every behavior acts on the way the exploration tree progresses in the environment. Steering behaviors are applied according to the explored part. Thereby, TÆMS is used to describe the steering behaviors and to evaluate the solutions provided by DKP. Finally, my cognitive approach takes advantage on the common building of a steering tree and an exploration tree which validates respect of constraints : we thus get a link between classing planning and trajectory planning under constraints.
424

Modélisation et détection des émotions à partir de données expressives et contextuelles / Emotion modelization and detection from expressive and contextual data

Berthelon, Franck 16 December 2013 (has links)
Nous proposons un modèle informatique pour la détection des émotions basé sur le comportement humain. Pour ce travail, nous utilisons la théorie des deux facteurs de Schachter et Singer pour reproduire dans notre architecture le comportement naturel en utilisant à la fois des données expressives et contextuelles. Nous concentrons nos efforts sur l’interprétation d’expressions en introduisant les Cartes Émotionnelles Personnalisées (CEPs) et sur la contextualisation des émotions via une ontologie du contexte émotionnel(EmOCA). Les CEPs sont motivées par le modèle complexe de Scherer et représentent les émotions déterminées par de multiple capteurs. Les CEPs sont calibrées individuellement, puis un algorithme de régression les utilises pour définir le ressenti émotionnel à partir des mesures des expressions corporelles. L’objectif de cette architecture est de séparer l’interprétation de la capture des expressions, afin de faciliter le choix des capteurs. De plus, les CEPs peuvent aussi être utilisées pour la synthétisation des expressions émotionnelles. EmOCA utilise le contexte pour simuler la modulation cognitive et pondérer l’émotion prédite. Nous utilisons pour cela un outil de raisonnement interopérable, une ontologie, nous permettant de décrire et de raisonner sur les philies et phobies pour pondérer l’émotion calculée à partir des expressions. Nous présentons également un prototype utilisant les expressions faciales pour évaluer la reconnaissance des motions en temps réel à partir de séquences vidéos. De plus, nous avons pu remarquer que le système décrit une sorte d’hystérésis lors du changement émotionnel comme suggéré par Scherer pour son modèle psychologique. / We present a computational model for emotion detection based on human behavioural expression. For this work, we use the two-factor theory of Schachter and Singer to map our architecture onto natural behavior, using both expressive and contextual data to build our emotion detector. We focus our effort on expression interpretation by introducing Personalized Emotion Maps (PEMs), and on emotion contextualisation via an Emotion Ontology for Contex Awareness (EmOCA). PEMs are motivated by Scherer’s complex system model of emotions and represent emotion values determined from multiple sensors. PEMs are calibrated to individuals, then a regression algorithm uses individual-specific PEMs to determine a person’s emotional feeling from sensor measurements of their bodily expressions. The aim of this architecture is to dissociate expression interpretation from sensor measurements, thus allowing flexibility in the choice of sensors. Moreover, PEMs can also be used in facial expression synthesis. EmOCA brings context into the emotion-modulating cognitive input to weight predicted emotion. We use a well known interoperable reasoning tool, an ontology, allowing us to describe and to reason about philia and phobia in order to modulate emotion determined from expression. We present a prototype using facial expressions to evaluate emotion recognition from real-time video sequences. Moreover, we note that, interestingly, the system detects the sort of hysteresis phenomenon in changing emotion state as suggested by Scherer’s psychological model.
425

Détection et exploitation des copies partielles afin de faciliter l'analyse forensique d'un système de fichiers

Louafi, Habib January 2006 (has links) (PDF)
La forensique informatique, connue sous le terme anglais « computer forensic », est le domaine de recherche qui s'intéresse aux enquêtes après incidents. Elle représente l'ensemble des principes scientifiques et des méthodes techniques appliquées à l'investigation criminelle pour prouver l'existence d'un crime et aider la justice à déterminer l'identité de l'auteur et son mode opératoire. Les investigateurs, dans leurs enquêtes, utilisent des outils matériels ou logiciels. Les outils logiciels sont des outils d'acquisition qui servent à copier d'importantes quantités de données à partir de l'ordinateur saisi, et des outils d'analyse de preuves. En examinant les différents outils de la forensique informatique nous avons constaté l'absence et la nécessité d'un outil logiciel pour localiser les copies légèrement modifiées d'un fichier texte (copies partielles). En forensique informatique, la recherche de copies partielles d'un fichier texte contenant des informations douteuses peut aider grandement un investigateur à localiser la version originale de ce fichier à partir de la copie disponible, sachant que cette copie a, peut-être, été légèrement modifiée. Après une recherche approfondie, nous avons constaté qu'une solution possible à ce problème vient combler un vide entre les outils classiques de recherche de copies identiques de fichiers utilisant les fonction de hachage (MD5, SHA-I, etc.) et les outils de comparaison de fichiers ligne par ligne ou encore caractère par caractère. Notre travail a consisté à concevoir, développer et présenter à la communauté de la forensique informatique un outil logiciel qui sert à localiser les copies partielles d'un fichier texte dans un système de fichiers. Pour ce faire, nous avons adapté certains algorithmes d'alignement, utilisés en bioinformatique, pour comparer deux fichiers textes. Nous avons défini un seuil d'acceptation servant à distinguer les copies intéressantes (pour l'investigation) des autres fichiers. L'outil que nous avons développé utilise deux algorithmes d'alignement de séquences (global et local) conçus au départ pour trouver les similarités entre les séquences protéique ou nucléotidiques ainsi qu'un troisième algorithme d'alignement conçu pour résoudre un problème lié à la détection d'intrusion (semi-global). Nous avons aussi défini un alignement automatique: en se basant sur la différence de tailles entre les fichiers comparés, l'outil choisira automatiquement le type d'alignement à utiliser, à savoir, global ou local. Nous avons testé cet outil sur un ensemble de fichiers textes sélectionnés au hasard et les résultats montrent que cette approche a vraiment permis de trouver une solution efficace au problème de détection de copies partielles d'un fichier texte. D'autre part, nous avons comparé notre outil avec les outils de comparaison de fichiers disponibles et nous avons constaté qu'aucun de ces outils ne donne de résultats comparables. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Forensique informatique, Copie partielle, Comparaison de fichiers, Alignement de séquences, Bioinformatique.
426

Arbeit und Ambivalenz : die Professionalisierung sozialer und informatisierter Arbeit /

Kruse, Jan, January 1900 (has links)
Dissertation--Philosophische Fakultät--Albert-Ludwigs-Universität Freiburg, 2003. / Bibliogr. p. 349-367.
427

Low-dimensional dynamics and bifurcations in oscillatory neural networks /

Schwarz, Jürgen. January 1900 (has links)
Texte remanié de: Diss.--Tübingen--Eberhard-Karls-Universität, 2001. / Bibliogr. p. 161-176.
428

Software frameworks and embedded control systems /

Pasetti, Alessandro. January 1900 (has links)
Diss.--Universität Konstanz, 2001. / Bibliogr. p. [283]-290. Index.
429

Hyperworks : on digital literature and computer games /

Gunder, Anna, January 2004 (has links)
Dissertation--Uppsala universitet, 2004. / Textes en anglais et en suédois. Résumé en anglais en début d'ouvrage. Bibliogr. , webliogr. p. 410-421.
430

Designing the new intranet /

Stenmark, Dick. January 2002 (has links)
Texte remanié de: Doct. Diss.--Göteborg--Göteborg university, 2002. / Bibliogr. à la fin des chapitres.

Page generated in 0.0544 seconds