• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 437
  • 201
  • 23
  • 21
  • 16
  • 9
  • 8
  • 8
  • 4
  • 2
  • 1
  • Tagged with
  • 760
  • 307
  • 275
  • 274
  • 227
  • 149
  • 97
  • 79
  • 79
  • 77
  • 70
  • 62
  • 61
  • 55
  • 55
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Time Sequence Summarization: Theory and Applications

Pham, Quang-Khai 09 July 2010 (has links) (PDF)
Les domaines de la médecine, du web, du commerce ou de la nance génèrent et stockent de grandes masses d'information sous la forme de séquences d'événements. Ces archives représentent des sources d'information très riches pour des analystes avides d'y découvrir des perles de connaissance. Par exemple, les biologistes cherchent à découvrir les facteurs de risque d'une maladie en analysant l'historique des patients, les producteurs de contenu web et les bureaux de marketing examinent les habitudes de consommation des clients et les opérateurs boursiers suivent les évolutions du marché pour mieux l'anticiper. Cependant, ces applications requièrent l'exploration de séquences d'événements très volumineuses, par exemple, la nance génère quotidiennement des millions d'événements, où les événements peuvent être décrits par des termes extraits de riches contenus textuels. La variabilité des descripteurs peut alors être très grande. De ce fait, découvrir des connaissances non triviales à l'aide d'approches classiques de fouille de données dans ces sources d'information prolixes est un problème dicile. Une étude récente montre que les approches classiques de fouille de données peuvent tirer prot de formes condensées de ces données, telles que des résultats d'agrégation ou encore des résumés. La connaissance ainsi extraite est qualiée de connaissance d'ordre supérieur. À partir de ce constat, nous présentons dans ces travaux le concept de résumé de séquence d'événements dont le but est d'amener les applications dépendantes du temps à gagner un facteur d'échelle sur de grandes masses de données. Un résumé s'obtient en transformant une séquence d'événements où les événements sont ordonnés chronologiquement. Chaque événement est précisément décrit par un ensemble ni de descripteurs symboliques. Le résumé produit est alors une séquence d'événements, plus concise que la séquence initiale, et pouvant s'y substituer dans les applications. Nous proposons une première méthode de construction guidée par l'utilisateur, appelée TSaR. Il s'agit d'un processus en trois phases : i) une généralisation, ii) un regroupement et iii) une formation de concepts. TSaR utilise des connaissances de domaine exprimées sous forme de taxonomies pour généraliser les descripteurs d'événements. Une fenêtre temporelle est donnée pour contrôler le processus de regroupement selon la proximité temporelle des événements. Dans un second temps, pour rendre le processus de résumé autonome, c'est- à-dire sans paramétrage, nous proposons une redénition du problème de résumé en un nouveau problème de classication. L'originalité de ce problème de classication tient au fait que la fonction objective à optimiser dépend simultanément du contenu des événements et de leur proximité dans le temps. Nous proposons deux algorithmes gloutons appelés G-BUSS et GRASS pour répondre à ce problème. Enn, nous explorons et analysons l'aptitude des résumés de séquences d'événements à contribuer à l'extraction de motifs séquentiels d'ordre supérieur. Nous analysons les caractéristiques des motifs fréquents extraits des résumés et proposons une méthodologie qui s'appuie sur ces motifs pour en découvrir d'autres, à granularité plus ne. Nous évaluons et validons nos approches de résumé et notre méthodologie par un ensemble d'expériences sur un jeu de données réelles extraites des archives d'actualités nancières produites par Reuters.
152

Cycles algébriques et cohomologie de certaines variétés projectives complexes

Charles, François 06 April 2010 (has links) (PDF)
Dans ma thèse, je propose plusieurs contributions à l'étude de la cohomologie des variétés projectives complexes ainsi qu'à la construction de cycles algébriques. Le mémoire se compose de plusieurs parties qui, si elles sont indépendantes, essaient toutes trois de tirer parti de la nature multiple de ces variétés, à la fois variétés kähleriennes, donc objets analytiques, variétés algébriques, et enfin objets arithmétiques, étant toujours définies sur un corps de type fini sur $\Q$. La première partie de ce texte, parue au journal de Crelle, s'intéresse au problème de la topologie des variétés conjuguées. On y répond à une question de Grothendieck en y exhibant deux variétés conjuguées dont les algèbres de cohomologie réelles ne sont pas isomorphes. Dans une deuxième partie, on aborde le problème de la construction des cycles algébriques dont l'existence est prévue par les conjectures standards, pour ensuite examiner de manière plus détaillée le cas des variétés hyperkahleriennes. Nous utilisons principalement des méthodes infinitésimales en théorie de Hodge. Enfin, dans la troisième partie, parue aux International Mathematical Research Notices, on s'intéresse au problème du lieu de définition des fonctions normales associées aux familles de cycles dans les variétés projectives complexes. On y prolonge des résultats récents de Brosnan et Pearlstein qui démontrent l'algébricité de ce lieu en prouvant des théorèmes de comparaison avec la cohomologie étale $l$-adique et en démontrant, sous certaines hypothèses de monodromie, que ces lieux sont définis sur un corps de nombres.
153

Fouille de textes : des méthodes symboliques pour la construction d'ontologies et l'annotation sémantique guidée par les connaissances

Toussaint, Yannick 21 November 2011 (has links) (PDF)
Il n'existe pas d'outils clé en main pour extraire des connaissances de textes et le passage de la langue naturelle à des connaissances est très fortement contextualisé et dépendant de la tâche que l'on s'est fixée. Nous montrons que le défi d'extraction de connaissances à partir de textes reste aujourd'hui très vaste, avec de très nombreuses pistes de recherche que ce soit en lien avec des approche de type recherche d'information, traitement automatique des langues, fouille de données ou représentation des connaissances. Chacun de ces domaines de recherche recensent de nombreux sous-domaines tous très actifs. Le projet de recherche que je souhaite développer peut être vu comme un chemin au travers de ces domaines qui vise à créer un continuum (sémantique) entre les différentes étapes de la fouille de textes. L'extraction de connaissances à partir de textes est avant tout une construction de connaissances et suppose une cohérence méthodologique entre les différentes étapes de la fouille de textes. J'ai fait le choix d'ancrer mes travaux dans le domaine du formel en visant notamment une représentation des connaissances en logique, plus particulièrement en logique de descriptions. Malgré les restrictions liées à ce choix, notamment en ce qui concerne l'interaction avec des humains experts d'un domaine, la mise à jour, ou la correction d'une ontologie, une représentation formelle reste à mon sens la solution pour raisonner sur les textes et assurer la cohérence d'une ontologie. Si le but final d'un processus de fouille est de construire une représentation formelle qui puisse être le support de raisonnements, je me suis concentré dans ce projet de recherche sur la construction des connaissances en exploitant des méthodes à base de motifs, d'extraction de règles d'association ou de l'analyse formelle de concepts. L'intérêt de ces approches est qu'elles assureront un lien constant entre les textes et les connaissances. La modification des textes engendre une modification des connaissances et inversement la modification des connaissances (les ressources externes par exemple) modifient l'annotation des textes et l'ontologie. Des environnements coopératifs pourraient à terme intégrer nos travaux et faciliter ainsi la synergie entre les processus humains et les processus automatiques.
154

Etude structurelle des réseaux : modèles aléatoires, motifs et cycles.

Birmele, Etienne 03 November 2011 (has links) (PDF)
Cette habilitation présente une vue d'ensemble de mes travaux concernant l'analyse statistique et algorithmique de la structure des réseaux, et en particulier des réseaux biologiques. Il est structuré en trois parties. La première concerne l'étude de modèles de graphes aléatoires, notamment ceux basés sur la notion de mélange. Les questions de l'estimation de leur paramètres et de la classification des sommets y sont notamment abordées. La seconde partie est consacrée au développement statistique de la détection de motifs dans les réseaux, et en particulier dans le cadre de la notion de motif local. Enfin, le troisième chapitre reprend des thèmes liés à l'algorithmique et à la théorie des graphes en illustrant par deux exemples l'importance de la structure des cycles d'un réseau.
155

Un système de types pour la programmation par réécriture embarquée

Tavares, Cláudia 02 March 2012 (has links) (PDF)
Dans le domaine de l'ingénierie du logiciel, les systèmes de types sont souvent considérés pour la prévention de l'occurrence de termes dénués de sens par rapport à une spécification des types. Dans le cadre de l'extension d'un langage de programmation avec des caractéristiques dédiées, le typage de ces dernières doit être compatible avec les caractéristiques du langage hôte. Cette thèse se situe dans le contexte de la réécriture de termes embarquée dans la programmation orientée objet. Elle vise à développer un système de types avec sous-typage pour le support du filtrage de motifs associatif sur des termes algébriques construits sur des opérateurs variadiques. Ce travail s'appuie sur le langage de réécriture Tom qui fournit des constructions de filtrage de motifs et des stratégies de réécriture à des langages généralistes comme Java. Nous décrivons l'évaluation de code Tom à travers la définition de la sémantique opérationnelle de ce langage en tant qu'élément essentiel de la preuve de la sûreté du système de types. Celui-ci inclut la vérification de types ainsi que l'inférence de types à base de contraintes. Le langage de contraintes est composé d'une part, de contraintes d'égalité, résolues par unification, d'autre part, de contraintes de sous-typage, résolues par la combinaison de phases de simplification, de génération d'une solution et de ramassage de miettes. Le système de types a été intégré au langage Tom, ce qui permet une plus forte expressivité et plus de sûreté a fin d'assurer que les transformations décrites par des règles de réécriture préservent le type des termes.
156

Algorithmes pour la comparaison de génomes et la recherche de signaux cis-régulateurs

Varré, Jean-Stéphane 04 December 2008 (has links) (PDF)
Les génomes peuvent être vus de manière simplifiée comme des suites de gènes, objets codants pour la production de protéines. De la même manière que les caractères physiques des êtres vivants évoluent au cours du temps, les caractères physiques des génomes évoluent également. Il s'agit alors de comprendre cette évolution à travers l'organisation des gènes sur le génome. Le problème peut être abordé sous un angle dynamique où l'on retrace les événements ayant permis les modifications, ou sous un angle statique en observant la localisation et le regroupement des gènes. D'autres part, les gènes nécessitent pour s'exprimer - se transformer en protéine - d'être d'abord transcrits en ARN. Le mécanisme de contrôle de la transcription fait appel, entre autres, à des protéines qui viennent se fixer en amont du gène, sur l'ADN, en reconnaissant de courts motifs. Une tâche récurrente, précédant toute autre analyse, est de trouver les occurrences de ces motifs qui ont la particularité d'être courts et particulièrement dégénérés. Nous retraçons le travail réalisé autour de ces deux problématiques biologiques : l'évolution de la structure des génomes et la localisation des motifs de fixation. Les méthodes mises en œuvre relèvent de l'algorithmique discrète sur les permutations pour la première partie et sur les mots pour la seconde.
157

Matrices score-position, algorithmes et propriétés

Liefooghe, Aude 04 July 2008 (has links) (PDF)
Les travaux présentés dans cette thèse s'inscrivent dans le cadre de l"algorithmique et de la combinatoire du texte et s'appliquent à la bio-informatique. Plus particulièrement, ils concernent la localisation de motifs pondérés modélisés par des matrices score-position dans un texte non pondéré. Ces travaux sont appliqués au problème biologique de la recherche de sites de fixation de facteurs de transcription dans un génome. Cette application contribue à la compréhension de la régulation des gènes. Nous nous sommes attaqués à deux problèmes complémentaires, la recherche d'une seule matrice dans un texte puis la recherche simultanée d'un ensemble de matrices. Pour accélérer les algorithmes existant, nous nous sommes inspiré des algorithmes de recherche de motifs exacts connus pour leur efficacité. La différence est que les matrices score-position sont des motifs probabilistes, utilisant des fonctions de score. Nous devons donc intégrer la distribution de ces fonctions dans les algorithmes de recherche. Concernant le premier problème nous proposons une extension de l'algorithme de Knuth, Morris et Pratt qui repose sur un pré-traitement du motif pour optimiser le parcours le long du texte. Concernant le second problème nous avons utilisé une structure d'indexation afin de factoriser l'ensemble des matrices. Cette structure tire partie des distributions de scores associées à chaque matrice. Dans les deux cas, nous traitons en amont une partie des données de départ. Nous avons choisi de pré-traiter les matrices par rapport à l'application bio-informatique car les sites de fixation de facteurs de transcription sont des données relativement stables dans le temps. Ces algorithmes ont été mis en oeuvre dans un logiciel disponible en ligne appelé TFMscan. Ils ont fait l'objet d'une validation à grande échelle sur les bases de données de facteurs de transcription Jaspar et Transfac.
158

Traveling through Space: Stylistic Progression and Camera Movement

Strausz, Laszlo 20 April 2007 (has links)
This project examines the how camera movement as a stylistic element is used as a storytelling device in the films of select international filmmakers. The main intention of the study is to trace the changing function of the mobile frame to see how a specific stylistic element develops across different narrative paradigms, national industries and between “early” and contemporary periods of filmmakers. My primary assertion is that the norms guiding the development of the tracking camera expand gradually from normative functions toward figurative uses. In order to be able to differentiate between normative and figurative uses of the tracking camera with conceptual clarity, this project adapts Roland Barthes’s typology about the narrative function of distinctive textual/stylistic units. Barthes’ conceptual framework becomes functional by assigning specific codes (hermeneutic, the semic, the proairetic, the symbolic and the cultural codes) to the interactions of the elements of narration. When transforming and changing the function of stylistic elements across their films, artists respond to a wide range of industrial, technological, aesthetic, cultural factors, from which this study focuses on socio-cultural trends. The underlying assumption of this project holds that the mentioned trends can be detected in the stylistic choices of artists. This study takes a bottom-up route: starting with an analytical interpretation of a specific aesthetic device, it moves towards an explanation that connects camera movement to larger, dynamic signifying systems. The arch of my project traces the relation between normative and figurative textual codes through the prism of camera movement.
159

Vers des solutions adaptatives et génériques pour l'extraction de motifs intéressants dans les données

Flouvat, Frédéric 08 December 2006 (has links) (PDF)
La découverte de motifs fréquents est un des problèmes en fouille de données. Afin de mieux comprendre l'influence des données sur les algorithmes, nous présentons une étude expérimentale des jeux de données communément utilisés par la communauté. Cette étude permet d'aboutir à une nouvelle classification des données en fonction des bordures : stable et en accord avec les performances des algorithmes. Malgré le grand nombre de travaux et un cadre théorique des problèmes d'extraction de motifs intéressants, l'utilisation de ces algorithmes pour résoudre des problèmes "équivalents" est peu répandue et reste délicate. Face à ces limites, nous proposons un algorithme générique de découverte des bordures des motifs intéressants, appelé ABS (Adaptive borders Search), adaptant dynamiquement sa stratégie en fonction des données. De plus, une librairie générique de composants C++ a été proposée pour faciliter le développement de solutions logicielles pour cette famille de problèmes.
160

What Manner of Man is This? The Depiction of Vampire Folklore in Dracula and Fangland

Samuelsson, Victoria January 2012 (has links)
The vampire figure is very much a part of the literary landscape of today, and has been so for the last 200 years. The vampire has not always appeared as it does today, as the rich, urbane gentleman, but has its origins in old folklore legends. The idea that the vampire figure has changed over the course of history is not new, but instead of discussing the phenomena influencing, and changing, the vampire motif, this essay will try to shed light on the aspects of the folklore vampire that are still part of the vampire of today. By applying the theory of folklorism (folklore not in its original context, but rather the imitation of popular themes by another social class, or the creation of folklore for purposes outside the established tradition), presented by Hans Moser and Hermann Bausinger among others, this essay attempts to prove that the modern vampire is in fact a folklorism of the old folklore legends. The essay examines the more recent incarnation of the vampire, the literary vampire who emerged during the 18th and 19th century, with the intent to prove that, while it is different from its origin, it has several features in common with its ancestry as well. To show this, examples from Bram Stoker’s Dracula (1897), and the more recent novel Fangland (2007) by John Marks have been chosen to serve as basis for the analysis. Both novels clearly show instances where folklore has been brought into the narrative as a way to define and depict the vampire.

Page generated in 0.3431 seconds