• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 4
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 34
  • 34
  • 17
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Bedeutungsanalyse in einem sprachverstehenden System unter Berücksichtigung pragmatischer Faktoren /

Ehrlich, Ute. January 1990 (has links)
Diss.--Technische Fakultät--Universität Erlangen-Nürnberg, 1989. Titre de soutenance : Bedeutungsanalyse in einem sprachverstehenden System unter Einbeziehung kontextueller Restriktionen.
12

Deklarative prosodische Morphologie : Constraint-basierte Analysen und Computermodelle zum Finnischen und Tigrinya /

Walther, Markus, January 1999 (has links)
Texte remanié de: Diss.--Düsseldorf Universität, 1997. / Bibliogr. p. [261]-272.
13

Séries génératrices et analyse automatique d'algorithmes

Zimmermann, Paul 06 March 1991 (has links) (PDF)
l'objet de cette thèse est la mise en évidence de procédés <em>systématiques</em> pour déterminer <em>automatiquement</em> le coût moyen d'un algorithme. Ces procédés s'appliquent en général aux schémas de <em>descente</em> dans des structures de données <em>décomposables</em>, ce qui permet de modéliser une vaste classe de problèmes. Cette thèse s'intéresse plus précisément à la première phase de l'analyse d'un algorithme, l'<em>analyse algébrique</em>, qui traduit le programme en objets mathématiques, tandis que la seconde phase extrait de ces objets les informations désirées sur le coût moyen. Nous définissons un langage de spécification pour définir des structures de données décomposables et des procédures de descente sur celles-ci. Lorsque l'on utilise comme objets mathématiques des séries génératrices (de dénombrement pour les données, de coût pour les procédures), nous montrons que les algorithmes décrits dans ce langage se traduisent <em>directement</em> en systèmes d'équations pour les séries génératrices associées, et de surcroît par des règles <em>simples</em>. À partir de ces équations, nous pouvons ensuite déterminer en temps polynomial le coût moyen exact pour une valeur fixée de la taille des données. On pourra aussi utiliser ces équations pour calculer par <em>analyse asymptotique</em>le coût moyen lorsque la taille des données tend vers l'infini, puisque l'on sait par ailleurs que le coût moyen asymptotique est directement lié au comportement des séries génératrices au voisinage de leurs singularités. Ainsi nous montrons qu'à une classe donnée d'algorithmes correspond une classe bien définie de séries génératrices, et par conséquent une certaine classe de formules pour le coût moyen asymptotique. Ces règles d'analyse algébrique ont été incorporées dans un système d'analyse automatique d'algorithmes, Lambda-Upsilon-Omega, qui s'est avéré être un outil très utile pour l'expérimentation et la recherche.
14

Extraction d'informations sur la régulation transcriptionnelle de gènes à partir d'articles biomédicaux 2008

Lorec, Julien 02 October 2008 (has links) (PDF)
La cartographie des réseaux de régulation de la transcription des gènes et des mécanismes moléculaires impliqués sont des problématiques importantes pour les biologistes. Les ressources bibliographiques de biologie moléculaire sont une mine prodigieuse d informations expérimentales qui couvrent l'état de l'art actuel dans le domaine de l expression de gènes. Cependant en raison de la taille gigantesque que représentent les données textuelles du domaine, des méthodes automatisées doivent être mises au point afin d explorer ces données de manière systématique. Dans cette thèse, nous proposons un ensemble de méthodes pour fouiller la littérature de biologie moléculaire et extraire les faits pertinents en relation avec l'expression de gènes humains. Nous présentons tout d'abord une procédure générique destinée à l extraction d'entités nommées candidates à partir des textes. Celle-ci combine une approche d identification à base de règles de groupes nominaux en tant qu entités nommées candidates avec une étape de mise en correspondance au sein de dictionnaires expertisés et élaborés à partir de ressources terminologiques publiques. Des techniques de désambiguïsation spécifiques au domaine sont aussi présentées afin de déterminer la nature réelle de l entité nommée identifiée. Nous détaillons ensuite une méthode qui permet à la fois d extraire les relations pertinentes établies entre les entités nommées et de retrouver certaines caractéristiques de ces associations grâce à une analyse syntaxique dite profonde et l utilisation de structures prédicat-arguments. Nous montrons que l'acquisition de la sémantique à partir de la syntaxe peut être séparée en deux phases distinctes afin de réduire le coût associé à la conception manuelle de règles d'extraction spécifiques au domaine. Finalement, les performances du système sont évaluées à l'aide d'un corpus annoté de pubIications complètes de biologie moléculaire. Les résultats sont prometteurs et malgré la nature hétérogène des données extraites, le système présente des performances à la fois homogènes et compatibles avec la montée en charge.
15

Revisiter le couplage traitement automatique des langues et recherche d'information

Moreau, Fabienne Sébillot, Pascale January 2006 (has links) (PDF)
Thèse doctorat : Informatique : Rennes 1 : 2006. / Bibliogr. p. 163-178.
16

Plate-forme pour l'indexation spatiale multi-niveaux d'un corpus territorialisé

Lesbegueries, Julien Gaio, Mauro. January 2007 (has links) (PDF)
Reproduction de : Thèse doctorat : Informatique : Pau : 2007. / Titre provenant de l'écran titre.
17

Contribution à l'identification automatique des langues romanes

Vasilescu, Ioana Gabriela. Hombert, Jean-Marie January 2001 (has links)
Thèse de doctorat : Sciences du langage : Lyon 2 : 2001. / Titre provenant de l'écran-titre. Bibliogr.
18

Analyse automatisée du signal électrocardiographique dans les arythmies atriales chez le rat vigil / Automated analysis of the electrocardiographic signal on atrial arrhythmias in conscious rats

Gallet, Clément 12 November 2013 (has links)
La fibrillation atriale est la plus fréquente des arythmies cardiaques et sa physiopathologie reste mal comprise. Il n’existe pas actuellement de modèle animal dans lequel cette arythmie survienne de manière spontanée. Comme l’âge et l’hypertension artérielle sont deux facteurs de risque majeurs dela fibrillation atriale chez l’Homme, nous avons recherché si le rat spontanément hypertendu (SHR)vieillissant (11-13 mois d’âge) développe cette pathologie. Des enregistrements télémétriques de 24 h de l’électrocardiogramme (ECG) ont été réalisés dans 4 groupes de rats vigils. Ils ont révélé chez le rat SHR vieillissant la présence de nombreux épisodes de tachyarythmie atriale non soutenus, épisodes qui ne sont pas observés chez le rat SHR jeune ni chez lerat normotendu Wistar Kyoto jeune ou vieillissant. Les résultats rapportés ci-dessus ont été obtenus grâce à l’analyse visuelle de l’intégralité de chaque enregistrement ECG, ce qui représente une durée d’analyse incompatible avec des expérimentations de routine. Nous avons donc choisi de développer une méthode automatique de reconnaissance des arythmies atriales chez le rat vigil. Cette méthode utilise exclusivement les intervalles RR car les ondes P ne peuvent pas toujours être identifiées avec fiabilité dans les enregistrements télémétriques de l’ECG. Elle repère les motifs caractéristiques de tachyarythmie grâce à une structure d’automate, et présente une bonne performance sur les enregistrements télémétriques déjà réalisés. Le nouveau modèle animal, conjointement à la nouvelle méthode automatique d’analyse de l’ECG, devrait permettre de réaliser les analyses phénotypiques de qualité indispensables aux hypothèses physiopathologiques moléculaires actuellement avancées dans la fibrillation atriale. / Atrial fibrillation is the most common cardiac arrhythmia and its pathophysiology is still poorly understood. To date, there is no animal model in which the arrhythmia occurs spontaneously. As ageand hypertension are major risk factors of atrial fibrillation in humans, we examined whether the aging (11-13 months of age) spontaneously hypertensive rat (SHR) develops this pathology. Telemetric recordings of electrocardiogram (ECG) were obtained in four groups of conscious rats. They revealed the presence in the aging SHR of many non-sustained atrial tachyarrhythmic episodes that were observed neither in the young SHR nor in the young or aging normotensive Wistar Kyotorat. These results were obtained by visual examination of the whole ECG recordings, which is extremely time consuming and thus, not compatible with routine experiments. Therefore, we chose to develop an automated method to detect atrial arrhythmias in the conscious rat. This method only uses RR intervalsbecause P waves cannot always be accurately identified in telemetric recordings. It recognizes characteristicpatterns of tachyarrhythmia by using an automaton structure, and shows a good performance when applied to previously collected telemetric data. The new animal model, together with the new, automated method of ECG analysis, are expected to be extremely useful for producing high quality phenotypic data, which are necessary to test present molecular hypotheses of atrial fibrillation pathophysiology.
19

contrôle et implantation des systèmes répartis de fusion d'informations

Passalacqua, Olivier 02 December 2009 (has links) (PDF)
La fusion d'informations est une discipline dont on retrouve des applications dès lors qu'il est nécessaire de regrouper des informations potentiellement imprécises ou incertaines. Initialement réalisée de façon mentale, la fusion d'informations nécessite à présent une mise en œuvre sur un support d'exécution informatisé, dénommé système de fusion, dont les évolutions technologiques ont guidée la répartition des ressources selon des contraintes géographiques, physiques et de sécurité. Cette thèse présente une étude du contrôle des systèmes répartis de fusion d'informations. Elle propose notamment un système de contrôle capable d'adapter l'utilisation des ressources disponibles au processus de fusion (PF) mis en œuvre, assez générique pour permettre l'expression des modèles de fusion basés sur des graphes de flot de données. Cinq tâches de contrôle sont dédiées à l'accomplissement d'un sous-objectif: la recherche d'une répartition des éléments du PF, le déploiement effectif d'un PF sur un ensemble variable de ressources réparties, l'analyse des performances du système, la surveillance du système pour détecter l'ajout de ressources,ou les occurrences d'erreurs et le déclanchement d'une modification de la répartition, soit pour en améliorer les performances, soit pour maintenir l'exécution du processus. L'ensemble du système de contrôle tire profit des ressources réparties par un mécanisme bio-inspiré, dans lequel la place de chaque agent est guidée par sa puissance de calcul. A titre expérimental, un système de fusion d'informations nommé eZFusion, implémentant les tâches de déploiement et d'analyse des performances, a été réalisé sur un réseau de plate-formes OSGI.
20

Méthodes de segmentation et d'analyse automatique de textes thaï

Kosawat, Krit 08 September 2003 (has links) (PDF)
Ce travail de thèse a pour objectif de concevoir et réaliser un module informaticolinguistique apte à effectuer des analyses automatiques de textes thaï sous le système INTEX © . Basé fondamentalement sur les langues indo-européennes écrites avec l'alphabet latin, INTEX © rencontre quelques difficultés pour travailler sur une langue très différente comme le thaï. Le problème crucial est la segmentation en mots et en phrases, étant donné que le thaï n'a pas de séparateur de mot : une phrase est écrite en une séquence de lettres continues, et les séparateurs de phrase sont fréquemment ambigus. Aussi avons-nous développé et évalué deux méthodes de segmentation en mots, par expressions rationnelles et par transducteurs à nombre fini d'états, qui découpent respectivement des textes thaï en lettres et en syllabes. Nous avons également créé les dictionnaires électroniques du thaï qui servent à la fois à reconnaître les mots à partir des lettres ou des syllabes et à les étiqueter avec les codes syntaxiques et sémantiques. Deux méthodes de segmentation en phrases thaï, par la ponctuation et par mots-clés, sont également proposées et évaluées. Nous montrons enfin que, grâce à notre travail, INTEX © est capable d'analyser des documents thaï, malgré toutes les difficultés.

Page generated in 0.0686 seconds