• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2767
  • 905
  • 386
  • 12
  • 5
  • 4
  • 2
  • 1
  • Tagged with
  • 4117
  • 1297
  • 978
  • 902
  • 735
  • 732
  • 700
  • 633
  • 598
  • 575
  • 502
  • 393
  • 384
  • 375
  • 349
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
451

Etude de quelques problèmes liés à l'analyse d'images : Recherche de direction privilégiée et projection d'images - Application au dénombrement et à la mesure de structures en domaine ferroélectrique

Rubat Du Mérac, Claire 13 May 1977 (has links) (PDF)
.
452

Modèles d'activités pédagogiques et support de l'interaction pour l'apprentissage d'une langue – le système Sampras

Michel, Johan 26 June 2006 (has links) (PDF)
Nos recherches s'inscrivent dans le domaine des EIAH et plus particulièrement dans les recherches menées sur la conception d'environnements d'apprentissage des langues étrangères. Nous nous intéressons à la conception et au support d'activités interactives au sein d'un micromonde dédié à l'apprentissage du français langue étrangère. L'idée sur laquelle repose la thèse est que l'apprentissage de la langue peut prendre place dans l'interaction entre un apprenant et un agent conversationnel. L'usage de la langue étrangère est mis en jeu au travers de la simulation d'une tâche applicative à accomplir dans un monde virtuel, réalisation impliquant la communication entre un apprenant et son partenaire virtuel. Nous élaborons des modèles qui décrivent les activités pédagogiques mises en place et le support aux interactions qu'elles génèrent. Ces modèles se décrivent selon trois dimensions qui permettent de caractériser la conception : tâche, interaction et langue. La description de la dimension tâche recouvre la description des tâches pédagogiques proposées aux apprenants, des tâches interactives créées à partir des spécifications des tâches pédagogiques et de la tâche applicative dont la résolution sert de prétexte à l'interaction. La description de la dimension interaction présente les types d'interaction attendus entre l'apprenant et son partenaire au cours des activités pédagogiques et le modèle d'interaction qui articule ces types d'interaction. La présentation de la dimension langue décrit le modèle du lexique, les mécanismes d'analyse des énoncés de l'apprenant et de génération des réactions du partenaire. Ces modèles ont été mis en œuvre lors de l'implémentation d'un prototype. Ce prototype a été expérimenté auprès de débutants en français langue étrangère.
453

Evaluation par PCR de l'activité antivirale des inhibiteurs de l'ADN polymérase du Virus d'Epstein-Barr

Ballout, Mirvat 15 December 2005 (has links) (PDF)
Un système d'évaluation in vitro de l'activité de médicaments anti-EBV a été mis au point en utilisant la PCR/RT-PCR quantitative en temps réel. Trois composés appartenant à différentes classes antivirales ont été testés : un analogue nucléosidique, le ganciclovir (GCV), un analogue nucléotidique, le cidofovir (HPMPC), et un analogue du pyrophosphate, le foscarnet (PFA). Après 7 jours de traitement des cellules P3HR-1 productrices de virions, les concentrations inhibant de 50 % la réplication de l'ADN viral sont respectivement de 0.28 µg/mL, 0.29 µg/mL et 13.6 µg/mL pour le GCV, le HPMPC et le PFA. L'expression de l'ARNm de la glycoprotéine tardive gp350/220 est réduite de 79 à 89 % après 4 jours. Nous avons aussi démontré la spécificité de l'effet antiviral en mesurant les taux d'ADN (b-globine) ou d'ARN (hPBGD) cellulaires. En conclusion, notre système permet l'évaluation de l'effet antiviral contre l'EBV de façon quantitative, simple et précise.
454

Adéquation algorithme - architecture pour le traitement multimédia embarqué

Roux, S. 22 January 2002 (has links) (PDF)
Cette thèse traite de la faisabilité de l'intégration d'un service de visiophonie sur les terminaux mobiles de prochaine génération au travers d'une méthodologie de conception des<br />systèmes multimedia embarqués. <br />Nous commençons par situer le contexte de l'étude, les réseaux 3G, les terminaux mobiles, les processeurs pour le codage vidéo, ainsi que les normes de codage des groupes ISO/MPEG et UIT-T. Puis, nous proposons une méthodologie de conception au niveau système prenant en compte les contraintes de l'embarqué, en particulier, l'autonomie du terminal que nous appliquons au<br />codeur vidéo H.263 (recommandation UIT-T). Cette méthodologie s'articule autour de deux axes: algorithmique (spécification système et analyse de performance) et architectural (partitionnement matériel / logiciel et analyse de l'efficacité de l'implémentation). <br />Face aux contraintes de la visiophonie embarquée, nous proposons un nouveau schéma de compression vidéo exploitant l'information sémantique de l'image vidéo, dans l'esprit de la norme MPEG-4 (codage objet). Nous proposons ainsi, à la fois un algorithme adaptatif pour l'extraction du visage, et un nouveau schéma de codage pour la compression vidéo à très bas débit.
455

Réseaux de neurones pour le traitement automatique du langage: conception et réalisatin de filtres d'informations

Stricker, Mathieu 12 1900 (has links) (PDF)
En raison de l'augmentation constante du volume d'information accessible électroniquement, la conception et la mise en uvre d'outils efficaces, permettant notamment à l'utilisateur de n'avoir accès qu'à l'information qu'il juge pertinente, devient une nécessité absolue. Comme la plupart de ces outils sont destinés à être utilisés dans un cadre professionnel, les exigences de fiabilité et de convivialité sont très importantes; les problèmes à résoudre pour satisfaire ces exigences sont nombreux et difficiles. L'accès à cette information pertinente peut se faire en fournissant à un utilisateur des documents pertinents ou en lui proposant des passages de documents pertinents (ou des réponses à des questions). Le premier cas relève du domaine de la recherche de textes et le second du domaine de l'extraction d'informations. C'est dans le domaine très actif de la recherche de textes que s'est situé notre travail, réalisé dans le cadre d'une collaboration entre Informatique CDC, filiale de la Caisse des Dépôts et Consignations, et le Laboratoire d'Électronique de l'ESPCI. Le but de nos travaux a été de développer un modèle fondé sur l'apprentissage numérique pour la catégorisation de textes ou, plus précisément, pour ce qui correspond à la tâche de routing dans le découpage de la conférence TREC (Text REtrieval Conference). L'approche que nous avons conçue nous a permis d'obtenir un résultat très satisfaisant: nous avons remporté la tâche de "routing" de la compétition TREC 9, devançant notamment Microsoft. Le point essentiel de notre approche est l'utilisation d'un classifieur qui est un réseau de neurones dont l'architecture prend en considération le contexte local des mots. La mise en uvre d'une méthode de sélection des entrées nous a permis de réduire à une vingtaine le nombre de descripteurs de chaque texte; néanmoins, le nombre de paramètres reste élevé eu égard au nombre d'exemples disponibles (notamment lors de la compétition TREC 9). Il a donc été nécessaire de mettre en uvre une méthode de régularisation pour obtenir des résultats significatifs à l'issue des apprentissages. Nos résultats ont été validés d'une part grâce au corpus Reuters-21578 qui est souvent utilisé par la communauté de la catégorisation de textes, et d'autre part, par la participation aux sous-tâches de routing de TREC-8 et TREC-9, qui ont permis d'effectuer des comparaisons chiffrées avec d'autres approches. Nos travaux ont été intégrés dans l'application ExoWeb développée à la Caisse des Dépôts, pour y ajouter des fonctionnalités opérationnelles originales. Cette application offrait, sur l'intranet du groupe, un service de catégorisation de dépêches AFP en temps réel; cette catégorisation s'effectuait grâce à des modèles à bases de règles. La première fonctionnalité nouvelle résultant de nos travaux est un outil qui permet à l'administrateur du système de surveiller automatiquement le vieillissement de filtres construits sur des modèles à base de règles. L'idée de cette application est de fabriquer une "copie" d'un filtre à base de règles avec un filtre utilisant un réseau de neurones. Comme le réseau de neurones produit une probabilité de pertinence et non une réponse binaire, il est possible d'attirer l'attention de l'administrateur sur les documents pour lesquels les filtres et les réseaux de neurones fournissent des réponses divergentes: documents considérés comme pertinents par la méthode à base de règles, mais obtenant une probabilité proche de zéro avec le réseau de neurones, et documents considérés comme non pertinents avec le premier et obtenant une probabilité de pertinence proche de un avec le second. Nous avons également proposé les bases d'une deuxième application, qui permet à un utilisateur de fabriquer lui-même un filtre à sa convenance avec un travail minimum. Pour réaliser cette application, il est nécessaire que l'utilisateur fournisse une base de documents pertinents. Cela peut se faire grâce à l'utilisation d'un moteur de recherche conjointement avec un réseau de neurones ou uniquement grâce au moteur de recherche.
456

Searching for gravitational waves associated with gamma-ray bursts int 2009-2010 ligo-virgo data

Was, Michal 27 June 2011 (has links) (PDF)
Cette thèse présente les résultats de la recherche de signaux impulsionnels d'ondes gravitationnelles associés aux sursauts gamma dans les données 2009-2010 des interféromètres LIGO-Virgo. L'étude approfondie des mécanismesd'émission d'ondes gravitationnelles par les progéniteurs de sursauts gamma, ainsi que des mécanismes d'émission de rayons gamma eux-mêmes, permet de déterminer les caractéristiques essentielles du signal à détecter : polarisation, délai temporel, etc ... Cette connaissance de l'émission conjointe permet alors de construire une méthode d'analyse qui inclut les a priori astrophysiques. Cette méthode est de plus robuste vis-à-vis des bruits transitoires présents dans les données. L'absence de détection nous permet de placer des limites observationnelles inédites sur la population des sursauts gamma.
457

Evaluation des requêtes hybrides basées sur la coordination des services

Cuevas Vicenttin, Victor 08 July 2011 (has links) (PDF)
Les récents progrès réalisés en matière de communication (réseaux hauts débits, normalisation des protocoles et des architectures à objets répartis, explosion de l'internet) conduisent à l'apparition de systèmes de gestion de données et services largement répartis. Les données sont produites à la demande ou de manière continue au travers de divers dispositifs statiques ou mobiles. Cette thèse présente une approche pour l'évaluation de requêtes dites hybrides car intégrant différents aspects des données mobiles, continues, cachées rencontrées dans des environnements dynamiques. Notre approche consiste à représenter une telle requête comme une coordination de services comprenant des services de données et de calcul. Une telle coordination est définie par le flux de la requête et ceux d'opérateurs sur les données (e.g. join, select, union). Un flux de requête représente une expression construite avec les opérateurs de notre modèle de données. Ce flux est construit par un algorithme de ré-écriture à partir de la requête spécifiée dans notre langage de requête HSQL Les flux dit opérateurs composent des services de calcul afin de permettre l'évaluation d'un opérateur particulier. Le processeur de requêtes basées sur les services hybrides que nous avons développé met en mise en œuvre et valide nos propositions.
458

Accents régionaux en français : perception, analyse et modélisation à partir de grands corpus

Woehrling, Cécile 25 May 2009 (has links) (PDF)
De grands corpus oraux comprenant des accents régionaux du français deviennent aujourd'hui disponibles : leurs données offrent une bonne base pour entreprendre l'étude des accents. Les outils de traitement automatique de la parole permettent de traiter des quantités de données plus importantes que les échantillons que peuvent examiner les experts linguistes, phonéticiens ou dialectologues. La langue française est parlée dans de nombreux pays à travers le monde. Notre étude porte sur le français d'Europe continentale, excluant ainsi des territoires comme le Québec, l'Afrique francophone ou encore les départements d'Outre-Mer. Nous étudierons des accents régionaux de France, de Belgique et de Suisse romande. Quelles sont les limites géographiques à l'intérieur desquelles il est possible d'affirmer que les locuteurs ont le même accent ? La réponse à cette question n'est pas évidente. Nous avons adopté la terminologie suivante, adaptée à nos données : nous parlerons d'accent lorsque nous ferons référence à une localisation précise telle qu'une ville ou une région donnée ; nous utiliserons le terme variété pour désigner un ensemble plus vaste. Bien que de nombreuses études décrivent les particularités des accents du français, il existe moins de travaux décrivant la variation de la langue dans son ensemble, et encore moins du point de vue du traitement automatique. De nombreuses questions restent ouvertes. Combien d'accents un auditeur natif du français peut-il identifier ? Quelles performances un système automatique pourrait-il atteindre pour une tâche identique? Les indices décrits dans la littérature linguistique comme caractéristiques de certains accents peuvent-ils être mesurés de manière automatique ? Sont-ils pertinents pour différencier des variétés de français ? Découvrirons-nous d'autres indices mesurables sur nos corpus ? Ces indices pourront-ils être mis en relation avec la perception ? Au cours de notre thèse, nous avons abordé l'étude de variétés régionales du français du point de vue de la perception humaine aussi bien que de celui du traitement automatique de la parole. Traditionnellement, nombre d'études en linguistique se focalisent sur l'étude d'un accent précis. Le traitement automatique de la parole permet d'envisager l'étude conjointe de plusieurs variétés de français : nous avons voulu exploiter cette possibilité. Nous pourrons ainsi examiner ce qui diffère d'une variété à une autre, ce qui n'est pas possible lorsqu'une seule variété est décrite. Nous avons la chance d'avoir à notre disposition un système performant d'alignement automatique de la parole. Cet outil, qui permet de segmenter le flux sonore suivant une transcription phonémique, peut se révéler précieux pour l'étude de la variation. Le traitement automatique nous permet de prendre en considération plusieurs styles de parole et de nombreux locuteurs sur des quantités de données importantes par rapport à celles qui ont pu être utilisées dans des études linguistiques menées manuellement. Nous avons automatiquement extrait des caractéristiques du signal par différentes méthodes ; nous avons cherché à valider nos résultats sur deux corpus avec accents. Les paramètres que nous avons retenus ont permis de classifier automatiquement les locuteurs de nos deux corpus.
459

CONTRIBUTION A LA VALIDATION GLOBALE D'UN LOGICIEL DE SIMULATION THERMO-AERAULIQUE DU BATIMENT : PROPOSITION DE NOUVEAUX OUTILS D'AIDE A LA VALIDATION.

Mara, Thierry Alex 31 December 2000 (has links) (PDF)
Les logiciels de simulation du comportement thermique jouent un rôle capital dans l'amélioration des performances énergétiques des bâtiments. Se pose cependant le problème du crédit à apporter aux résultats de simulations de ces logiciels, autrement dit, de l'aptitude de ces derniers et des modèles intégrés à représenter la réalité. Dans ces travaux, nous appliquons une méthodologie basée sur la vérification du logiciel et sur la validation expérimentale de modèles. Pour mener à bien la première phase, nous appliquons une procédure qui a fait ses preuves : la procédure de comparaison inter-logiciels BESTEST. La validation expérimentale nécessite d'une part, la recherche des sollicitations mal prises en compte par le modèle et d'autre part, l'identification des paramètres les plus influents de ce derniers. Nous proposons, pour la première étude, l'utilisation d'un outil d'analyse temps-fréquence : la transformée de Fourier à court-terme. En ce qui concerne la seconde, une méthode d'analyse de sensibilité paramétrique de modèles, basée sur les outils d'analyse spectrale, a été développée. Cette technique constituant le coeur de ces travaux, un chapitre entier est dédié à l'analyse de sensibilité.
460

Définition et mise en place d'un outil temps réel d'analyse des caractéristiques physiques des semences sèches

Muracciole, Vincent 29 September 2009 (has links) (PDF)
L'objectif de la présente thèse est d'étudier, de définir et de mettre en place un système de vision artificielle permettant de discriminer la nature et la variété de semences à partir de leurs images numériques. Une première étude a porté sur l'étude d'un dispositif mono-caméra destiné au contrôle de la qualité de lots de semences dans l'optique de leur certification. Il est apparu qu'un système mono-caméra ne permettait pas d'identifier les semences dont les faces présentent une disparité de couleur. Ainsi, les semences endommagées ne peuvent pas être correctement détectées avec un tel dispositif. Une deuxième étude a porté sur l'étude et la réalisation d'un nouveau système d'acquisition, muni de trois caméras, et capable de prendre plusieurs images de plusieurs faces d'un même objet. Un prototype a été construit, reposant sur une nouvelle architecture optique et électronique. A l'aide de ce prototype, une collection d'images de semences et de contaminants a été acquise. Sur cette collection, des algorithmes de traitement d'images et de discrimination ont été testés. Les semences composant cette collection ont été caractérisées par plusieurs centaines de variables quantitatives, portant sur leur morphologie, leur couleur et leur texture. Plusieurs méthodes de discrimination ont été étudiées : l'analyse discriminante linéaire (ADL), l'analyse factorielle discriminante, l'analyse discriminante PLS et une méthode de réseau de neurones probabilistes à ajustement adaptatif de poids. Dans tous les cas, les variables ont été sélectionnées préalablement par ADL avec introduction successive des variables les plus discriminantes. L'existence de trois images numériques pour chaque objet étudié offre des possibilités nouvelles en ce qui concerne la prise de décision. Plusieurs heuristiques ont été testées. Nous avons comparé les résultats obtenus en concaténant les tableaux de caractéristiques acquises à l'aide des trois caméras ou en mettant en jeu une stratégie de vote, majoritaire ou unanime. Quelle que soit la stratégie de décision, le réseau de neurones probabilistes donne les résultats les meilleurs, légèrement supérieurs à ceux obtenus par l'ADL. Nous avons conclu que, en considérant la simplicité de l'analyse discriminante linéaire, cette méthode était la plus appropriée pour la réalisation d'un automate fonctionnant en temps réel et capable de répondre aux contraintes de la certification des lots de semences.

Page generated in 0.0747 seconds