• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 282
  • 84
  • 31
  • 6
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 428
  • 197
  • 177
  • 81
  • 77
  • 66
  • 60
  • 58
  • 58
  • 54
  • 53
  • 52
  • 52
  • 38
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
221

Concept et changement de concept : <br />Concept, contenu et inférence, Bases pour une approche dynamique du concept.

Sylvand, Benjamin 10 December 2005 (has links) (PDF)
Le concept est l'entité mentale qui permet à un agent cognitif qui la possède de penser son environnement. Le concept se caractérise par deux dimensions : d'une part son application (les objets auxquels il réfère) et son usage d'autre part (les relations qu'il entretient avec les autres états mentaux). Les théories contemporaines du concept ne parviennent pas à rendre compte de ces deux aspects. Cela vient de l'assimilation de la théorie des concepts avec une théorie de la classification et d'une distinction floue entre le conceptuel et le nonconceptuel. Le concept est considéré ici comme étant représentationnel alors que le nonconceptuel ne l'est pas. Représentationnel signifie ici que le concept peut être changé ou corrigé alors que le nonconceptuel (le percept) ne l'est pas. La théorie du concept défendue ici est normative dans la mesure où des principes sont énoncés pour caractériser le concept. L'agent possède un concept s'il est capable de postuler une assignation à celui-ci. Et ce à la fois en première personne (contenu cognitive) et en troisième personne (contenu canonique). Cela suppose une théorie de l'esprit et un accès au contenu du concept (aspect épistémique). L'agent doit également pouvoir rendre compte de l'usage qu'il fait du concept, et ce non seulement pour lui (dérivation cognitive) mais aussi en troisième personne (dérivation canonique). Le holisme qui découle de cette conception implique que le concept apparaît toujours dans une « conception », c'est-à-dire comme inférentiellement relié à d'autres concepts. Cette théorie du concept permet de rendre compte du changement et de l'évolution d'un concept plutôt que son remplacement systématique.
222

Etude dans l'ionosphère de la densité électronique et de la turbulence électrostatique en fonction de l'activité séismique

Li, Feng 07 February 2007 (has links) (PDF)
Le sujet de cette thèse rentre dans le cadre du projet DEMETER et plus particulièrement de l'utilisation des données de son centre de mission. DEMETER est le premier micro-satellite scientifique qui a été lancé par le CNES en Juin 2004 avec une charge utile sous la responsabilité du LPCE. DEMETER mesure dans l'ionosphère le champ électrique et le champ magnétique dans diverses bandes de fréquence, ainsi que des paramètres caractérisant le plasma à l'altitude du satellite. L'objectif principal de DEMETER est d'étudier les perturbations ionosphériques en liaison avec l'activité séismique. Avant le lancement de DEMETER, les variations du Contenu Electronique Total (CET) mesurées par DORIS avec d'autres satellites (Spot, Topex-Poseidon, et Jason) évoluant dans l'ionosphère ont été étudiées pour rechercher des perturbations dues à l'activité séismique. Dans un deuxième temps grâce aux données de DEMETER, on analyse les caractéristiques générales de la turbulence électrostatique dans les zones de moyennes latitudes et dans la région équatoriale. On cherche ensuite si ces caractéristiques de la turbulence électrostatique changent quand le satellite survole une zone séismique. Ces études ont montré que, d'une part le CET et d'autre part la turbulence électrostatique pouvaient varier en fonction de l'activité séismique. Des perturbations de ces deux paramètres ionosphériques ont été mises en évidence avant les tremblements de Terre. Mais ces résultats ont été obtenus de façon statistique et on ne peut pas encore affirmer qu'ils peuvent servir de précurseurs.
223

Atlas intelligent pour guider le diagnostic en endomicroscopie : une application clinique de la reconnaissance d'images par le contenu

André, Barbara 12 October 2011 (has links) (PDF)
L'Endomicrocopie Confocale par Minisondes (ECM) permet l'observation dynamique des tissus au niveau cellulaire, in vivo et in situ, pendant une endoscopie. Grâce à ce nouveau système d'imagerie, les médecins endoscopistes ont la possibilité de réaliser des "biopsies optiques" non invasives. Les biopsies traditionnelles impliquent le diagnostic ex vivo d'images histologiques par des médecins pathologistes. Le diagnostic in vivo d'images ECM est donc un véritable challenge pour les endoscopistes, qui ont en général seulement un peu d'expertise en anatomopathologie. Les images ECM sont néanmoins de nouvelles images, qui ressemblent visuellement aux images histologiques. Cette thèse a pour but principal d'assister les endoscopistes dans l'interprétation in vivo des séquences d'images ECM. Lors de l'établissement d'un diagnostic, les médecins s'appuient sur un raisonnement par cas. Afin de mimer ce processus, nous explorons les méthodes de Reconnaissance d'Images par le Contenu (CBIR) pour l'aide au diagnostique. Notre premier objectif est le développement d'un système capable d'extraire de manière automatique un certain nombre de vidéos ECM qui sont visuellement similaires à la vidéo requête, mais qui ont en plus été annotées avec des métadonnées comme par exemple un diagnostic textuel. Un tel système de reconnaissance devrait aider les endoscopistes à prendre une décision éclairée, et par là-même, à établir un diagnostic ECM plus précis. Pour atteindre notre but, nous étudions la méthode des Sacs de Mots Visuels, utilisée en vision par ordinateur. L'analyse des propriétés des données ECM nous conduit à ajuster la méthode standard. Nous mettons en œuvre la reconnaissance de vidéos ECM complètes, et pas seulement d'images ECM isolées, en représentant les vidéos par des ensembles de mosaïques. Afin d'évaluer les méthodes proposées dans cette thèse, deux bases de données ECM ont été construites, l'une sur les polypes du colon, et l'autre sur l'œsophage de Barrett. En raison de l'absence initiale d'une vérité terrain sur le CBIR appliquée à l'ECM, nous avons d'abord réalisé des évaluations indirectes des méthodes de reconnaissance, au moyen d'une classification par plus proches voisins. La génération d'une vérité terrain éparse, contenant les similarités perçues entre des vidéos par des experts en ECM, nous a ensuite permis d'évaluer directement les méthodes de reconnaissance, en mesurant la corrélation entre la distance induite par la reconnaissance et la similarité perçue. Les deux évaluations, indirecte et directe, démontrent que, sur les deux bases de données ECM, notre méthode de reconnaissance surpasse plusieurs méthodes de l'état de l'art en CBIR. En termes de classification binaire, notre méthode de reconnaissance est comparable au diagnostic établi offline par des endoscopistes experts sur la base des Polypes du Colon. Parce que diagnostiquer des données ECM est une pratique de tous les jours, notre objectif n'est pas seulement d'apporter un support pour un diagnostique ponctuel, mais aussi d'accompagner les endoscopistes sans leurs progrès. A partir des résultats de la reconnaissance, nous estimons la difficulté d'interprétation des vidéos ECM. Nous montrons l'existence d'une corrélation entre la difficulté estimée et la difficulté de diagnostic éprouvée par plusieurs endoscopistes. Cet estimateur pourrait ainsi être utilisé dans un simulateur d'entraînement, avec différents niveaux de difficulté, qui devrait aider les endoscopistes à réduire leur courbe d'apprentissage. La distance standard basée sur les mots visuels donne des résultats adéquats pour la reconnaissance de données ECM. Cependant, peu de connaissance clinique est intégrée dans cette distance. En incorporant l'information a priori sur les similarités perçues par les experts en ECM, nous pouvons apprendre une distance de similarité qui s'avère être plus juste que la distance standard. Dans le but d'apprendre la sémantique des données ECM, nous tirons également profit de plusieurs concepts sémantiques utilisés par les endoscopistes pour décrire les vidéos ECM. Des signatures sémantiques basées mots visuels sont alors construites, capables d'extraire, à partir de caractéristiques visuelles de bas niveau, des connaissances cliniques de haut niveau qui sont exprimées dans le propre langage de l'endoscopiste.
224

Indexation multi-vues et recherche d'objets 3D

Napoléon, Thibault 06 July 2010 (has links) (PDF)
Dans cette thèse, nous nous intéressons aux problématiques liées à l'indexation et à la recherche d'objets 3D par le contenu. Dans un cadre plus particulier, nous nous sommes penchés sur des méthodes d'indexation multi-vues, caractérisant la forme à l'aide de projections 2D de l'objet en trois-dimensions. Dans un premier temps, nous introduisons une nouvelle approche de normalisation et d'alignement des objets 3D nécessaire à notre processus d'indexation. La définition de la position et de l'échelle s'appuie sur la sphère minimale englobante qui offre des propriétés intéressantes pour notre caractérisation multi-vues de la forme. En ce qui concerne la recherche de l'alignement optimal, nous proposons un estimateur permettant de comparer deux poses différentes en s'appuyant sur des résultats obtenus en psychologie cognitive. Dans une seconde partie, nous définissons trois nouveaux descripteurs de forme basés sur des projections 2D. Le premier décrit la forme d'une silhouette à l'aide d'un ensemble de pixels. Le second, utilise des informations de convexités et de concavités pour décrire le contour des projections de nos objets 3D. Enfin, le dernier utilise des informations d'orientation de la surface 3D. Finalement, le processus de recherche que nous introduisons permet d'interroger la base de données à l'aide d'objets 3D, de photos ou de dessins au trait. Afin de garantir une recherche efficace en temps et en pertinence des résultats, nous proposons deux optimisations. La première s'appuie sur la fusion de résultats tandis que la seconde élimine rapidement les objets éloignés de la requête au moyen d'un élagage précoce.
225

Analyse factorielle des correspondances pour l'indexation et la recherche d'information dans une grande base de données d'images

Pham, Khang-Nguyen 06 November 2009 (has links) (PDF)
Avec le développement du numérique, le nombre d'images stockées dans les bases de données a beaucoup augmenté. L'indexation des images et la recherche d'information dans les bases d'images sont plus compliquées que dans le cas de documents textuels Des méthodes d'indexation déjà utilisées en analyse de données textuelles sont proposées pour traiter des images. Pour transférer les résultats de l'analyse de données textuelles aux images, il est nécessaire d'utiliser de nouvelles caractéristiques : les mots visuels et on considère les images comme documents. Nous nous intéressons au problème d'indexation et de recherche d'information dans des grandes bases de données d'images à l'aide de méthodes d'analyse de données comme l'Analyse Factorielle des Correspondances (AFC). Nous proposons d'abord une utilisation astucieuse des indicateurs de l'AFC pour accélérer la recherche après l'avoir adaptée aux images. Nous nous intéressons ensuite au problème du passage à l'échelle de l'AFC. Pour ce faire, nous proposons un algorithme d'AFC incrémentale pour traiter de grands tableaux de données et la parallélisation de cet algorithme sur processeurs graphiques (GPU). Nous développons aussi une version parallèle de notre algorithme de recherche qui utilise les indicateurs de l'AFC sur GPU. Puis nous associons l'AFC à d'autres méthodes comme la Mesure de Dissimilarité Contextuelle ou les forêts aléatoires pour améliorer la qualité de la recherche. Enfin, nous présentons un environnement de visualisation, CAViz, pour accompagner les traitements précédents.
226

Une approche générique pour l'analyse croisant contenu et usage des sites Web par des méthodes de bipartitionnement

Charrad, Malika 22 March 2010 (has links) (PDF)
Dans cette thèse, nous proposons une nouvelle approche WCUM (Web Content and Usage Mining based approach) permettant de relier l'analyse du contenu à l'analyse de l'usage d'un site Web afin de mieux comprendre le comportement général des visiteurs du site. Ce travail repose sur l'utilisation de l'algorithme CROKI2 de classification croisée implémenté selon deux stratégies d'optimisation différentes que nous comparons à travers des expérimentations sur des données générées artificiellement. Afin de pallier le problème de détermination du nombre de classes sur les lignes et les colonnes, nous proposons de généraliser certains indices proposés initialement pour évaluer les partitions obtenues par des algorithmes de classification simple, aux algorithmes de classification simultanée. Pour évaluer la performance de ces indices nous proposons un algorithme de génération de biclasses artificielles pour effectuer des simulations et valider les résultats. Des expérimentations sur des données artificielles ainsi qu'une application sur des données réelles ont été réalisées pour évaluer l'efficacité de l'approche proposée.
227

Security analysis of image copy detection systems based on SIFT descriptors

Do, Thanh-Toan 27 September 2012 (has links) (PDF)
Les systèmes de recherche d'images par le contenu (Content-Based Image Retrieval System - CBIRS) sont maintenant couramment utilisés comme mécanismes de filtrage contre le piratage des contenus multimédias. Ces systèmes utilisent souvent le schéma de description d'images SIFT pour sa bonne robustesse face à un large spectre de distorsions visuelles. Mais aucun de ces systèmes n'a encore abordé le problème du piratage à partir d'un point de vue ''sécurité''. Cette thèse a comme objectif d'analyser les CBIRS de ce point de vue sécurité. Il s'agit de comprendre si un pirate peut produire des distorsions visuelles perturbant les capacités de reconnaissances d'un système en créant ces distorsions en fonctions des techniques que ce système utilise. Tout d'abord, nous présentons les failles de sécurité des composantes typiques d'un CBIRS : composantes description d'image, indexation et filtrage des faux positifs. Ensuite, nous présentons des attaques ciblant le schéma de description SIFT. Les attaques sont effectuées durant l'étape de détection de points d'intérêt et de calculs des descripteurs. Nous présentons également une attaque ciblant la mise en correspondance des images sur un critère de cohérence géométrique. Les expériences menées avec 100 000 images réelles confirment l'efficacité des attaques proposées.
228

Les connaissances mobilisées par les enseignants dans l'enseignement des sciences : analyse de l'organisation de l'activité et de ses évolutions

Jameau, Alain 05 December 2012 (has links) (PDF)
Notre travail porte sur le thème des connaissances professionnelles mobilisées par les enseignants pendant la préparation et lors de la mise en œuvre de leur enseignement. Notre étude se déroule dans le contexte de l'enseignement des sciences expérimentales. Nous y étudions les connaissances des enseignants et leurs évolutions. Notre approche théorique articule la didactique des sciences et la didactique professionnelle avec comme cadre d'analyse des connaissances des enseignants, le concept de PCK (Pedagogical Content Knowledge), les connaissances pédagogiques liées au contenu. Nous avons élaboré une méthodologie spécifique, associant le chercheur et des binômes de professeurs, afin notamment de saisir l'écart entre la préparation des enseignements et leur mise en œuvre. A partir de cet écart nous définissons des incidents critiques qui sont la base du corpus que nous analysons. Nous identifions les connaissances en jeu, et indiquons comment le concept de PCK s'articule avec celui de schème. Lorsque les enseignants traitent d'un sujet au moyen des démarches d'investigation, ils mobilisent des types de connaissances spécifiques, et mettent en place des pratiques différentes, selon qu'ils travaillent au premier ou second degré. Nous montrons qu'il y a une relation entre ces connaissances et la régulation rétroactive de l'activité qui permet à l'enseignant d'ajuster sa préparation. Nous modélisons une forme d'acquisition d'expérience.
229

L'actualisation du catholicisme québécois : la revue "Maintenant" (1962-1974)

Roy, Martin 08 1900 (has links) (PDF)
Le présent mémoire s'est fixé pour objectif d'approfondir les connaissances dont nous disposons déjà sur la revue catholique d'opinion Maintenant (1962 -1974). Il présente le double aspect d'une histoire de cette revue intellectuelle et d'une analyse de ses idées politiques et de celles portant sur l'inscription institutionnelle du christianisme. Aussi, certains aspects de sa pensée (morale sexuelle, ecclésiologie) ne sont pas abordés. En ce qui a trait à l'histoire de la revue, nous avons considéré entre autres les structures organisationnelles et le statut de Maintenant. Pour nous aider dans ce travail, nous avons mené une entrevue auprès d’Hélène Pelletier-Baillargeon qui a fait partie de l'équipe de la revue depuis ses débuts. Quant aux idées politico-institutionnelles de la publication, nous avons procédé à une analyse de contenu thématique qualitative. Notre travail a voulu par ailleurs vérifier si, dans l'interprétation qu'elle a donnée du christianisme sur le plan politique et au chapitre des relations entre l'Église catholique et la société, Maintenant a entrepris un travail d'actualisation de la tradition chrétienne québécoise, entre le repli passéiste et l'assimilation, dans un contexte, celui des années 1960 et 1970, où un processus de sécularisation et de modernisation transforme la société québécoise. Les résultats auxquels aboutit la recherche confirment cette hypothèse. L'analyse de la vie interne de la revue nous a permis d'établir que la revue a bénéficié d'une grande liberté qui lui a donné la possibilité d'être audacieuse sur le plan des idées. Au chapitre des rapports entre l'Église et la société, Maintenant a rejeté à la fois l'idée de chrétienté, empreinte de cléricalisme, et l'assimilation pure et simple du chrétien à la société séculière. Le chrétien s'y intègre, mais il doit pouvoir exprimer sa foi au sein d'institutions neutres (et non plus confessionnelles). Finalement, la revue a présenté des attitudes et des idées politiques qui, tout en innovant par rapport au passé catholique, ne répudient pas l’essence et la logique même de la tradition chrétienne. Ainsi, même si l'équipe de la revue se rallie à la gauche indépendantiste, bien des thèmes de la pensée sociale chrétienne colorent ses positions. Au total, donc, Maintenant a bel et bien entrepris d'actualiser la tradition catholique québécoise, renvoyant dos à dos le refus de l'adaptation et l'assimilation dissolvante. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Catholicisme, Maintenant, gauche chrétienne, sécularisation, Révolution tranquille.
230

Analyse d'images en vidéosurveillance embarquée dans les véhicules de transport en commun.

Harasse, Sebastien 07 December 2006 (has links) (PDF)
Ce travail s'inscrit dans le cadre d'une thèse Cifre autour de la conception d'un système d'enregistrement vidéo embarqué destiné à la surveillance dans les véhicules de transport en commun.<br />Parmi les applications visées, nous nous sommes concentrés sur la détection d'anomalies de fonctionnement des caméras, la compression sélective et le comptage de personnes.<br />Elles sont basées sur une analyse des images issues des caméras de surveillance embarquées dans les véhicules.<br />L'analyse vidéo dans ce contexte très spécifique est un problème complexe à cause des différentes variations en illumination et en mouvement qui perturbent les algorithmes classiques, ainsi que de part la grande variabilité des objets d'intérêt que sont les personnes.<br />Deux familles d'algorithmes sont considérées dans cette thèse.<br /><br /> Dans une première partie, nous nous intéressons à l'analyse de l'état du système d'acquisition, en terme de netteté des images, de bon positionnement de la caméra et de bonne visibilité de la scène filmée.<br />Les méthodes définies, robustes et efficaces, permettent de construire des applications surveillant en continu le bon fonctionnement des caméras, ainsi que des applications aidant à l'installation des caméras.<br /><br /> Dans une deuxième partie, nous abordons la détection et le suivi de personnes dans cet environnement dynamique.<br />Le schéma général du système permet la fusion de différentes sources d'information dans un cadre probabiliste.<br />Nous avons en particulier développé un modèle d'arrière-plan permettant une détection robuste des pixels d'avant-plan.<br />La détection de personnes est basée sur la combinaison de sources d'information telle que le mouvement ou la peau au sein d'un modèle de personne adapté au problème posé.<br />Ces outils ont ensuite été utilisés pour réaliser la compression sélective des vidéos en fonction de l'intérêt porté aux différents objets extraits, ainsi que dans une application de comptage de personnes.

Page generated in 0.7294 seconds