• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 44
  • 8
  • 6
  • 1
  • 1
  • 1
  • Tagged with
  • 64
  • 22
  • 19
  • 15
  • 14
  • 13
  • 13
  • 13
  • 12
  • 10
  • 8
  • 7
  • 7
  • 7
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Des musiciens sur les scènes locales en Nord de France : formes d'engagement et enjeux de pluriactivité des pratiques de création collective / Musicians on local scenes in North of France : forms of commitment and stakes of multiactivity of collective creation pratices

Hannecart, Claire 16 December 2014 (has links)
La présente recherche étudie les pratiques sociales se donnant à voir sur les scènes locales, comprises comme ensembles d’acteurs variés que sont les musiciens, les intermédiaires et les auditeurs. Cette thèse entend contribuer à la compréhension des modalités d’engagement des musiciens, pluriactifs ou intermittents, dans des pratiques mues par la volonté d’exprimer leur singularité, mais en tension avec le régime d'une communauté locale qui accorde sa reconnaissance. Il s’agit d’identifier sur le territoire Nord de France ces pratiques façonnées par des représentations sociales plurielles et des tensions entre monde vécu et réalités contraintes. Un double cadre théorique combinant les sociologies compréhensive et pragmatique est mobilisé. La période étudiée est de cinq ans (2009-2013) et l’étude empirique repose sur deux démarches méthodologiques. Une analyse qualitative réalisée à partir d’entretiens semi-directifs et non-directifs menés auprès de cinquante-deux acteurs concernés de diverses façons par les scènes locales (musiciens, intermédiaires associatifs ou privés et politiques). Et une enquête quantitative dont l’objectif est de vérifier les constatations empiriques quant aux pratiques et profils des musiciens, l’échantillon étant constitué de musiciens de la métropole lilloise. Les résultats révèlent l'ambivalence des représentations de l’ensemble des acteurs concourant à la formation des scènes locales. La dimension coopérative des pratiques et leur inscription dans des conditions matérielles favorisées par l’ère numérique ont été mises en évidence. Enfin la valorisation de la dimension artisanale des projets constitue un des enjeux majeurs pointés par cette recherche. / The present research studies the social practices to be observed on local scenes, i.e. groups of various actors as musicians, “support systems” and audiences. This thesis contributes to the understanding of the way creators are committed to practices driven by a desire to express their singularity. What is at stake here is to identify how these practices have been shaped by pluralist social representations in northern France. A dual theoretical framework combines both comprehensive and pragmatic sociologies. The period under study spans 5 years from 2009 to 2013 and the empirical study lies on two methodological approaches. On the one hand, a qualitative analysis based upon both semi-structured and unstructured interviews with 52 respondents that were involved one way or another on local scenes, be they artists or associate private or political intermediaries. On the other hand, a quantitative survey used to verify the empirical data relative to the practices and profiles of the musicians, the sample being made of musicians from the city of Lille. The results show the ambivalence in the representation of all the actors that contribute to the formation of local scenes. The cooperative dimension of such practices in keeping with material conditions favored by the digital era have been underlined. Finally, the artisan dimension of the projects represents one of the major stakes this research highlights.
2

Caractérisation des Scènes Urbaines par Analyse des Images Hyperspectrales

Homayouni, Saeid 08 December 2005 (has links) (PDF)
La caractérisation d'un environnement tel que le milieu urbain est une tâche délicate car ce milieu est un phénomène complexe par différents aspects. Parmi ceux-ci, l'aspect géographique est considéré comme le plus important qui puisse être étudié par les technologies d'acquisition et les techniques d'analyse de la télédétection. En particulier, la télédétection hyperspectrale a montré son potentiel pour l'acquisition de données et l'extraction d'informations nécessaires pour la modélisation du milieu urbain. Dans cette thèse, pour l'analyse d'image hyperspectrale, deux stratégies supervisée et non supervisée ont été choisi. Nous avons appliqué les techniques de Mise en Correspondance Spectrale, en tant que les méthodes supervisées, en vue de la cartographie des matériaux urbains. Afin d'améliorer les résultats de ces techniques, nous avons proposé une technique de fusion au niveau de la décision. Par ailleurs, une technique non supervisée basée sur l'Analyse en Composantes Indépendantes pour la séparation spectrale et la classification, comme une solution de problème de mélange, est proposée. Elle emploie la technique de groupage C-Moyens Flou, afin d'obtenir une carte de classification floue et sub-pixelique. Ces techniques sont employées sur les données images hyperspectrales acquises par le capteur CASI sur la ville de Toulouse, en France. Elles sont enregistrées en 32 canaux spectraux avec la résolution spatiale de 2 mètres et 48 canaux en 4 mètres de résolution spatiale. Enfin, nous avons comparé les résultats de ces méthodes avec des données de vérité terrain et une évaluation du taux d'erreur de classification a été réalisée pour toutes les techniques.
3

Interprétation de Scènes : perception, fusion multi-capteurs, raisonnement spatio-temporel et reconnaissance d'activités

Bremond, François 02 July 2007 (has links) (PDF)
Scene understanding is the process, often real time, of perceiving, analysing and elaborating an interpretation of a 3D dynamic scene observed through a network of sensors. This process consists mainly in matching signal information coming from sensors observing the scene with models which humans are using to understand the scene. Based on that, scene understanding is both adding and extracting semantic from the sensor data characterizing a scene. This scene can contain a number of physical objects of various types (e.g. people, vehicle) interacting with each others or with their environment (e.g. equipment) more or less structured. The scene can last few instants (e.g. the fall of a person) or few months (e.g. the depression of a person), can be limited to a laboratory slide observed through a microscope or go beyond the size of a city. Sensors include usually cameras (e.g. omni directional, infrared), but also may include microphones and other sensors (e.g. optical cells, contact sensors, physiological sensors, radars, smoke detectors). Scene understanding is influenced by cognitive vision and it requires at least the melding of three areas: computer vision, cognition and software engineering. Scene understanding can achieve four levels of generic computer vision functionality of detection, localisation, recognition and understanding. But scene understanding systems go beyond the detection of visual features such as corners, edges and moving regions to extract information related to the physical world which is meaningful for human operators. Its requirement is also to achieve more robust, resilient, adaptable computer vision functionalities by endowing them with a cognitive faculty: the ability to learn, adapt, weigh alternative solutions, and develop new strategies for analysis and interpretation. The key characteristic of a scene understanding system is its capacity to exhibit robust performance even in circumstances that were not foreseen when it was designed. Furthermore, a scene understanding system should be able to anticipate events and adapt its operation accordingly. Ideally, a scene understanding system should be able to adapt to novel variations of the current environment to generalize to new context and application domains and interpret the intent of underlying behaviours to predict future configurations of the environment, and to communicate an understanding of the scene to other systems, including humans. Related but different domains are robotic, where systems can interfere and modify their environment, and multi-media document analysis (e.g. video retrieval), where limited contextual information is available.
4

La recette du roman populaire, façon Alexandre Dumas / The popular novel recipe – The Alexandre Dumas way

Akiki, Karl 02 April 2013 (has links)
Le roman populaire est souvent associé à une littérature de seconde zone, gravitant autour des Lettres nobles. C’est surtout son public qui est décrié puisqu’il s’agit d’un lectorat de consommation qui impose à l’auteur un mode d’écriture particulier. Toutefois, certains auteurs comme Alexandre Dumas ont réussi à dépasser ce mépris en étant reconnus par la nation française. Pour cet écrivain prolifique, la reconnaissance voit le jour dans les couloirs sombres du Panthéon. Ses œuvres, elles, demeurent sur le parvis! Ce travail a l’ambition de montrer que l’écriture dumasienne détient un poids littéraire des plus considérables à travers sa sollicitation par les foules. Deux œuvres retiennent notre attention vu qu’elles sont connues de tous mais pas nécessairement lues par tous : Le Comte de Monte-Cristo et Les Trois Mousquetaires. Après un constat premier sur la réception double accordée à ces romans, nous analyserons leur imaginaire (personnages, espaces et scènes de genre) d’une part et leur structure narratologique (morphologie, narrateur et narration) d’autre part. Cette lente dissection tentera de comprendre, à partir de sa deuxième et de sa troisième partie, le mécanisme de l’attrait exercé par la plume de Dumas sur la grande masse des lecteurs. L’on aboutit ainsi à des ingrédients particuliers qui sont la signature de l’auteur. Néanmoins, force nous est de constater que cette recette est partagée par d’autres écrivains. Elle permet à la littérature populaire de regagner ses galons et d’affirmer sa légitimité. / The popular novel is often considered to be second-class literature, orbiting around the Fine Literature. The blame is on the consumerism of its readers that forces the authors to follow a certain style of writing. However, some authors, like Alexandre Dumas, managed to avoid this contempt by getting the acknowledging of the French nation. For this prolific writer, recognition saw the light in the dark alleys of the Pantheon, unlike his works that remain snubbed.The aim of this thesis is to prove that Dumas’ work is a heavy-weight of literature due to the high appeal it has over the masses. Two works grab our attention as they are known to all, but not necessarily read by all : The Count of Monte Cristo and The Three Musketeers. In the first place, we will observe the double reception of each of these novels, before analyzing their imaginary (characters, spaces and genre scenes) on the one hand and narration structure (morphology, narrator and narration) on the other. Through this slow dissection, in the second and third part, we will try to understand how Dumas’ pen casts his spell over the big mass of readers. It thus leads us to specific ingredients that are the signature of the author. Nevertheless, we are compelled to note that this recipe is shared by other writers. It allows popular literature to regain its stripes and its legitimacy.
5

GigaVoxels : un pipeline de rendu basé Voxel pour l'exploration efficace de scènes larges et détaillées / GigaVoxels : a Voxel-Based Rendering Pipeline For Efficient Exploration Of Large and Detailed Scenes

Crassin, Cyril 12 July 2011 (has links)
Dans cette thèse, nous présentons une nouvelle approche efficace pour le rendu de scènes vastes et d'objets détaillés en temps réel. Notre approche est basée sur une nouvelle représentation pré-filtrée et volumique de la géométrie et un lancer de cone basé-voxel qui permet un rendu précis et haute performance avec une haute qualité de filtrage de géométries très détaillées. Afin de faire de cette représentation voxel une primitive de rendu standard pour le temps-réel, nous proposons une nouvelle approche basée sur les GPUs conçus entièrement pour passer à l'échelle et supporter ainsi le rendu des volumes de données très volumineux. Notre système permet d'atteindre des performances de rendu en temps réel pour plusieurs milliards de voxels. Notre structure de données exploite le fait que dans les scènes CG, les détails sont souvent concentrées sur l'interface entre l'espace libre et des grappes de densité et montre que les modèles volumétriques pourrait devenir une alternative intéressante en tant que rendu primitif pour les applications temps réel. Dans cet esprit, nous permettons à un compromis entre qualité et performances et exploitons la cohérence temporelle. Notre solution est basée sur une représentation hiérarchiques des données adaptées en fonction de la vue actuelle et les informations d'occlusion, couplé à un algorithme de rendu par lancer de rayons efficace. Nous introduisons un mécanisme de cache pour le GPU offrant une pagination très efficace de données dans la mémoire vidéo et mis en œuvre comme un processus data-parallel très efficace. Ce cache est couplé avec un pipeline de production de données capable de charger dynamiquement des données à partir de la mémoire centrale, ou de produire des voxels directement sur le GPU. Un élément clé de notre méthode est de guider la production des données et la mise en cache en mémoire vidéo directement à partir de demandes de données et d'informations d'utilisation émises directement lors du rendu. Nous démontrons notre approche avec plusieurs applications. Nous montrons aussi comment notre modèle géométrique pré-filtré et notre lancer de cones approximé peuvent être utilisés pour calculer très efficacement divers effets de flou ainsi d'éclairage indirect en temps réel. / In this thesis, we present a new approach to efficiently render large scenes and detailed objects in real-time. Our approach is based on a new volumetric pre-filtered geometry representation and an associated voxel-based approximate cone tracing that allows an accurate and high performance rendering with high quality filtering of highly detailed geometry. In order to bring this voxel representation as a standard real-time rendering primitive, we propose a new GPU-based approach designed to entirely scale to the rendering of very large volumetric datasets. Our system achieves real-time rendering performance for several billion voxels. Our data structure exploits the fact that in CG scenes, details are often concentrated on the interface between free space and clusters of density and shows that volumetric models might become a valuable alternative as a rendering primitive for real-time applications. In this spirit, we allow a quality/performance trade-off and exploit temporal coherence. Our solution is based on an adaptive hierarchical data representation depending on the current view and occlusion information, coupled to an efficient ray-casting rendering algorithm. We introduce a new GPU cache mechanism providing a very efficient paging of data in video memory and implemented as a very efficient data-parallel process. This cache is coupled with a data production pipeline able to dynamically load or produce voxel data directly on the GPU. One key element of our method is to guide data production and caching in video memory directly based on data requests and usage information emitted directly during rendering. We demonstrate our approach with several applications. We also show how our pre-filtered geometry model and approximate cone tracing can be used to very efficiently achieve blurry effects and real-time indirect lighting.
6

Réalisation d'un support expérimental de recherche pour le projet robotique PANDORE : définition et implantation du langage LM

Mazer, Emmanuel 12 January 1981 (has links) (PDF)
Présentation détaillée de la place de ce travail dans le cadre du projet PANDORE, de la définition du langage LM pour la description de taches de manipulation et d'assemblage, d'une analyse fonctionnelle de ce langage, du matériel mis en œuvre, de l'implantation actuelle de LM sur ce matériel et de l'expérimentation faite du matériel à travers le logiciel implanté.
7

Contraintes temporelles des traitements visuels dans une tâche de catégorisation de scènes naturelles

Bacon-Macé, Nadège 02 June 2006 (has links) (PDF)
L'ensemble des résultats de cette thèse a été obtenu grâce à une tâche de catégorisation dans<br />laquelle les sujets devaient effectuer une réponse motrice rapide sur la base d'informations<br />visuelles incomplètes. L'utilisation d'un protocole de masquage a permis de visualiser au cours<br />du temps le décours des traitements impliqués dans la reconnaissance d'objets. Les résultats<br />obtenus confirment non seulement que les traitements visuels sont extrêmement robustes et<br />rapides (Chapitre 2), mais aussi que les informations accumulées dans le système sensoriel<br />peuvent être transformées en signal décisionnel pour guider la réponse du sujet de manière<br />efficace, en fonction du type d'effecteur utilisé (manuel ou oculaire - Chapitre 3) et du niveau de<br />représentation requis dans la tâche (détection, catégorisation, identification - Chapitre 4). 40 à 50<br />millisecondes de SOA semblent être suffisantes pour extraire la majorité de l'information<br />pertinente dans la tâche de catégorisation animal/non-animal, un délai qui est encore plus court<br />lorsqu'il s'agit de catégoriser des visages. Cette latence est tout à fait compatible avec l'idée que<br />la reconnaissance d'objet s'appuie d'abord sur un transfert rapide, feed-forward et massivement<br />parallèle des premières informations tout au long du parcours cortical visuel.
8

Bases cérébrales de la catégorisation visuelle rapide -Etudes chronométriques et fonctionnelles

Fize, Denis 27 March 2000 (has links) (PDF)
Après un rapide rappel des principaux résultats de la psychologie et des neurosciences de la vision, illustrés par le schéma de Kosslyn, le parcours de six modèles computationnels de reconnaissance nous amène à discuter des principales alternatives élaborées pour décrire le traitement visuel – généralement compris comme complexe et récurrent. Le temps requis par ce traitement apparaît comme un critère crucial de décision sur son fonctionnement et d'affinement de notre compréhension.<br />Nous constatons que les données d'électrophysiologie disponibles ne permettent pas de disposer clairement de ce critère. Nous mettons alors en oeuvre une tâche expérimentale visant à mesurer le temps nécessaire au système visuel humain pour analyser des scènes naturelles contenant ou non un animal. Les résultats montrent que ce traitement peut être extrêmement rapide, d'une durée inférieure à 150ms. Cette première mesure est complétée par quatre expériences visant à mieux cerner cette contrainte temporelle, en variant les positions des images, leurs couleurs et la tâche. Cette vitesse du traitement visuel des scènes naturelles se montre particulière-ment robuste et constante : lors de présentations par hémichamps parafovéaux, lorsque l'attention n'est pas focalisée sur le lieu d'apparition du stimulus, et en l'absence de couleur comme indice de recon-naissance. Les résultats attenants montrent aussi que les catégorisations d'images contenant des formes simples et la détection de la présence de couleurs ne sont pas plus rapides. <br />La catégorisation "animal" semble d'autant plus résulter d'un mécanisme automatique que sa trace électrophysiologique est encore présente lorsqu'une autre tâche occupe les sujets.<br />Les bases cérébrales de la tâche ont été recherchées à l'aide de modèles dipolaires ainsi qu'avec la création d'un protocole événementiel d'imagerie cérébrale RMN analogue à celui mis en oeuvre en électrophysiologie. Nous montrons que cette tâche de<br />catégorisation implique de manière différentiée les aires visuelles extrastriées 19 et 31, le gyrus fusiforme et les cortex cingulaires postérieurs. Dans les aires visuelles, un effet de suppression d'activité neuronale lié à la présence d'une cible semble mettre en évidence le mécanisme de compétition postulée dans certains modèles.<br />Ces résultats plaident en faveur de mécanismes directs et rapides de la reconnaissance visuelle : traitement essentiellement ascendants (sans boucles) sans recentrage des stimuli latéralisés ; l'attention focalisée, la couleur et une forte acuité ne<br />sont pas nécessaires à la reconnaissance d'objets dans des scènes complexes.<br />La reconnaissance visuelle postulée comme mécanisme nécessitant des traitements<br />récurrents et des représentations complexes semble ainsi céder la place à de simples détections parallèles de traits visuels, en eux-mêmes suffisants à la représentation mentale des scènes. Dans ce cadre, la décision visuelle - le stimulus présent est adéquat à la tâche prévue – pourrait être l'extraction de ces représentations au moyen de l'inhibition des assemblées neuronales non sélectionnées.
9

Adaptation de Contenu Multimédia avec MPEG-21: Conversion de Ressources et Adaptation Sémantique de Scènes

Kimiaei Asadi, Mariam 06 1900 (has links) (PDF)
L'objectif de la thèse de doctorat présentée dans ce mémoire est de proposer des techniques et des méthodologies nouvelles, simples et efficaces pour l'adaptation de contenu multimédia à diverses contraintes de contexte d'utilisation. Le travail est basé sur des parties de la norme MPEG-21 en cours de définition, qui vise à définir les différents composants d'un système de distribution de contenus multimédia. Le travail de cette thèse est divisé en deux parties principales: l'adaptation de médias uniques, et l'adaptation sémantique de documents multimédia composés. Dans l'adaptation de médias uniques, le média est adapté aux contraintes du contexte de consommation, telles que les capacités du terminal, les préférences de l'utilisateur, les capacités du réseau, les recommandations de l'auteur, etc... Dans cette forme d'adaptation, le média est considéré hors de tout contexte de présentation multimédia structurée, ou indépendamment de la composition multimédia (scène) dans laquelle il est utilisé. Nous avons défini des outils et descripteurs, étendant les outils et descripteurs MPEG-21 DIA, pour la description des suggestions d'adaptation de médias (également appelée Conversion de Ressource), et la description des paramètres correspondants. Nous avons réalisé un moteur d'adaptation de médias qui fonctionne selon ces suggestions ainsi que selon les contraintes du contexte, et qui applique au media, la forme la plus appropriée d'adaptation avec des valeurs optimales des paramètres d'adaptation, afin d'obtenir la meilleure qualité d'utilisation. Durant cette partie du travail, nous avons apporté plusieurs contributions à la norme MPEG-21 DIA. Dans l'adaptation sémantique de documents multimédia structurés, nous avons considéré l'adaptation selon les relations temporelles, spatiales et sémantiques entre les objets média de la scène. En adaptant une présentation multimédia afin de préserver l'uniformité et la logique de la scène adaptée, le processus d'adaptation doit avoir accès à l'information sémantique de la présentation. Nous avons défini un langage d'extension de la description de scène pour l'expression de cette information sémantique, à base de descripteurs. Ces descripteurs contiennent des informations fournies par l'auteur de la scène multimédia, ou par n'importe quelle autre entité dans la chaîne de livraison multimédia. L'information incluse dans ces descripteurs aide le moteur d'adaptation à décider de la forme et de la nature optimales des adaptations qui doivent être appliquées au document. Cette information consiste en une information sémantique indépendante de chaque objet média, les dépendances sémantiques entre les objets média de la scène et les préférences sémantiques sur la fragmentation de scène. Pour la réalisation d'un tel système d'adaptation, nous avons utilisé SMIL 2.0 pour décrire nos scènes multimédia. Cependant, la méthodologie est indépendante de ce choix et peut être appliquée à d'autres types de documents multimédia, tels que MPEG-4 XMT. Nous avons implémenté un moteur d'adaptation sémantique expérimental, qui manipule et adapte des documents SMIL, en utilisant les informations sémantiques et physiques du contenu, ainsi que des contraintes de contexte.
10

Jeter un regard sur une phase précoce des traitements visuels

Crouzet, Sébastien 12 July 2010 (has links) (PDF)
L'objectif de cette thèse a été d'étudier la dynamique des traitements cognitifs permettant la reconnaissance rapide d'objets dans les scènes naturelles. Afin d'obtenir des réponses comportementales précoces, nous avons utilisé un protocole de choix saccadique, dans lequel les sujets devaient diriger leur regard le plus rapidement possible vers l'image contenant l'objet cible parmi deux images affichées à l'écran. Ce protocole a d'abord permis de mettre en évidence des différences de temps de traitement entre les catégories d'objets, avec un avantage particulier pour la détection des visages humains. En effet, lorsque ceux-ci sont utilisés comme cible, les premières saccades sélectives apparaissent dès 100 ms ! Nous nous sommes donc intéressés aux mécanismes permettant une détection aussi rapide et avons montré qu'un attribut bas-niveau pourrait être utilisé pour détecter et localiser les visages dans notre champ visuel en une fraction de seconde. Afin de mieux comprendre la nature des représentations précoces mises en jeu, nous avons mené deux nouvelles études qui nous ont permis de montrer que les saccades les plus rapides ne seraient pas influencées par les informations contextuelles, et seraient basées sur une information rudimentaire. Enfin, j'ai proposé un modèle simple de décision, basé sur des différences de temps de traitement neuronal entre catégories, qui permet de reproduire fidèlement nos résultats expérimentaux. L'ensemble de ces résultats, mis en perspective avec les connaissances actuelles sur les bases neuronales de la reconnaissance d'objet, démontre que le protocole de choix saccadique, en donnant accès à une fenêtre tempo- relle inaccessible jusqu'alors par les études comportementales, s'avère un outil de choix pour les recherches à venir sur la reconnaissance rapide d'objets.

Page generated in 0.0323 seconds