• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 101
  • 54
  • 9
  • 1
  • 1
  • Tagged with
  • 164
  • 46
  • 34
  • 33
  • 30
  • 25
  • 25
  • 23
  • 23
  • 21
  • 20
  • 19
  • 17
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Les coulisses de la Toile : étude sur les demarches de conception de sites web

Caverzasio, Diana 06 1900 (has links)
À l’ère du web 2.0, l’usage des sites web se multiplie et génère de nouveaux enjeux. La satisfaction en rapport à l’interactivité, facteur d’efficacité des sites, détermine la popularité, et donc la visibilité de ceux-ci sur la Toile. Par conséquent, dans cette étude, nous considérons que les utilisateurs ont un rôle à jouer lors du processus de conception de ces derniers. Certes, autant en théorie que dans la pratique, les concepteurs semblent bel et bien tenir compte des utilisateurs; toutefois, ils ne les intègrent pas comme participants actifs dans leurs démarches. Cette étude vise au moyen d’une recherche documentaire et d’observations sur le terrain à comprendre les principales catégories et morphologies des sites web ainsi que les usages qui en découlent. Une analyse des diverses démarches de conception et des perceptions et attentes des internautes est réalisée sur la base de ces résultats. Pour répondre à ces objectifs, cette analyse cible deux catégories de sites réalisés par des professionnels et par des amateurs. Celle-ci nous permet de démontrer que les résultats de chacune de ces démarches, exprimés à travers les interfaces graphiques des sites, diffèrent au niveau de la qualité perceptible. Cette étude souligne également l’importance d’un traitement efficace de la communication graphique des éléments des sites web, afin de structurer la lecture et transmettre au final un message clair et compréhensible aux internautes. Dans le but consolider nos propositions, nous faisons référence à deux théories de communication graphique, la Gestalt et la sémiotique, l’une s’intéressant à la perception visuelle, l’autre à l’interprétation des signes. Celles-ci se sont révélées pertinentes pour analyser la qualité et l’efficacité des éléments de contenus. Notre étude révèle que les participants ne sont pas satisfaits des deux sites testés car l’utilisabilité du site conçu par des professionnels est trop complexe et l’interface du site conçu par un amateur manque de professionnalisme et de cohérence. Ces résultats soulignent la pertinence d’une approche centrée sur l’utilisateur pour la conception de sites web, car elle permet d’identifier et de résoudre des erreurs de conception. Nos résultats permettent également de souligner que les professionnels ayant un savoir technique et théorique se démarquent des amateurs au niveau des intervenants, des outils et des limites. Des pistes de solution, via des critères de design centré sur l’utilisateur, sont proposées à la fin de cette étude dans le but d’optimiser la qualité et l’efficacité des interfaces graphiques web. / Web 2.0 multiplies the uses of websites and generates new challenges. Users occupy a central role in this expansion: their satisfaction, in dictating the websites’ efficiency, determines the popularity and also therefore the visibility of those sites’ on the Internet. Consequently, the users should actively participate in the design process. Although designers, in theory like in practice, seem to take users into account in their approach, they do not include them in the process. First of all, this research aims to understand, through a literature review and field observations, the main uses, categories and morphologies of websites. Based on these findings, an analysis of design processes and the users’ perceptions and expectations is conducted. To reach our goals, this analysis targets two types of websites, made by professionals or by amateurs. It shows that the results of each design process, expressed through the interface design, differ in termes of perceived quality. This study also underlines the importance of efficient visual communication through the websites’ components, in order to structure the users’ reading path and ultimately send them clear and comprehensible information. To ensure our propostions we refer to two visual communication theories, the Gestalt theory, interested in visual perception, and semiotics, which studies the interpretation of signs. These were proved relevant in analyzing the quality and efficiency of the websites’ contents. Our study reveals that users, after testing the two targeted websites, are unsatisfied. The professional site’s complexity affects its usability, while the amateur site’s interface design, is lacking professionalism and coherence, influence the user’s interpretation. These results assert the relevance of applying a user-centered design approach to the websites’ design, as it allows to identify and resolve these design issues. Our results also show that there is a difference between professionals and amateurs with regards to their technical and theoretical knowledge, on the levels of actors, tools and limits. Potential solutions, through user-centered design criteria, are finally proposed by this research to optimize the quality and efficiency of user interface designs.
132

Etude de l’usage du stylo numérique en recherche en sciences de l’éducation : traitement et représentation des données temps issues de la trace d’écriture avec un stylo numérique. / Processing and representation of time stamped logs recorded by the use of digital pen and paper in an educational research context

Barhoumi, Zaara 24 April 2013 (has links)
La technologie de numérisation des données manuscrites a atteint son essor après l’invention du stylo numérique. Les recherches se sont concentrées alors sur le développement des applications IHM qui facilitent la manipulation des données encre numérique. Dans un contexte de recherche, la technologie du papier et stylo numériques s’avère utile pour la collecte des données expérimentales dans différents domaines. Notre but est de fournir une aide pour le traitement et la visualisation des données, notamment les données temps, recueillies avec un stylo numérique dans deux cas d’usage en sciences de l’éducation à savoir les tests d’évaluation et la prise de notes d’observation. Notre démarche consiste à étudier ces cas d’usage en terme de besoin dans quatre expériences concrètes et à développer, en participation avec l’utilisateur, des prototypes de système de traitement et de visualisation des données. Dans le but de concevoir un modèle général de tel système, nous avons analysé l’interface d’utilisation des prototypes en terme de fonctionnalités, de visualisation et d’interaction. Notre modèle décrit le processus de visualisation en mettant en œuvre trois types de tâches d’utilisateur à savoir les tâches d’analyses, les tâches de manipulation et les tâches d’interaction. / Scanning technology for handwritten data has reached its momentum after the invention of the digital pen. Research work focused on the development of HMI applications that facilitate digital ink data manipulation. In a research context, digital pen and paper technology is useful for collecting experimental data in various fields. Our goal is to provide support for the processing and the visualization of time stamped data collected by a digital pen in two cases of use : on one hand, in the educational science field, and especially for assessment tests and, on another hand, for taking observation notes. Our approach is to study these cases of use through four concrete experiences and to develop, with the participation of the user, prototypes for a system that aid to process and to visualize collected data. In order to abstract a general model of such a system, we analyzed prototypes user interfaces in terms of functionality, visualization and interaction. Our model describes the visualization process by implementing three types of user tasks namely analytic tasks, handling tasks and interaction tasks.
133

Visualisation de données volumiques massives : application aux données sismiques / Visualization of massive data volumes : applications to seismic data

Castanié, Laurent 24 November 2006 (has links)
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique / Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
134

Développement d’algorithmes d’imagerie et de reconstruction sur architectures à unités de traitements parallèles pour des applications en contrôle non destructif / Development of imaging and reconstructions algorithms on parallel processing architectures for applications in non-destructive testing

Pedron, Antoine 28 May 2013 (has links)
La problématique de cette thèse se place à l’interface entre le domaine scientifique du contrôle non destructif par ultrasons (CND US) et l’adéquation algorithme architecture. Le CND US comprend un ensemble de techniques utilisées pour examiner un matériau, qu’il soit en production ou maintenance. Afin de détecter d’éventuels défauts, de les positionner et les dimensionner, des méthodes d’imagerie et de reconstruction ont été développées au CEA-LIST, dans la plateforme logicielle CIVA.L’évolution du matériel d’acquisition entraine une augmentation des volumes de données et par conséquent nécessite toujours plus de puissance de calcul pour parvenir à des reconstructions en temps interactif. L’évolution multicoeurs des processeurs généralistes (GPP), ainsi que l’arrivée de nouvelles architectures comme les GPU rendent maintenant possible l’accélération de ces algorithmes.Le but de cette thèse est d’évaluer les possibilités d’accélération de deux algorithmes de reconstruction sur ces architectures. Ces deux algorithmes diffèrent dans leurs possibilités de parallélisation. Pour un premier, la parallélisation sur GPP est relativement immédiate, contrairement à celle sur GPU qui nécessite une utilisation intensive des instructions atomiques. Quant au second, le parallélisme est plus simple à exprimer, mais l’ordonnancement des nids de boucles sur GPP, ainsi que l’ordonnancement des threads et une bonne utilisation de la mémoire partagée des GPU sont nécessaires pour obtenir un fonctionnement efficace. Pour ce faire, OpenMP, CUDA et OpenCL ont été utilisés et comparés. L’intégration de ces prototypes dans la plateforme CIVA a mis en évidence un ensemble de problématiques liées à la maintenance et à la pérennisation de codes sur le long terme. / This thesis work is placed between the scientific domain of ultrasound non-destructive testing and algorithm-architecture adequation. Ultrasound non-destructive testing includes a group of analysis techniques used in science and industry to evaluate the properties of a material, component, or system without causing damage. In order to characterize possible defects, determining their position, size and shape, imaging and reconstruction tools have been developed at CEA-LIST, within the CIVA software platform.Evolution of acquisition sensors implies a continuous growth of datasets and consequently more and more computing power is needed to maintain interactive reconstructions. General purprose processors (GPP) evolving towards parallelism and emerging architectures such as GPU allow large acceleration possibilities than can be applied to these algorithms.The main goal of the thesis is to evaluate the acceleration than can be obtained for two reconstruction algorithms on these architectures. These two algorithms differ in their parallelization scheme. The first one can be properly parallelized on GPP whereas on GPU, an intensive use of atomic instructions is required. Within the second algorithm, parallelism is easier to express, but loop ordering on GPP, as well as thread scheduling and a good use of shared memory on GPU are necessary in order to obtain efficient results. Different API or libraries, such as OpenMP, CUDA and OpenCL are evaluated through chosen benchmarks. An integration of both algorithms in the CIVA software platform is proposed and different issues related to code maintenance and durability are discussed.
135

Synthèse de contrôleurs séquentiels QDI faible consommation prouvés corrects

Alsayeg, K. 01 September 2010 (has links) (PDF)
L'étude des circuits asynchrones est un secteur dans lequel de nombreuses recherches ont été effectuées ces dernières années. Les circuits asynchrones ont démontré plusieurs caractéristiques intéressantes comme la robustesse, l'extensibilité, la faible consommation ou le faible rayonnement électromagnétique. Parmi les différentes classes de circuits asynchrones, les circuits quasi-insensibles aux délais (QDI) ont montré des caractéristiques extrêmement intéressantes en termes de faible consommation et de robustesse aux variations PVT (Process, Voltage, Temperature). L'usage de ces circuits est notamment bien adapté aux applications fonctionnant dans un environnement sévère et pour lesquelles la consommation est un critère primordial. Les travaux de cette thèse s'inscrivent dans ce cadre et visent la conception et la synthèse de machines à états asynchrones (QDI) faiblement consommantes. Une méthode de synthèse dédiée à des contrôleurs asynchrones à faible consommation a donc été développée. Cette technique s'est montrée particulièrement efficace pour synthétiser les contrôleurs de grande taille. La méthode s'appuie sur une modélisation appropriée des contrôleurs et une technique de synthèse dirigée par la syntaxe utilisant des composants spécifiques appelés séquenceurs. Les circuits obtenus ont été vérifiés formellement afin de s'assurer de leurs propriétés en termes de robustesse et de correction fonctionnelle. A cette occasion, une méthode de vérification formelle a été mise en place pour valider les contrôleurs d'une part, et plus généralement, n'importe quel circuit asynchrone d'autre part. Cette technique fait appel à une modélisation hiérarchique des circuits asynchrones en PSL et à un outil de vérification formelle (RAT).
136

Contribution à l'augmentation de puissance des architectures de visus graphiques

Matherat, Philippe 11 May 1988 (has links) (PDF)
La motivation de ce travail est la réalisation de circuits permettant d'afficher rapidement des images sur un écran d'ordinateur. Voici dix ans, nous avons proposé un circuit LSI, prenant en charge la gestion d'une mémoire d'image et l'écriture rapide de segments de droite et de caractères, dans une optique de "terminal graphique". Nous avons ensuite cherché à augmenter les performances de cette architecture et à l'adapter à l'environnement "station de travail". Nous sommes aujourd'hui convaincu que la solution ne passe pas par des circuits spécialisés, mais par la définition d'opérateurs généraux de calcul très puissants. Pour expliquer cet itinéraire, nous décrivons une suite d'expérimentations réalisées, précédée par une histoire des architectures de visualisation.
137

Modélisation ultra-rapide des transferts de chaleur par rayonnement et par conduction et exemple d'application

Ghannam, Boutros 19 October 2012 (has links) (PDF)
L'apparition de CUDA en 2007 a rendu les GPU hautement programmables permettant ainsi aux applications scientifiques et techniques de profiter de leur capacité de calcul élevée. Des solutions ultra-rapides pour la résolution des transferts de chaleur par rayonnement et par conduction sur GPU sont présentées dans ce travail. Tout d'abord, la méthode MACZM pour le calcul des facteurs de transferts radiatifs directs en 3D et en milieu semi-transparent est représentée et validée. Ensuite, une implémentation efficace de la méthode à la base d'algorithmes de géométrie discrète et d'une parallélisation optimisée sur GPU dans CUDA atteignant 300 à 600 fois d'accélération, est présentée. Ceci est suivi par la formulation du NRPA, une version non-récursive de l'algorithme des revêtements pour le calcul des facteurs d'échange radiatifs totaux. La complexité du NRPA est inférieure à celle du PA et sont exécution sur GPU est jusqu'à 750 fois plus rapide que l'exécution du PA sur CPU. D'autre part, une implémentation efficace de la LOD sur GPU est présentée, consistant d'une alternance optimisée des solveurs et schémas de parallélisation et achevant une accélération GPU de 75 à 250 fois. Finalement, toutes les méthodes sont appliquées ensemble pour la résolution des transferts de chaleur en 3D dans un four de réchauffage sidérurgique de brames d'acier. Dans ce but, MACZM est appliquée avec un maillage multi-grille et le NRPA est appliqué au four en le découpant en zones, permettant d'avoir un temps de calcul très rapide une précision élevée. Ceci rend les méthodes utilisées de très grande importance pour la conception de stratégies de contrôle efficaces et précises.
138

Modélisation ultra-rapide des transferts de chaleur par rayonnement et par conduction et exemple d'application

Ghannam, Boutros 19 October 2012 (has links) (PDF)
L'apparition de CUDA en 2007 a rendu les GPU hautement programmables permettant ainsi aux applications scientifiques et techniques de profiter de leur capacité de calcul élevée. Des solutions ultra-rapides pour la résolution des transferts de chaleur par rayonnement et par conduction sur GPU sont présentées dans ce travail. Tout d'abord, la méthode MACZM pour le calcul des facteurs de transferts radiatifs directs en 3D et en milieu semi-transparent est représentée et validée. Ensuite, une implémentation efficace de la méthode à la base d'algorithmes de géométrie discrète et d'une parallélisation optimisée sur GPU dans CUDA atteignant 300 à 600 fois d'accélération, est présentée. Ceci est suivi par la formulation du NRPA, une version non-récursive de l'algorithme des revêtements pour le calcul des facteurs d'échange radiatifs totaux. La complexité du NRPA est inférieure à celle du PA et sont exécution sur GPU est jusqu'à 750 fois plus rapide que l'exécution du PA sur CPU. D'autre part, une implémentation efficace de la LOD sur GPU est présentée, consistant d'une alternance optimisée des solveurs et schémas de parallélisation et achevant une accélération GPU de 75 à 250 fois. Finalement, toutes les méthodes sont appliquées ensemble pour la résolution des transferts de chaleur en 3D dans un four de réchauffage sidérurgique de brames d'acier. Dans ce but, MACZM est appliquée avec un maillage multi-grille et le NRPA est appliqué au four en le découpant en zones, permettant d'avoir un temps de calcul très rapide une précision élevée. Ceci rend les méthodes utilisées de très grande importance pour la conception de stratégies de contrôle efficaces et précises.
139

Alignement temporel musique-sur-partition par modèles graphiques discriminatifs

Joder, Cyril 29 September 2011 (has links) (PDF)
Cette thèse étudie le problème de l'alignement temporel d'un enregistrement musical et de la partition correspondante. Cette tâche peut trouver de nombreuses applications dans le domaine de l'indexation automatique de documents musicaux. Nous adoptons une approche probabiliste et nous proposons l'utilisation de modèles graphiques discriminatifs de type champs aléatoires conditionnels pour l'alignement, en l'exprimant comme un problème d'étiquetage de séquence. Cette classe de modèles permet d'exprimer des modèles plus flexibles que les modèles de Markov cachés ou les modèles semi-markoviens cachés, couramment utilisés dans ce domaine. En particulier, elle rend possible l'utilisation d'attributs (ou descripteurs acoustiques) extraits de séquences de trames audio qui se recouvrent, au lieu d'observations disjointes. Nous tirons parti de cette propriété pour introduire des attributs qui réalisent une modélisation implicite du tempo au plus bas niveau du modèle. Nous proposons trois structures de modèles différentes de complexité croissant, correspondant à différents niveaux de précision dans la modélisation de la durées des évènements musicaux. Trois types de descripteurs acoustiques sont utilisés, pour caractériser localement l'harmonie, les attaques de notes et le tempo de l'enregistrement. Une série d'expériences réalisées sur une base de données de piano classique et de musique pop permet de valider la grande précision de nos modèles. En effet, avec le meilleur des systèmes proposés, plus de 95 % des attaques de notes sont détectées à moins de 100 ms de leur position réelle. Plusieurs attributs acoustiques classiques, calculés à partir de différentes représentation de l'audio, sont utiliser pour mesurer la correspondance instantanée entre un point de la partition et une trame de l'enregistrement. Une comparaison de ces descripteurs est alors menée sur la base de leurs performances d'alignement. Nous abordons ensuite la conception de nouveaux attributs, grâce à l'apprentissage d'une transformation linéaire de la représentation symbolique vers une représentation temps-fréquence quelconque de l'audio. Nous explorons deux stratégies différentes, par minimum de divergence et maximum de vraisemblance, pour l'apprentissage de la transformation optimale. Les expériences effectuées montrent qu'une telle approche peut améliorer la précision des alignements, quelle que soit la représentation de l'audio utilisée. Puis, nous étudions différents ajustements à effectuer afin de confronter les systèmes à des cas d'utilisation réalistes. En particulier, une réduction de la complexité est obtenue grâce à une stratégie originale d'élagage hiérarchique. Cette méthode tire parti de la structure hiérarchique de la musique en vue d'un décodage approché en plusieurs passes. Une diminution de complexité plus importante que celle de la méthode classique de recherche par faisceaux est observée dans nos expériences. Nous examinons en outre une modification des modèles proposés afin de les rendre robustes à d'éventuelles différences structurelles entre la partition et l'enregistrement. Enfin, les propriétés de scalabilité des modèles utilisés sont étudiées.
140

Les Voies du dessin : statut et redéfinitions du dessin dans les avant-gardes occidentales des années 1950-1960 / Graphic paths : the status of drawing in western avant-garde movements of the 1950s and 1960s

Daniel, Hugo 28 November 2015 (has links)
L’absence du dessin des histoires de l’art des années 1950-1960 interroge, alors même que des signes de reconnaissance de la part d’artistes comme Rauschenberg, Hesse, Tinguely,Twombly, Beuys, ou Lebel et d’autres acteurs ont pu être observés.Le dessin doit être défini à partir de ses opérations et compris dans sa relation aux autres médiums. Il est donc considéré comme pratique. En mettant en oeuvre une histoire matérielle, culturelle et sociale de l’art, qui s’appuie sur les dessins eux-mêmes, des documents d’archive et des entretiens avec des acteurs de la période, il s’agit de saisir les relations qui font vivre le dessin.Il s’agit d’appréhender la reconnaissance du dessin et sa redéfinition, entre les interrogations des artistes, les évolutions des critiques et les projets des galeristes et commissaires d’exposition pour montrer comment le dessin se comprend comme une réalité complexe, en acte. Le dessin se redéfinit également comme un moyen de manipuler des images qui deviennent pléthoriques. L’histoire de la psychiatrie confère à la pratique du dessin une valeur expérimentale rarement égalée dans l’histoire de l’art. Cette pratique expérimentale découle de son association à la pensée et met au jour une continuité insoupçonnée dans la période. Qu’il s’agisse d’en renforcer l’assimilation à une « origine de l’art », d’en faire la matrice d’un regard et d’une méthode artistique plus générale, ou le lieu marginal d’une expérience spécifique, la pratique du dessin se comprend dans un éventail large de ses réalités. / Drawing is hardly studied in works of art history focusing on the 1950s and 1960s. This fact is all the more surprising that many artists, such as Rauschenberg, Hesse, Tinguely, Twombly, Michaux or Lebel, but also critics, gallerists and curators took notice of the medium at that time.Drawing must be defined according to its operations and analyzed in its relationshipwith other media. It is approached as a practice. This project is based on a material, culturaland social understanding of art history, it relies on the study of drawings, but also on archive documents and interviews with major figures of the period. From the working process of artists, to the changing discourses of critics and therenewed interest of curators and gallerists, drawing is redefined as a complex object. It allows artists to deal with the flow of images that characterizes the 1950s and 1960s. It also takes on an experimental quality because of its association to the thought process. Psychiatrists andartists have used the practice of drawing to better understand the mind. Whether it is used as an origin of art or as a marginal space implying specific experiences, drawing in the 1950sand 1960s is multi-faceted and is studied as such.

Page generated in 0.0502 seconds