• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 97
  • 51
  • 20
  • Tagged with
  • 171
  • 171
  • 171
  • 148
  • 140
  • 140
  • 130
  • 128
  • 124
  • 32
  • 25
  • 20
  • 19
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Intégration des directives de l'utilisabilité dans les composants et les environnements de développement d'interfaces usager graphiques

Ait-Ikhelef, Mouloud 12 1900 (has links) (PDF)
Concevoir un logiciel facilement utilisable est une mission difficile et complexe. Pour accomplir cette tâche, les concepteurs ont besoin d'outils efficaces dédiés à cela. Un outil efficace doit être basé sur une expertise de conception reconnue. Canaliser le savoir de conception de systèmes utilisables réussis est important pour les concepteurs novices et expérimentés. Les directives de l'utilisabilité sont une technique utilisée pour transmettre ce savoir. Présentement, il n'y a pas de mécanisme efficace permettant de guider et d'assister les développeurs à créer des interfaces graphiques conformes aux directives de l'utilisabilité. Cette problématique devient plus critique pour les développeurs inexpérimentés et peut même compromettre la raison d'être des directives. Ce projet consiste à définir une approche qui adresse l'intégration de directives de l'utilisabilité dans les constructeurs d'interfaces graphiques usager. ______________________________________________________________________________
2

Une approche incrémentale à base de processus coopératifs et adaptatifs pour la segmentation des images en niveaux de gris

Bellet, Fabrice 19 June 1998 (has links) (PDF)
Un des objectifs de la vision par ordinateur consiste à extraire à partir d'un important volume de données brutes issues des images, celles qui s'avéreront pertinentes pour une exploitation ultérieure. Les primitives extraites de l'image sont communément de type contour, correspondant à des zones de transition objectivement visibles, et de type région, correspondant à des regroupements de pixels de l'image avec des caractéristiques d'homogénéité communes. Une nécessaire gestion de l'information est obtenue par la répartition de la tâche de segmentation au sein d'entités indépendantes, localisées de façon précise dans l'image, possédant chacune une primitive particulière à segmenter de type contour ou région, et construisant ces objets de manière incrémentale, c'est-à-dire pixel par pixel. L'originalité de l'approche réside dans la coopération instaurée entre la construction des contours et des régions. Les deux types de segmenteurs fonctionnent conjointement à l'étiquetage des pixels de l'image, sous une forme pseudo-parallèle, en tirant avantage de leurs atouts réciproques. Un détecteur de contour instancie de nouveaux détecteurs de régions de part et d'autre de son extrémité en construction, afin de valider son existence, tandis qu'un détecteur de régions instancie des détecteurs de contours à sa frontière, afin de borner son expansion. L'ensemble constitue un arbre d'entités de segmentation coopérantes, dépendant chacune les unes des autres, par filiation. Une telle approche permet une forte adaptation locale, puisque chaque primitive est détectée par une instance d'un détecteur générique, pouvant modifier ses paramètres internes indépendamment des autres instances. La coopération est réelle, puisqu'elle est intégrée au mécanisme de décision. L'implantation d'un séquenceur de tâches anonymes, permet enfin de simuler le pseudo-parallélisme, et repose grandement sur des mécanismes classiques réservés généralement au domaine des systèmes d'exploitation.
3

Géographie et Graphes - Une interaction pour exprimer des requêtes spatiales guidée par des adjacences conceptuelles.

Dumoncel, Franck 15 March 2006 (has links) (PDF)
L'accès à l'information géographique sous forme électronique s'ouvre de plus en plus au grand publique. Des interfaces intuitives ne nécessitant pas ou peu d'apprentissage apparaissent alors dans le domaine. Néanmoins, lorsqu'il s'agit de spécifier plus finement l'information recherchée, le pouvoir expressif de ces interfaces est limité. <br />Le projet Antéserveur Géographique propose un environnement complet pour permettre d'exprimer une requête de manière bi-modale (schéma + étiquette textuelle). Nous verrons alors les problèmes d'ambiguïtés dûs aux différents sens qu'une telle modalité peut véhiculer. Pour lever ces ambiguïtés notre interface propose un fonctionnement multimodal utilisant notamment la complémentarité du texte et du schéma grâce à une interaction contrôlée, celle-ci reposant sur un mécanisme appelé glissement de sens. Le mode textuel et les glissements de sens nécessitent une analyse spatiale adaptée du schéma. <br />Nous aborderons alors le domaine de l'analyse spatiale qualitative, au coeur de ce travail de recherche, dans lequel une utilisation récurrente par centre d'intérét du modèle 9-intersections de M.J. Egenhofer est proposée. <br />Grâce à cette méthode, nous disposons d'un modèle d'analyse spatiale unique permettant de relever différentes contraintes relevées jusqu'ici par des modèles distincts et sans lien. C'est cette unité qui nous permet de mettre en oeuvre notre mécanisme de glissement de sens. Nous présenterons alors notre réalisation informatique qui met en oeuvre ces mécanismes et nous permet ainsi de tester les concepts de multimodalité et de glissement de sens présentés plus haut.
4

Une approche de l'édition structurée des documents

Quint, Vincent 04 May 1987 (has links) (PDF)
L'édition d'un document peut être vue comme la manipulation d'une structure abstraite qui représente<br />l'organisation logique des composants du document. A partir de ce principe, on propose un méta-modèle<br />qui permet la description des structures logiques de toutes sortes de documents et de différents types<br />d'objets fréquents dans les documents : formules mathématiques, tableaux, schémas, etc... on associe aux<br /> structures logiques des règles de présentation qui déterminent l'aspect graphique de leurs composants.<br /> On montre l'intérêt de cette approche en présentant deux systèmes interactifs construits sur ce modèle :<br /> l'éditeur de formules mathématiques Edimath et l'éditeur de documents Grif. La présentation de ces systèmes<br />s'appuie sur un état de l'art de la typographie informatique.
5

Interface Homme-Machine Multimodale pour la Télé-Micromanipulation

Ammi, Mehdi 09 December 2005 (has links) (PDF)
Des études récentes sur les facteurs humains ont montré certaines limitations des téléopérateurs à appréhender et à maîtriser les interactions lors de la manipulation d'objets à l'échelle micrométrique et nanométrique. Le problème majeur provenant de la valeur importante des facteurs d'échelle reliant l'opérateur à son environnement (position : 10-9 m et force : 10-6 N), de l'inadéquation des moyens d'observation et d'interaction par rapport au contexte naturel d'action de l'opérateur, où encore, de la méconnaissance de l'opérateur des forces d'adhésion à l'échelle micrométrique. De ce fait, l'interfaçage homme-machine joue un rôle prépondérant dans les systèmes de télé-micromanipulation. Des interfaces et des dispositifs ergonomiques adaptés aux modalités sensorielles de l'opérateur humain doivent donc être recherchés.<br />Nos travaux de recherche se sont orientés vers l'amélioration du triptyque " Perception -Communication - Interaction " entre l'opérateur et le micromonde en incluant de nouveaux moyens d'interaction. Ces nouvelles interfaces homme- machine (IHM) ont pour rôle d'assister l'opérateur dans ses tâches de manipulation en lui fournissant une aide contextuelle et parfaitement bien adaptée aux contraintes du micromonde (effets d'échelle, environnement, tâches, etc.). Dans ce contexte, nous<br />avons développé une interface homme-machine intuitive et multimodale, dédiée à la télémicromanipulation d'objets de taille micrométrique et travaillant sous le champ de vue de plusieurs microscopes optiques.
6

Contribution à l'apprentissage dans le dialogue homme-machine

Villasenor-Pineda, Luis 08 February 1999 (has links) (PDF)
L'objectif de l'apprentissage dans le dialogue homme-machine est de donner à la machine des capacités accrues d'interaction et d'adaptation à l'utilisateur, spécialement pour l'acquisition de nouvelles tâches. Dans le cadre du dialogue coopératif finalisé, la tâche structure le dialogue. Et c'est à travers le dialogue que s'établit quoi faire mais aussi comment faire. Dans cette thèse, nous envisageons l'ordinateur comme un partenaire dans la réalisation d'une tâche, capable d'apprendre puis de reconnaître des situations apprises. Nous présentons un modèle de dialogue centré sur la notion d'apprentissage des savoirs et des savoir-faire. Nous proposons un modèle de dialogue indépendant de la tâche, dans lequel le domaine de travail est défini par l'application, mais où le système de dialogue ne connaît pas a priori la ou les tâches à faire. La machine apprend une tâche et à partir de cette nouvelle connaissance elle peut intervenir dans des situations analogues. Par ailleurs, nous fondons le modèle sur les états mentaux de l'utilisateur. Ces états mentaux, à partir desquels la machine peut interpréter et produire des réponses, expriment les croyances et les intentions de l'interlocuteur. La formalisation des échanges dialogiques est réalisée dans un cadre logique fondé sur l'action. Il contient des éléments d'une logique épistémique (pour la représentation des connaissances), d'une logique de l'action (pour décrire les actions et les effets produits), et d'une logique dialogique (pour exprimer les engagements, les ruptures et les incompréhensions lors des échanges dialogiques). De cette façon, notre modèle intègre (i) la gestion des échanges langagiers et non-langagiers, (ii) la coordination des actions à partir de la reconnaissance de plans, et (iii) la construction de connaissances communes à travers l'acquisition de nouvelles tâches. Enfin, nous avons implémenté le système ICPdraw adaptatif qui nous a permis de valider notre approche.
7

Un outil graphique pour une interface multi-modes

Ben Amara, Helmi 16 March 1992 (has links) (PDF)
L'objet de cette thèse est la construction d'un outil graphique dans le cadre du projet mmi2 (a multi-mode intervade for man-machine interaction with knowledge based systems). Mmi2 est un projet esprit ii qui a pour objectif principal de construire une interface homme-machine intelligent intégrant plusieurs modes de communication: langue naturelle (anglais, français, espagnol), langage de commande, graphique et gestuel. Ce travail est le résultat d'une approche expérimentale de développement d'un outil de manipulation directe, baptisé outil de dessin, dans un environnement multi-mode. Dans ce contexte, notre démarche a consisté à utiliser des techniques de construction géométrique dans la conception d'une interface. Nous proposons pour cela un modèle fonde sur le concept de carte planaire. Il conduit à des structures de données de type représentation par frontières dont la notion de base est le brin, qui est une arête topologique orientée. Ce modèle permet de proposer un algorithme de saisie et de modification de cartes planaires qui, tout en contrôlant à chaque instant la planéité de la carte, est capable de détecter automatiquement la fermeture des contours. Par ailleurs, nous nous sommes intéressés à l'étude de la sémantique graphique, pour permettre l'intégration des différents modes de communication pour assurer un dialogue multi-mode entre l'utilisateur et l'ordinateur.
8

Les errances de l'écho : la création d'un miroir interactif et ses fondements artistiques

Dubois, Jean January 2010 (has links) (PDF)
Cette thèse création comporte d'abord la réalisation artistique d'un miroir interactif, Les Errances de l'écho (2003-2005), pouvant réagir aux caresses des spectateurs en leur faisant entendre les voix entrelacées de six personnages. Cette oeuvre expérimentale visait à mettre à l'épreuve une approche ayant pour objectifs notamment: de concrétiser le pouvoir magique que l'on attribue symboliquement aux miroirs ou aux écrans; de suggérer au spectateur une expérience introspective inhabituelle par la simulation d'une rencontre intersubjective; de développer une interface personne-machine inusitée impliquant directement le corps du spectateur dans sa relation avec une oeuvre d'art; d'imaginer une navigation hypertextuelle inédite reliée à la manipulation et au contexte d'un objet du quotidien. Dans un deuxième temps, en plus de décrire en détail la structure et le fonctionnement de l'oeuvre d'art réalisée, le travail de recherche a surtout consisté à expliciter les fondements artistiques que je présume à l'origine de cette création. Il s'agit alors d'identifier et d'analyser les connaissances et les expériences qui ont principalement influencé mon cheminement artistique que je considère, en partie, comme une réaction spontanée et intuitive à mon environnement social et à mon époque technologique. Cet univers culturel se trouve ainsi à la croisée de différents domaines qui me passionnent et que j'ai choisi de restreindre à : l'art de l'installation médiatique au tournant du XXIIe siècle (Rafael Lozano-Hemmer, David Rokeby, Jeffrey Shaw, Charles Sandison, Luc Courchesne, Max Dean...); l'esthétique et au design des interfaces personne-machine (Lev Manovich, Sherry Turkle, Mike Weizer, Brenda Laurel, Louise Poissant, Edmond Couchot, Jean-Louis Boissier, Joseph Weizenbaum, Jean-Pierre Balpe ...); l'imaginaire des récits fantastiques et de science-fiction touchant l'hypermédialité du livre et de l'écran Jorge Luis Borges, Isaac Asimov, Stephen Spielberg, George Orwell, David Cronenberg... ). Tant pour les aspects pratiques que théoriques, mon champ de recherche se situe alors dans un territoire interdisciplinaire partagé entre les arts, l'informatique et les sciences humaines. On peut voir apparaître ainsi, sporadiquement, des évocations touchant des considérations plus philosophiques telles que le panoptisme chez Michel Foucault, la culture narcissique chez Christopher Lash, le détournement du quotidien chez Michel de Certeau, la co-textualité chez Yehoshua Bar-Hillel ou l'interactionnisme symbolique chez Herbert Mead. Sans faire l'objet d'une analyse approfondie, ces thèmes suggèrent quelques pistes d'interprétation supplémentaires. Le cheminement de ma réflexion intègre des éléments historiques, artistiques et théoriques dont j'ai pris connaissance avant, pendant et après la réalisation de l'oeuvre. J'ai retenu ceux que j'estime avoir le plus influencé ma pratique en général et la création des Errances de l'écho en particulier. Afin de lier l'ensemble, la notion d'interface a été choisie comme fil conducteur permettant ainsi de resserrer la diversité du propos. La méthode d'investigation que j'ai choisie s'inspire de la démarche du praticien réflexif de Donald Shan et vise expliciter a posteriori une partie du savoir tacite impliqué dans la création de l'oeuvre. Même si ma démarche est très subjective, elle tente néanmoins d'articuler de manière rationnelle les arguments en les mettant directement en relation avec la nature de l'oeuvre proposée. On peut y voir alors une démarche de recherche sous l'art plutôt que sur l'art, qui a tendance à analyser ce qui se retrouve en amont de la réalisation plutôt qu'en aval. Le premier chapitre décrit avec précision les différents aspects de l'oeuvre et les étapes de sa réalisation. Étant donné que Les Errances de l'écho ne peut pas être expérimentée tout à fait de manière intégrale ni de la même façon d'une fois à l'autre, cette analyse permet d'en comprendre l'ampleur combinatoire et le fonctionnement aléatoire. Le scénario se retrouve en appendice afin de permettre un survol complet des répliques. Les quatre chapitres suivants abordent un aspect important de la création de l'oeuvre. Le deuxième chapitre met l'accent sur les hantises que suppose l'imaginaire de l'écran et montre comment mes travaux artistiques sont influencés par cette préoccupation. Le troisième chapitre aborde l'émergence des interfaces corporelles en informatique et en art. On y voit également comment les membres du groupe de création Interstices intègrent cette facette à leurs réalisations médiatiques. Le quatrième chapitre souligne la notion d'intersubjectivité en arts interactifs en montrant comment certaines créations intègrent le thème de la rencontre dans les situations qu'elles proposent. On y voit alors comment cette approche accompagne historiquement l'apparition de la socialisation dans les réseaux numériques. Le cinquième chapitre relie l'imaginaire fantastique de Borges à la spatialité suggérée par l'hypertextualité rattachée au Web et à certaines installations interactives abordant la relation entre texte et contexte. En conclusion, on peut constater comment ma pratique a évolué par la suite, de même que sous quel angle elle pourrait se poursuivre. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Art, Interface, Installation, Rencontre, Hypertexte, Interactivité, Création, XXe siècle, XXIe siècle.
9

Le code source informatique comme artefact dans les reconfigurations d'Internet

Couture, Stéphane 12 1900 (has links) (PDF)
Cette thèse en communication porte sur le code source informatique. Le code source est l'objet de la programmation informatique et peut être défini comme un ensemble de commandes informatiques humainement lisibles, « écrites » dans un langage de programmation de haut niveau (Krysia et Grzesiek, 2008). Depuis quelques années, le code source fait l'objet d'une signification sociale et politique grandissante. Le mouvement du logiciel libre place par exemple au cœur de sa politique le libre accès au code source. Ce mouvement a d'ailleurs permis l'émergence de nombreux collectifs articulés autour de la fabrication collective du code source. Si plusieurs études se sont attardées aux différents aspects de ces collectifs et aux usages des technologies numériques en général, force est toutefois de constater que le code source reste un objet remarquablement négligé dans les études en communication. L'objectif principal de cette thèse est donc d'aborder frontalement l'artefact code source, en répondant à cette question centrale de recherche : qu'est-ce que le code source et comment cet artefact agit-il dans les reconfigurations d'Internet? Notre problématique s'articule selon trois axes. D'abord, le constat de la signification sociale et politique grandissante du code source, qui s'exprime notamment dans un discours faisant du code source une forme d'expression. Ensuite, la manière dont, pour certains auteurs, le code informatique agit à la manière d'une loi en prescrivant ou limitant certains comportements. Finalement, un dernier axe concerne les rapports d'autorité et le travail invisible dans la fabrication du code source. Sur le plan théorique, notre étude se situe à l'intersection du champ « Science, technologie et société » (STS) et de celui des études en communication. Elle s'appuie largement sur les travaux récents de Lucy Suchman (2007) qui cherchent à poser le regard sur des dynamiques de reconfigurations mutuelles et permanentes des relations entre humains et machines. Notre étude mobilise également certains travaux français se situant en continuité de la théorie de l'acteur-réseau, et s'attardant au travail nécessaire à la stabilité et la performativité des artefacts. D'un point de vue méthodologique, notre étude prend comme terrain SPIP et symfony, deux logiciels qui ont en commun d'être utilisés comme infrastructures dans le fonctionnement de nombreux sites web interactifs, souvent désignés sous l'appellation « web 2.0 ». Les deux logiciels sont originaires de France et continuent de mobiliser un nombre significatif d'acteurs français. Ces projets se distinguent par les valeurs mises de l'avant, plus militantes et non commerciales dans le cas de SPIP, plus professionnelles et commerciales dans le cas de symfony. La langue utilisée dans l'écriture du code source est également différente : français pour SPIP, anglais pour symfony. L'enquête combine l'analyse de documents et de traces en ligne, des entretiens semi-dirigés avec les acteurs des projets, de même que l'observation de différentes rencontres entre les acteurs. Notre étude fait tout d'abord clairement ressortir une certaine ambiguïté entourant la définition de la notion du « code source ». Alors que le code source est souvent appréhendé comme un « texte », « que l'on écrit », l'analyse des définitions plus formelles, ou encore de l'objet désigné par les acteurs par le terme de « code source », montre que cet objet renvoie souvent à différents types de médias, comme des images, et même des artefacts qui ne sont pas directement destinés au fonctionnement des ordinateurs. À l'instar des propos de certains acteurs, nous croyons que la définition de ce qui constitue le code source revêt même une dimension politique, dans ce sens qu'elle tend à valoriser certains types d'activités plutôt que d'autres. L'analyse du processus de fabrication collective du code source dans les deux projets montre également des différences importantes au niveau de l'organisation du code source, de même que dans la mise en œuvre des normes et des « autorisations » d'écriture dans chacun des projets. Ces différences s'articulent avec les valeurs des projets et participent d'une certaine configuration du type d'acteur destiné à interagir avec telle ou telle partie du code source. En conclusion, nous insistons sur le fait que le code source ne doit pas seulement être appréhendé comme étant le noyau des infrastructures d'information. Il doit aussi être appréhendé, dans une perspective communicationnelle et sociologique, comme un artefact à travers duquel des acteurs humains entrent en relation entre eux pour reconfigurer le monde socionumérique au sein duquel ils et elles sont engagés. Suivant l'approche de Suchman, nous proposons donc d'appréhender le code source comme une interface, ou une multiplicité d'interfaces, dans les reconfigurations d'Internet, en insistant sur la manière dont le design de ces interfaces entraîne certaines conséquences, en particulier en privilégiant la participation de certains acteurs plutôt que d'autres. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : code source, logiciels libres, artefacts, études STS, reconfigurations humain-machine.
10

Suivi de Formants par analyse en Multirésolution

Jemaa, Imen 19 February 2013 (has links) (PDF)
L'objectif de ce travail est l'amélioration des performances des algorithmes de suivi des formants. Ce travail commence par l'analyse des différentes techniques classiques utilisées dans le suivi automatique des formants et d'autres méthodes très récentes. Cette analyse nous a permis de constater que l'estimation automatique des formants reste délicate malgré l'emploi de diverses techniques souvent complexes. Malgré l'importance du rôle joué par les fréquences des formants pour la perception et le traitement de la parole, on constate que les bases de données de référence sont très rares surtout en langue arabe. Comme ces bases sont nécessaires à l'évaluation quantitative des techniques automatiques de suivi des formants, nous avons enregistré et étiqueté une base de données en langue arabe de 200 phrases prononcées par 5 locutrices et 5 locuteurs. Cette base a été étiquetée phonétiquement à l'aide de la version arabe du logiciel WinSnoori et aussi en termes des trois premiers formants. Cette base de données n'a pas d'équivalent pour la langue arabe. Suite à ce travail, nous avons élaboré une méthode de suivi de formants par crêtes de Fourier (maxima de spectrogramme) en utilisant comme contrainte de suivi le calcul de centre de gravité de la combinaison des fréquences candidates pour chaque formant. Vu les limites de la transformée de Fourier fenêtrée, nous avons étendu nos recherches à la transformée en ondelette c'est-à-dire s'étendre de l'analyse monorésolution à l'analyse multirésolution. Nous avons implémenté alors une première approche basée sur la détection des crêtes d'ondelette qui sont les maxima du scalogramme en testant trois types d'ondelettes complexes qui sont : Morlet Complexe, Shanon et Frequency B-Spline. Les résultats fournis par cette approche à chaque instant sont ensuite traités de manière à obtenir des trajectoires régulières en utilisant un algorithme de programmation dynamique combiné avec le filtrage de Kalman. Afin d'évaluer quantitativement ce nouvel algorithme de suivi de formants nous avons fait plusieurs tests avec différents locuteurs (masculins et féminins). Nous avons calculé la différence moyenne absolue et l'écart type de suivi estimé par notre méthode en prenant les signaux étiquetés issus de la base élaborée comme référence tout en mettant l'utilité de notre base de données étiquetées manuellement. Nous avons tout d'abord fait des tests sur la voyelle /a/ précédée chaque fois d'une consonne. Ensuite, nous avons testé l'algorithme sur les différentes voyelles courtes et longues. Les résultats de suivi ont été ensuite comparés à ceux des méthodes crêtes de Fourier et d'analyse LPC mise en œuvre dans le logiciel (Praat). Les résultats de ces différents test montrent que dans le cas des locuteurs masculins, les résultats des deux nouvelles approches sont meilleurs que ceux de la méthode LPC de Mustafa Kamran et ceux de Praat même si elles présentent souvent quelques erreurs sur F3. Elles sont aussi très proches de la méthode par détection de crêtes de Fourier utilisant le calcul de centre de gravité.

Page generated in 0.0895 seconds