• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

A Personal Documenation System for Scholars: A Tool for Thinking

Burkett, Leslie Stewart 12 1900 (has links)
This exploratory research focused on a problem stated years ago by Vannevar Bush: "The problem is how creative men think, and what can be done to help them think." The study explored the scholarly work process and the use of computer tools to augment thinking. Based on a review of several related literatures, a framework of 7 major categories and 28 subcategories of scholarly thinking was proposed. The literature was used to predict problems scholars have in organizing their information, potential solutions, and specific computer tool features to augment scholarly thinking. Info Select, a personal information manager with most of these features (text and outline processing, sophisticated searching and organizing), was chosen as a potential tool for thinking. The study looked at how six scholars (faculty and doctoral students in social science fields at three universities) organized information using Info Select as a personal documentation system for scholarly work. These multiple case studies involved four in-depth, focused interviews, written evaluations, direct observation, and analysis of computer logs and files collected over a 3- to 6-month period. A content analysis of interviews and journals supported the proposed AfFORD-W taxonomy: Scholarly work activities consisted of Adding, Filing, Finding, Organizing, Reminding, and Displaying information to produce a Written product. Very few activities fell outside this framework, and activities were distributed evenly across all categories. Problems, needs, and likes mentioned by scholars, however, clustered mainly in the filing, finding, and organizing categories. All problems were related to human memory. Both predictions and research findings imply a need for tools that support information storage and retrieval in personal documentation systems, for references and notes, with fast and easy input of source material. A computer tool for thinking should support categorizing and organizing, reorganizing and transporting information. It should provide a simple search engine and support rapid scanning. The research implies the need for tools that provide better affordances for scholarly thinking activities.
322

An assessment of occupational health and safety in the informal car maintenance,welding and spraypainting industry in Mbabane.

Mamba, Richard Mfana 19 February 2007 (has links)
Student Number : 0215978H - MPh research report - School of Public Health - Faculty of Health Sciences / The study was conducted in the City of Mbabane and assessed Occupational Health and Safety in the informal car maintenance, welding and spray-painting industry. The objective of the study was to assess the risks workers are exposed to in the informal car maintenance, welding and spray-painting industry in Mbabane city in Swaziland. Data was collected by administration of a questionnaire to managers of the establishments and by personal observations of workers while on the job from walk through surveys that were conducted in the city. Seventy (70) workplaces were identified and sixty five (65) of them participated in the study, representing a response rate of 92.86%. There were twenty (20) workplaces doing car maintenance, twenty five (25) doing welding and twenty (20) doing spray painting. Fifty-three (53) The data was analysed using the EPI INFO software and results revealed that most workers in this sector were indeed at high risk of exposure to occupational health and safety problems. They worked under unfavourable conditions such as working in the open and subjected to adverse weather conditions, exposed to solvents, welding fumes and gases, strenuous work, improper postures, lifting heavy loads, exposed to spray painting aerosols and fumes and exposed to dust. The workers’ occupational health and safety was made worse by the fact that most of them did not have or use personal protective equipment. 90% of the workers were exposed to emissions while carrying out their jobs of spray painting and 10% of them were exposed to paint. All the workers that were doing spray painting were exposed to paint (95%) and solvents 5%). Although 75% of the workers, doing spray painting had some kind of personal protection provided however the usage rate was very low. In all the workplaces that were doing spray painting, there were no other existing control measures for protecting the workers from paint emissions 76% did not have any respiratory protection. However, only 33.3% of them were using the PPE provided and 66.7% were not using them. Therefore most of the workers were at risk of breathing in welding fumes and other welding related gases. This means 92 % of workers were at risk to welding fumes and gases. 68% of the workers did not have protection for the hands, only 32% had. Those workers that had hand protection (32%) had gloves with shorter cuffs and separate sleeves (12%). Others had leather gauntlet gloves with canvas or cuffs (20%). 75% of these workers who had PPE were not using them, only 25% did. Since most of the workers did not use hand protection, this means that their hands were not protected against heat, spatter, and radiation. Most of the workers (72%) did not wear eye protection when removing slag and that put them at risk of eye injuries. All welding operations were not done in a booth. This means that the workers and co-workers were at risk of exposure to welding gases and fumes. 48% of the workplaces had their surroundings with materials that could catch fire. 52% had their surroundings free from burnable material. Therefore almost half of the workplaces were at risk of catching fire. 76% of the working places had no fire extinguishers. Only 24% had fire extinguishers, but only two had been serviced accordingly. The workplaces were less prepared for outbreaks of fire. 68% of the workers took no precautions against burns; they had their sleeves rolled up and forearms without gloves or sleeves when carrying out their work. Only 32% of the workers took precautions against burns. 72% of the workers said that they did not know how to treat burns. Only 28% said they knew how to treat them. 72% of the workplaces did not have first aid kits. The means that they were not prepared for accident, only 28% had first aid kits. 71.4% of the work places had first aid kits without the necessary medicines, bandages, and equipment, only 28.6% had. This indicated a lack of preparedness for accidents on their part. A long-term strategy should be developed aimed at improving the occupational health and safety of the workers. Workers need to be empowered to perform their tasks safely. Workers and owners of informal industries should participate in the formulation of interventions aimed at improving occupational health and safety. The City Council should provide health and safety education and training to the Informal Sector.
323

Caractérisation de l'environnement musical dans les documents audiovisuels

Lachambre, Hélène 08 December 2009 (has links) (PDF)
Actuellement, la quantité de musique disponible, notamment via Internet, va tous les jours croissant. Les collections sont trop gigantesques pour qu'il soit possible d'y naviguer ou d'y rechercher un extrait sans l'aide d'outils informatiques. Notre travail se place dans le cadre général de l'indexation automatique de la musique. Afin de situer le contexte de travail, nous proposons tout d'abord une brève revue des travaux réalisés actuellement pour la description automatique de la musique à des fins d'indexation : reconnaissance d'instruments, détermination de la tonalité, du tempo, classification en genre et en émotion, identification du chanteur, transcriptions de la mélodie, de la partition, de la suite d'accords et des paroles. Pour chacun de ces sujets, nous nous attachons à définir le problème, les termes techniques propres au domaine, et nous nous attardons plus particulièrement sur les problèmes les plus saillants. Dans une seconde partie, nous décrivons le premier outil que nous avons développé : une distinction automatique entre les sons monophoniques et les sons polyphoniques. Nous avons proposé deux nouveaux paramètres, basés sur l'analyse d'un indice de confiance. La modélisation de la répartition bivariée de ces paramètre est réalisée par des distributions de Weibull bivariées. Le problème de l'estimation des paramètres de cette distribution nous a conduit à proposer une méthode originale d'estimation dérivée de l'analyse des moments de la loi. Une série d'expériences nous permet de comparer notre système à des approches classiques, et de valider toutes les étapes de notre méthode. Dans la troisième partie, nous proposons une méthode de détection du chant, accompagné ou non. Cette méthode se base sur la détection du vibrato, un paramètre défini à partir de l'analyse de la fréquence fondamentale, et défini a priori pour les sons monophoniques. A l'aide de deux segmentations, nous étendons ce concept aux sons polyphoniques, en introduisant un nouveau paramètre : le vibrato étendu. Les performances de cette méthode sont comparables à celles de l'état de l'art. La prise en compte du pré-traitement monophonique / polyphonique nous a amenés à adapter notre méthode de détection du chant à chacun de ces contextes. Les résultats s'en trouvent améliorés. Après une réflexion sur l'utilisation de la musique pour la description, l'annotation et l'indexation automatique des documents audiovisuels, nous nous posons la question de l'apport de chacun des outils décrits dans cette thèse au problème de l'indexation de la musique, et de l'indexation des documents audiovisuels par la musique et offrons quelques perspectives.
324

OntoDB2 : un système flexible et efficient de base de données à base ontologique pour le web sémantique et les données techniques

Fankam, Chimène 10 December 2009 (has links) (PDF)
Le besoin d'expliciter la sémantique des données dans différents domaines scientifiques (biologie, médecine, géographie, ingénierie, etc.) s'est traduit par la définition de données faisant référence à des ontologies, encore appelées données à base ontologique. Avec la multiplication des ontologies de domaine, et le volume important de données à manipuler, est apparu le besoin de systèmes susceptibles de gérer des données à base ontologique de grande taille. De tels systèmes sont appelés des systèmes de gestion de Bases de Données à Base Ontologique (BDBO). Les principales limitations des systèmes de gestion de BDBO existants sont (1) leur rigidité, due à la prise en compte des constructions d'un unique formalisme d'expression d'ontologies, (2) l'absence de support pour les données non standard (spatiales, temporelles, etc.) et, (3) leur manque d'efficacité pour gérer efficacement les données de grande taille. Nous proposons dans cette thèse un nouveau système de gestion de BDBO permettant (1) de supporter des ontologies basées sur différents formalismes d'ontologies, (2) l'extension de son formalisme d'ontologie pour répondre aux besoins spécifiques des applications, et (3) une gestion originale des données facilitant le passage à grande échelle. Le système que nous proposons dans cette thèse, ontodb2, se fonde sur l'existence d'un ensemble de constructions communes aux différents formalismes d'expression d'ontologies, susceptible de constituer une ontologie noyau, et sur les techniques de gestion des modèles pour permettre l'extension flexible de ce noyau. Nous proposons également une approche originale de gestion des données à base ontologique. Cette approche part du fait que les données à base ontologique peuvent se classifier en données canoniques (instances de classes primitives) et noncanoniques (instances de classes définies). Les instances de classes définies peuvent, sous certaines hypothèses, s'exprimer en termes d'instances de classes primitives. Nous proposons donc de ne représenter que les données canoniques, en transformant sous certaines conditions, toute donnée non-canonique en donnée canonique. Enfin, nous proposons d'exploiter l'interpréteur de requêtes ontologiques pour permettre (1) l'accès aux données non-canoniques ainsi transformées et, (2) d'indexer et pré-calculer les raisonnements en se basant sur les mécanismes du SGBD support. L'ensemble de ces propositions est validé (1) à travers une implémentation sur le SGBD PostgreSQL basée sur les formalismes d'ontologies PLIB, RDFS et OWL Lite, (2) des tests de performances sur des ensembles de données issus de la géographie et du Web.
325

Indexation de documents pédagogiques : fusionner les approches du Web Sémantique et du Web Participatif

Huynh-Kim-Bang, Benjamin 29 October 2009 (has links) (PDF)
Les techniques actuelles d'indexation sur le Web ne sont pas satisfaisantes pour les ressources pédagogiques. En effet, l'indexation automatique, e.g. Google, peut difficilement dépasser le niveau syntaxique des contenus tandis que l'indexation par des documentalistes est coûteuse en main d'oeuvre. Or de récentes approches telles que les techniques du Web Sémantique ou la tendance du Web Participatif (Web 2.0) offrent des solutions prometteuses. Une première partie de nos travaux porte ainsi sur l'étude du Web Sémantique appliqué aux ressources pédagogiques. Nous y explorons les possibilités de raisonnements automatisés appliqués à des ontologies pédagogiques. Une seconde partie porte sur l'étude des fonctionnalités des sites participatifs, facilitant l'ajout de contenus et de métadonnées par les visiteurs. Nous proposons alors un modèle de site participatif adapté aux communautés d'enseignants. Néanmoins, Web Sémantique et Web Participatif sont souvent opposés. Aux ontologies formelles généralement réalisées par quelques experts s'opposent les tags hétérogènes ajoutés par de nombreux utilisateurs aux profils variés. Dans une troisième partie, nous proposons donc un modèle fusionnant Sémantique et Participatif. Ce modèle vise à développer des applications de partage de ressources, principalement pour des communautés de pratique. Il se fonde sur une Indexation Progressive et Multi-points de vue (modèle IPM) consistant à : - permettre aux utilisateurs de structurer progressivement les métadonnées, pour finalement favoriser des raisonnements sémantiques par les machines ; - permettre aux utilisateurs de collaborer progressivement, pour finalement favoriser une vision partagée du domaine par les humains. Ce modèle est implémenté dans un outil de partage de signets, nommé SemanticScuttle, proposant des fonctionnalités originales comme des tags structurés par des relations d'inclusion et de synonymie, ou des espaces wiki pour décrire des tags. L'outil a été développé et expérimenté avec des documentalistes en sociologie sur plusieurs mois. Diffusé, l'outil est employé par des utilisateurs dans plusieurs pays. Finalement, nos travaux nous permettent de formuler des hypothèses sur un modèle socio-technique soutenant le partage entre enseignants. Ils sont aussi une contribution à des modèles intégrant différentes formes d'indexation : automatique et par des humains, faisant intervenir des experts et les utilisateurs, fondée sur des modèles structurés (e.g. ontologies) et sur des métadonnées flexibles (e.g. tags).
326

Logique floue et algorithmes génétiques pour le pré-traitement de données de biopuces et la sélection de gènes

Bonilla Huerta, Edmundo 13 November 2008 (has links) (PDF)
Dans le domaine de la biologie moléculaire, les technologies d'analyse d'expression génique comme les biopuces suscitent un intérêt très grand. Une des applications de ces technologies est le diagnostic et la classification de différents types de tumeurs. Une des particularités des données issues des biopuces est qu'elles sont décrites par un très grand nombre d'attributs (gènes) alors que peu d'échantillons analysés sont disponibles. Cela empêche la compréhension des données et réduit de manière considérable la performance des algorithmes de classification. Dans cette thèse, nous proposons des méthodes innovantes pour réduire la taille initiale des données et pour sélectionner des ensembles de gènes pertinents pour une classification supervisée. Nous proposons tout d'abord une méthode de pré-traitement des données et de réduction de dimension basée sur la logique floue. Le problème de la sélection d'attributs est ensuite traité par deux types d'approche. Dans la première, nous proposons une méthode enveloppe qui grâce à une double exploration génétique sélectionne un ensemble de gènes pertinents pour un classifieur SVM. Dans la deuxième, nous proposons une méthode intégrée où les informations fournies par un classifieur linéaire (ADL) guident le processus de recherche vers un sous-ensemble de petite taille et performant pour la classification. Les différentes expérimentations que nous avons menées montrent de très bonnes performances, surtout pour la méthode intégrée.
327

Proposition de l'architecture de l'agent gestionnaire du modèle de l'apprenant dans un système tuteur multi-agents en apprentissage de la lecture : contribution au projet AMICAL

Fragne, Didier 18 December 2009 (has links) (PDF)
Dans le cadre de l'environnement multi-agents AMICAL, cette thèse se propose d'étudier les problématiques liées à la conception de l'agent gestionnaire du modèle de l'apprenant (AGMA). Par gestion du modèle de l'apprenant, nous entendons à la fois la construction de ce modèle ainsi que la réponse aux interrogations des autres agents de l'environnement concernant le contenu de celui-ci. Nos problématiques sont à la fois de réfléchir à une formalisation du modèle de l'apprenant dans un domaine particulier qu'est l'apprentissage de la lecture ainsi que de proposer des mécanismes de construction de ce modèle intégrés à AGMA. Pour remplir son rôle de modélisation, AGMA va analyser le compte-rendu de la session de travail réalisée avec l'apprenant puis intégrer les nouvelles hypothèses issues de cette analyse au modèle existant. La contribution apportée par nos travaux est de deux ordres. Premièrement, nous proposons une représentation du modèle de l'apprenant sous forme de système multi-agents cognitifs où chaque agent sera en charge d'une partie du modèle. Deuxièmement, nous proposons de voir l'architecture d'AGMA comme un système multi-agents. À partir de l'analyse des différents rôles d'AGMA, nous avons dégagé une architecture modulaire : un module communication responsable de la communication entre les modules d'AGMA et le reste du système, un module analyse en charge de l'analyse des séquences de travail avec l'apprenant et un module modèle en charge de stocker et de maintenir à jour le modèle en intégrant les nouvelles hypothèses issues de l'analyse. Pour accroître la rapidité d'exécution nous avons représenté chaque module comme un système multi-agents.
328

Aides informatisées à la traduction collaborative bénévole sur le Web

Bey, Youcef 02 June 2008 (has links) (PDF)
Les travaux de recherche présentés dans cette thèse s'inscrivent dans le domaine de la traduction automatique et automatisée. Nous nous intéressons en particulier aux outils d'aide à la traduction sur le Web favorisant la traduction bénévole, non-commerciale et incrémentale. La croissance remarquable de la quantité des documents multilingues disséminés en ligne gratuitement (W3C, Traduct, Mozilla, traducteurs bénévoles de documents en droits de l'homme, etc.) est le résultat d'un travail laborieux de communautés bénévoles qui sont malheureusement technologiquement marginalisées, et privées de toute aide « linguistique » à la traduction. Nous avons effectué une étude approfondie des communautés bénévoles et en avons dégagé les problèmes les plus intéressants et difficiles. Nous avons construit BEYTrans, un environnement collaboratif et non commercial offrant des services linguistiques et répondant aux besoins spécifiques de ces communautés. Les principales composantes logicielles développées sont : un éditeur multilingue Web intégrant des fonctionnalités linguistiques avancées et variées, un module de recyclage des traductions existantes, et la gestion et le traitement d'une masse de données multilingues. Chacun d'eux résout un problème intéressant, et ils sont entièrement intégrés (avec d'autres fonctionnalités) dans un environnement collaboratif complet, qui a été expérimenté avec succès dans des situations concrètes.
329

Algorithmes métaheuristiques hybrides pour la sélection de gènes et la classification de données de biopuces

Hernandez Hernandez, José Crispin 14 November 2008 (has links) (PDF)
Les biopuces permettent de mesurer simultanément l'activité d'un grand nombre de gènes au sein d'échantillons biologiques et de réaliser un diagnostic (reconnaissance tissu sain/tissu cancéreux ou distinction entre différents types de cancer) à partir de ces données. Pour cette tâche de classification, on dispose d'un faible nombre d'échantillons alors que chaque échantillon est décrit par un très grand nombre de gènes. Dans cette thèse, nous nous intéressons à la sélection de gènes qui permet de proposer un sous-ensemble de gènes pertinents afin de construire un classifieur prédisant le type de tumeur qui caractérise un échantillon cellulaire. Le problème de la sélection de gènes est un problème très difficile et les algorithmes métaheuristiques à base de voisinage (méthodes de recherche locale) et à base de populations (algorithmes génétiques et algorithmes mémétiques) semblent bien appropriés pour traiter ce problème. Dans cette thèse, nous proposons plusieurs méthodes de sélection dites intégrées, combinant des algorithmes métaheuristiques avec un séparateur à vaste marge linéaire (SVM). Dans ces algorithmes, la qualité d'un sous-ensemble de gènes sélectionnés est évaluée grâce au classifieur SVM. De plus, nos algorithmes exploitent l'information de pertinence fournie par le classifieur SVM sur les différents gènes pour guider les mécanismes de recherche locale ou pour proposer des opérateurs génétiques spécialisés. Des expérimentations ont été réalisées sur les différents jeux de données disponibles dans la littérature et nos méthodes se révèlent très compétitives par rapport aux travaux existants.
330

Contributions à l'analyse formelle et au diagnostic à partir de réseaux de Petri colorés avec l'accessibilité arrière

Bouali, Mohamed 21 December 2009 (has links) (PDF)
Le développement rapide des systèmes embarqués et les exigences croissantes auxquelles ils sont soumis créent un besoin de techniques innovantes en terme de conception, de vérification et de validation. Les méthodes formelles fournissent des approches intéressantes à la conception de ces systèmes, notamment pour des études de sûreté de fonctionnement (SdF). Le formalisme choisi est basé sur les Réseaux de Petri Colorés (RdPC). L'avantage de ces modèles, en plus d'être très expressifs et formels, est qu'ils permettent d'exprimer le double caractère des systèmes étudiés : statique et dynamique. Le défi relevé par cette thèse est d'utiliser des modèles établis, décrivant l'architecture et/ou le comportement de systèmes, pour en extraire des informations de SdF en général et de diagnostic de défaillances en particulier. L'approche proposée est une analyse structurelle par accessibilité arrière de RdPC. Elle peut être décomposée en deux parties. La première consiste en la proposition d'un outil pour réaliser cette analyse : le RdPC inverse. Il est obtenu grâce à l'application de transformations structurelles sur le RdPC original. La seconde partie est la mise en \oe uvre de l'analyse. Cette partie requiert des mécanismes complémentaires dont le plus important est l'enrichissement du marquage. L'approche proposée est étudiée de deux points de vue complémentaires : algorithmique et théorique. Le point de vue algorithmique consiste à proposer des modèles de transformations pour l'inversion des RdPC et la mise en \oe uvre de l'analyse. L'aspect théorique vise à offrir une base formelle à l'approche en appliquant deux méthodes (l'algèbre linéaire et la logique linéaire) pour prouver notre approche.

Page generated in 0.0499 seconds