• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2049
  • 978
  • 292
  • 8
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 3291
  • 1475
  • 668
  • 664
  • 573
  • 554
  • 372
  • 319
  • 293
  • 275
  • 275
  • 248
  • 223
  • 214
  • 213
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Facteurs d'adoption de l'échange de données informatisées : le cas des entreprises de biens et services au Maroc

Jebli, Idriss January 2007 (has links) (PDF)
Avec le développement des nouvelles technologies de l'information et de la communication, nous voyons de plus en plus l'émergence de nouvelles technologies qui viennent révolutionner les façons de faire traditionnelles, et ce particulièrement au niveau des modes de communications. Ces nouvelles technologies permettent aux entreprises d'acquérir des avantages compétitifs tant au niveau opérationnel que stratégique. Aussi, pour les entreprises oeuvrant dans les pays en voie de développement, ces technologies leur permettent de s'aligner rapidement et avec efficience sur des nouveaux modes de travail conformes aux nouvelles normes internationales. Parmi ces technologies figure l'échange de données informatisées, ou EDI, qui se veut être un moyen électronique viable et fiable de communication et de transaction inter et intra organisationnelle. L'adoption de cette technologie est facilitée par certains facteurs propres à l'entreprise et à son environnement, que ce soit sur le plan tant organisationnel que technologique ou socio-économique. Par ailleurs, son utilisation engendre certains bénéfices pour les entreprises. L'objectif principal de cette recherche est de déterminer l'influence des facteurs d'adoption de l'EDI sur le degré d'utilisation, ainsi que l'impact du degré d'utilisation sur les bénéfices perçus dans le contexte d'un pays en voie de développement, le Maroc. Un questionnaire a été administré auprès d'un échantillon composé de 101 entreprises utilisant l'EDI au Maroc, afin de tester statistiquement quatre propositions reliées à l'objectif de recherche. Les variables organisationnelles ayant un impact sur le degré d'utilisation de l'EDI (mesuré en fréquence et volume de données échangées en interne et en externe) sont l'âge de l'entreprise, ainsi que son envergure. Le degré d'utilisation de l'EDI est également influencé par le degré d'informatisation et d'intégration de l'entreprise. Aussi, les variables socio-économiques qui influencent positivement le degré d'utilisation sont la recherche de bénéfices liés à l'EDI, ainsi que la tendance du secteur d'activité. La pression des clients influence quant à elle négativement le degré d'utilisation de l'EDI. Finalement, pour ce qui est de la perception des bénéfices liés à l'adoption et à l'utilisation de l'EDI, il s'est avéré qu'elle est positivement influencée par le degré d'utilisation de cette technologie. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : EDI, Maroc, Facteurs d'adoption, Degré d'utilisation des technologies de l'information, Bénéfices, Commerce électronique B to B.
292

Méthodes et logiciel pour le traitement efficace des données de criblage à haut débit

Zentilli, Pablo January 2007 (has links) (PDF)
Dans ce mémoire, nous abordons le problème de la correction d'erreurs systématiques et de la recherche des composés prometteurs (i.e. «hits») dans les procédures de criblage à haut débit (HTS). Nous introduisons une nouvelle approche pour la correction des erreurs systématiques dans les procédures HTS et la comparons à quelques méthodes couramment utilisées. La nouvelle méthode, appelée «well correction» ou correction par puits, procède par une analyse des erreurs systématiques localisées au niveau des puits, à travers toute la procédure de criblage. Cette méthode permet une amélioration des résultats obtenus lors de la sélection des «hits», par des méthodes utilisant un seuil prédéfini. La correction par puits à montré des résultats supérieurs aux méthodes suggérées dans la littérature telles que: correction par soustraction de l'arrière-plan («background correction» : Kevorkov et Makarenkov, 2005a, 2005b); «median-polish» et «B score» (Brideau et al., 2003; Malo et al., 2006). Nous avons également comparé trois méthodes de recherche des «hits» utilisant des approches de groupement (i.e. «clustering»): k-mean; somme des distances inter-cluster moyennes (SASD) et distance moyenne entre clusters (AICD). Ces méthodes proposent des algorithmes différents pour mesurer la distance entre les données provenant du criblage. Les méthodes de groupement utilisant k-means et SASD ont montré des résultats intéressants, mais aucune des méthodes étudiées n'a montré des performances pouvant justifier son utilisation dans tous les cas de figure. Un logiciel, «HTS Corrector», a été développé dans le cadre de ce travail. Il intègre toutes les méthodes étudiées dans ce mémoire. D'autres fonctionnalités auxiliaires, pouvant aider le praticien dans l'analyse des résultats provenant d'une procédure HTS, ont aussi été intégrées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Criblage à haut débit, High-throughput Screening, Erreurs systématiques, Correction de données, Méthodes de groupement, Recherche de hits, Normalisation de données.
293

Bases de règles multi-niveaux

Pagé, Christian January 2008 (has links) (PDF)
La fouille de données est définie comme le traitement d'une grande quantité de données afin d'y extraire des connaissances non triviales et utiles. Cette analyse permet de dégager de la masse d'informations des tendances, des regroupements de données et de formuler des hypothèses. Un des domaines de la fouille de données est la recherche de règles d'association. Les algorithmes utilisés en recherche de règles d'association ont généralement l'inconvénient de ne pouvoir identifier des règles dont un des termes est infréquent, mais qui appartient à une catégorie qui, elle, l'est. Les règles d'association multi-niveaux permettent d'identifier les associations impliquant des termes dont les niveaux de généralisation/spécialisation diffèrent. Les algorithmes de recherche de règles d'association multi-niveaux présentés à ce jour ont en commun la génération d'un nombre souvent très grand de règles redondantes. Notre contribution dans cette étude est constituée de la conception de deux algorithmes de recherche de règles d'association mutli-niveaux basés sur l'analyse formelle de concepts, ce qui permet de restreindre la génération des règles d'association aux seules règles informatives maximales. Nous avons également réalisé l'implémentation de ces deux algorithmes, en plus de celle d'un autre algorithme utilisé aux fins de comparaison dans la littérature. Nous avons finalement comparé expérimentalement ces trois implémentations et les résultats obtenus confirment l'intérêt de l'approche basée sur l'analyse formelle de concepts, tout en illustrant l'effet des optimisations apportés au traitement. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Treillis de Galois (treillis de concepts), Analyse formelle de concepts, Fouille de données (data mining), Règles d'association, Base de règles, Règles d'association multi-niveaux (règles d'association généralisées), Base de règles multi-niveaux (bases de règles généralisées).
294

Variation de productivité et rendements d'échelle en DEA : l'intégration de la réglementation

Quesnel, Jean-Patrice January 2006 (has links) (PDF)
Ce mémoire est une analyse à la fois théorique et empirique de la méthode du Data Envelopment Analysis (DEA) en présence de réglementation. Deux aspects de cette méthode sont explorés, l'indice de productivité de Malmquist et les rendements d'échelle. Dans un premier temps, nous nous sommes attardés à décrire la mesure conventionnelle de la productivité présentée par Solow en y ajoutant différents facteurs l'influençant, soit les rendements d'échelle non-constants, l'inefficience, les intrants quasi-fixes, l'investissement et la réglementation. Nous y dérivons aussi l'équation faisant le lien théorique entre les rendements d'échelle technologiques et les rendements d'échelle réglementés en s'assurant de bien différencier les deux concepts. Dans un deuxième temps, nous présentons un indice empirique de la mesure de productivité, l'indice de productivité de Malmquist. Suivant la chronologie de la littérature existante, nous intégrons l'inefficience, les intrants quasi-fixes, l'investissement, les rendements d'échelle non-constants et finalement, un pas en avant dans la littérature, la réglementation. Dans un troisième temps, la méthode du DEA est présentée brièvement dans ses qualités et ses défauts. Dans un quatrième temps, nous nous penchons sur le calcul des rendements d'échelle par la méthode du DEA et sur les implications, à la fois méthodologiques et au niveau de l'interprétation, de l'intégration de l'investissement et de la réglementation. Finalement, nous procédons à une analyse de la productivité des transporteurs aériens canadiens en rapport avec la déréglementation du secteur au fil des ans. La réglementation a joué un rôle important dans l'industrie des transporteurs aériens au Canada en ralentissant la croissance de l'efficacité de près de 10 % en moyenne en empêchant l'ajustement optimal des intrants. Le mécanisme par lequel cette diminution de réglementation s'est opérée par le biais de la variation de l'inefficience, i.e. de la gestion des intrants (quasi-fixes et variables). De plus, nous avons montré que la taille optimale de l'industrie fut atteinte avant même la vague de fusion au milieu des années 80, ce qui tend à montrer que ces fusions ne furent pas faite pour profiter de rendements d'échelle encore croissants.
295

Métadonnées et processus pour l'archivage de données médiatiques

Amar, Mama 03 1900 (has links) (PDF)
De nos jours, les données multimédia sont de plus en plus utilisées dans de nombreux secteurs de l'informatique. Cela a provoqué l'expansion de grandes quantités de données multimédia. Ainsi, vu le volume de données et le manque de structure d'OM, il devient de plus en plus difficile de les organiser et de les stocker. En effet, l'exploitation de ressources multimédia nécessite des méthodes et des outils informatiques efficaces pour faciliter leur accès, leur utilisation, leur organisation et leur partage. Les métadonnées multimédia peuvent jouer un rôle essentiel à l'élaboration de ces outils. En effet, les métadonnées peuvent rendre les objets multimédia plus explicites et plus faciles à manipuler par les applications informatiques. Ainsi, un bon nombre d'universitaires et de professionnels s'investissent dans l'élaboration de standards et d'outils pour la gestion et l'archivage d'objets multimédia. Cependant, vu la diversité des standards, il existe souvent une problématique d’interopérabilité entre les standards. De plus, les standards sont définis en général pour des domaines spécifiques. Dans ce mémoire, nous définissons une approche basée sur les métadonnées et les processus pour une gestion optimale et l'archivage des objets multimédia. Aussi, nous définissons un prototype basé sur cette approche. Les résultats de notre expérimentation ont montré l'importance d'un processus pour la gestion d'OM et de métadonnées pour faciliter la recherche, l'exploitation et l'archivage d'OM. Nos résultats ont aussi montré la flexibilité du modèle de données proposé. Ce dernier est extensible et est adaptable au contexte d'utilisation. À chaque étape du processus de gestion d'un OM, les résultats font ressortir l'importance des métadonnées. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : MultiMedia, Métadonnées, Annotations, Processus, Archivage, Modèle de données
296

Relations entre bases de données et ontologies dans le cadre du web des données

Curé, Olivier 11 October 2010 (has links) (PDF)
Ce manuscrit présente mon intérêt pour la conception des méthodes et algorithmes nécessaires pour la réalisation d'applications avancées pour le web sémantique. Cette extension du web actuel vise à autoriser l'intégration et le partage de données entre organismes et applications. Une conséquence directe du succès de cette approche permettrait de considérer le web comme une base de données globale contenant les données stockées sur toutes les machines connectées. Cet aspect s'exprime bien dans le site web dédié à l'activité web sémantique du W3C, qui déclare que le web sémantique est un web des données. Ainsi, ce web des données permettra de soumettre des requêtes structurées sur tous les ensembles de données connectés, et de récupérer des résultats pertinents provenant de sources diverses et hétérogènes. Une question essentielle liée à cette hétérogénéité concerne la notion de sémantique. Dans le contexte du web sémantique, elle est généralement traitée avec des ontologies et les opérations de médiation associées. Ma recherche s'ancrent dans ces thématiques et ce manuscrit vise à présenter quelques unes de mes recherches et résultats, ainsi qu'à décrire certaines des applications que j'ai conçues et implémentées
297

Un modèle hybride pour le support à l'apprentissage dans les domaines procéduraux et mal définis

Fournier-Viger, Philippe 11 1900 (has links) (PDF)
Pour construire des systèmes tutoriels intelligents capables d'offrir une assistance hautement personnalisée, une solution populaire est de représenter les processus cognitifs pertinents des apprenants à l'aide d'un modèle cognitif. Toutefois, ces systèmes tuteurs dits cognitifs ne sont applicables que pour des domaines simples et bien définis, et ne couvrent pas les aspects liés à la cognition spatiale. De plus, l'acquisition des connaissances pour ces systèmes est une tâche ardue et coûteuse en temps. Pour répondre à cette problématique, cette thèse propose un modèle hybride qui combine la modélisation cognitive avec une approche novatrice basée sur la fouille de données pour extraire automatiquement des connaissances du domaine à partir de traces de résolution de problème enregistrées lors de l'usagé du système. L'approche par la fouille de données n'offre pas la finesse de la modélisation cognitive, mais elle permet d'extraire des espaces problèmes partiels pour des domaines mal définis où la modélisation cognitive n'est pas applicable. Un modèle hybride permet de profiter des avantages de la modélisation cognitive et de ceux de l'approche fouille de données. Des algorithmes sont présentés pour exploiter les connaissances et le modèle a été appliqué dans un domaine mal défini : l'apprentissage de la manipulation du bras robotisé Canadarm2. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Systèmes tutoriels intelligents, cognition spatiale, robotique, fouille de données
298

Apprentissage incrémental en ligne sur flux de données

Salperwyck, Christophe 30 November 2012 (has links) (PDF)
L'apprentissage statistique propose un vaste ensemble de techniques capables de construire des modèles prédictifs à partir d'observations passées. Ces techniques ont montré leurs capacités à traiter des volumétries importantes de données sur des problèmes réels. Cependant, de nouvelles applications génèrent de plus en plus de données qui sont seulement visibles sous la forme d'un flux et doivent être traitées séquentiellement. Parmi ces applications on citera : la gestion de réseaux de télécommunications, la modélisation des utilisateurs au sein d'un réseau social, le web mining. L'un des défis techniques est de concevoir des algorithmes permettant l'apprentissage avec les nouvelles contraintes imposées par les flux de données. Nous proposons d'abord ce problème en proposant de nouvelles techniques de résumé de flux de données dans le cadre de l'apprentissage supervisé. Notre méthode est constituée de deux niveaux. Le premier niveau utilise des techniques incrémentales de résumé en-ligne pour les flux qui prennent en compte les ressources mémoire et processeur et possèdent des garanties en termes d'erreur. Le second niveau utilise les résumés de faible taille, issus du premier niveau, pour construire le résumé final à l'aide d'une méthode supervisée performante hors-ligne. Ces résumés constituent un prétraitement qui nous permet de proposer de nouvelles versions du classifieur bayésien naïf et des arbres de décision fonctionnant en-ligne sur flux de données. Les flux de données peuvent ne pas être stationnaires mais comporter des changements de concept. Nous proposons aussi une nouvelle technique pour détecter ces changements et mettre à jour nos classifieurs.
299

Cartographie des connaissances : l'intégration et la visualisation au service de la biologie Application à l'ingénierie des connaissances et à l'analyse de données d'expression de gènes

Jalabert, Fabien 05 December 2007 (has links) (PDF)
Ce mémoire s'inscrit dans un axe stratégique du groupement des Ecoles des Mines : GEMBIO. Dans ce contexte, plusieurs collaborations ont été initiées, notamment avec des chercheurs de l'Institut Pasteur de Paris, de l'Inserm/Hôpitaux de Paris, et du CEA dans le cadre du programme ToxNuc-e. De ces échanges, est née notre problématique. Plus d'un millier de bases de données biologiques sont disponibles en ligne. Leur exploitation et le croisement de leurs contenus entraînent souvent ce constat des chercheurs biologistes : « J'ai souvent une vingtaine de fenêtres ouvertes sur mon écran : je m'y perds ». Souvent l'analyse et le croisement des données est fait par simple copier-coller dans un tableur. Si l'intégration de données à apporté des solutions ponctuelles à des problèmes particuliers, elle ne propose pas pour autant une réponse concrète à la multiplicité des fenêtres pour l'utilisateur, à la surcharge d'information, et à la difficulté de croiser l'information provenant de plusieurs sources hétérogènes. Nous proposons un environnement de cartographie des connaissances biologiques qui facilite l'intégration et la visualisation des données biologiques. Basé sur un métamodèle simple de graphe, I²DEE (Integrated and Interactive Data Exploration Environment) se veut souple et extensible afin de répondre aux besoins des différentes approches existantes de l'intégration. Il permet un accès homogène aux principales ressources biologiques et son adaptabilité offre des réponses visuelles personnalisées à des tâches spécifiques. Après une analyse des besoins des chercheurs biologistes et l'identification des problématiques de traitement de l'information sous-jacentes, un état de l'art de l'intégration de données hétérogènes est présenté. L'approche proposée reprend les principes existants en architecture des IHM et en cartographie géographique. L'environnement I2DEE est alors présenté à partir de son architecture et son métamodèle. Deux modules de l'environnement sont détaillés : l'entrepôt de données biologiques et la boîte à outils graphique permettant de construire rapidement des applications adaptées. Des résultats ont été obtenus dans deux contextes applicatifs distincts : l'ingénierie terminologique et ontologique, et l'analyse de données d'expression de gènes issues de puces à ADN. Ils sont discutés et analysés en regard des objectifs initialement fixés.
300

RECHERCHE SYSTEMATIQUE DE CONTREPARTIES<br />OPTIQUES DE SURSAUTS GAMMA<br />DANS LES IMAGES DU "VERY WIDE SURVEY"<br />DU TELESCOPE CANADA-FRANCE-HAWAII

Malacrino, Frederic 10 October 2006 (has links) (PDF)
Les sursauts gamma sont des flashes très brefs et intenses de photons de haute énergie se produisant à des positions et à des temps aléatoires, avec une fréquence de deux par jour. Durant leur temps de vie, qui est en moyenne de quelques secondes, ils deviennent plus brillants que l'ensemble des sources de la voûte céleste. Leurs localisations rapides et précises ont permis la découverte de leurs contreparties dans les autres longueurs d'onde, les afterglows. Dans le domaine optique, les afterglows ont la particularité de décroître rapidement en luminosité, ce qui ne les rend visibles que peu de temps après le sursaut (quelques heures à quelques jours). Les mesures de leur décalage vers le rouge ont apporté la preuve que les sursauts gamma sont des évènements se produisant à des distances cosmologiques. Les observations d'afterglows ont aussi montré la présence de galaxies hôtes aux sursauts, et l'émergence de supernovae dans les courbes de lumière d'afterglows.<br /><br />Les modèles théoriques de sursauts gamma prédisent la présence d'une focalisation de l'émission gamma. L'observation de cassures dans un grand nombre de courbes de lumière d'afterglows optiques, conséquence attendue de cette focalisation, a permis de confirmer cette hypothèse. L'afterglow émettant dans un cône qui s'élargit avec le temps, il en découle l'existence d'afterglows qui ne sont pas associés à un sursaut gamma visible. Ceux-ci sont appelés afterglows orphelins. La recherche d'afterglows orphelins est un enjeu crucial pour la compréhension des sursauts gamma. Leur détection permettra en effet l'étude des sursauts proches et des sursauts sans émission gamma, et constituera un excellent moyen pour tester l'hypothèse de focalisation de l'émission gamma. Les quelques recherches d'afterglows optiques qui ont été effectuées jusqu'alors se sont toutes révélées infructueuses, puisque aucun afterglow n'a été identifié.<br /><br />Dans cette étude, je présente une nouvelle recherche d'afterglows optiques. Elle s'effectue dans les images d'une stratégie d'observation ayant lieu au Télescope Canada-France-Hawaii, nommée le Very Wide Survey. Elle prévoit de couvrir 1200 degrés carrés du ciel jusqu'à la magnitude r' = 22,5. Chaque champ est observé plusieurs fois, avec des intervalles de temps de l'ordre de l'heure et de la journée. Afin de traiter les images du Very Wide Survey, j'ai développé et mis en place un système d'analyse en temps réel, nommé "Optically Selected GRB Afterglows". Ce système, entièrement automatisé, crée dans un premier temps des catalogues d'objets à partir des images, puis dans un second temps compare entre eux les catalogues d'un même champ acquis à des instants différents, afin d'extraire les objets variables en luminosité, et ceux qui sont apparus ou ont disparu. Ces objets sont ensuite affichés sur une page Web où ils peuvent être validés comme candidat afterglow par un membre de la collaboration.<br /><br />Les statistiques effectuées sur les catalogues et sur les comparaisons montrent que ce système de recherche est très performant. Plus de 99,5% des images sont traitées sans encombre et rapidement, nous permettant d'envoyer des alertes à la communauté des sursauts en moins de<br />24 heures. Les objets détectés variables représentent moins de 0,01% des objets. Environ 10% d'entre eux sont de véritables objets variables qu'il nous faut séparer manuellement des fausses détections. Durant ma thèse, j'ai également développé un programme de simulation d'afterglows qui permet d'évaluer l'efficacité d'une stratégie d'observation et de calculer un nombre d'afterglows attendus suivant un modèle de sursaut donné. Les résultats des simulations montrent que notre recherche d'afterglows est de loin la plus performante ayant jamais été effectuée. Dans l'intégralité des images du Very Wide Survey, nous attendons entre 4 et 5 détections d'afterglows. Pour l'instant, notre recherche en temps réel n'a pas abouti à l'identification d'un afterglow optique avec certitude. Nous sommes néanmoins capables de proposer des contraintes sur le rapport du nombre d'afterglows sur le nombre de sursauts. La valeur supérieure limite que nous obtenons est de 12,6 afterglows par sursaut gamma, jusqu'à la magnitude 22,5 et avec 90% de confiance.

Page generated in 0.0234 seconds