• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • Tagged with
  • 11
  • 11
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Facteurs d'adoption de l'échange de données informatisées : le cas des entreprises de biens et services au Maroc

Jebli, Idriss January 2007 (has links) (PDF)
Avec le développement des nouvelles technologies de l'information et de la communication, nous voyons de plus en plus l'émergence de nouvelles technologies qui viennent révolutionner les façons de faire traditionnelles, et ce particulièrement au niveau des modes de communications. Ces nouvelles technologies permettent aux entreprises d'acquérir des avantages compétitifs tant au niveau opérationnel que stratégique. Aussi, pour les entreprises oeuvrant dans les pays en voie de développement, ces technologies leur permettent de s'aligner rapidement et avec efficience sur des nouveaux modes de travail conformes aux nouvelles normes internationales. Parmi ces technologies figure l'échange de données informatisées, ou EDI, qui se veut être un moyen électronique viable et fiable de communication et de transaction inter et intra organisationnelle. L'adoption de cette technologie est facilitée par certains facteurs propres à l'entreprise et à son environnement, que ce soit sur le plan tant organisationnel que technologique ou socio-économique. Par ailleurs, son utilisation engendre certains bénéfices pour les entreprises. L'objectif principal de cette recherche est de déterminer l'influence des facteurs d'adoption de l'EDI sur le degré d'utilisation, ainsi que l'impact du degré d'utilisation sur les bénéfices perçus dans le contexte d'un pays en voie de développement, le Maroc. Un questionnaire a été administré auprès d'un échantillon composé de 101 entreprises utilisant l'EDI au Maroc, afin de tester statistiquement quatre propositions reliées à l'objectif de recherche. Les variables organisationnelles ayant un impact sur le degré d'utilisation de l'EDI (mesuré en fréquence et volume de données échangées en interne et en externe) sont l'âge de l'entreprise, ainsi que son envergure. Le degré d'utilisation de l'EDI est également influencé par le degré d'informatisation et d'intégration de l'entreprise. Aussi, les variables socio-économiques qui influencent positivement le degré d'utilisation sont la recherche de bénéfices liés à l'EDI, ainsi que la tendance du secteur d'activité. La pression des clients influence quant à elle négativement le degré d'utilisation de l'EDI. Finalement, pour ce qui est de la perception des bénéfices liés à l'adoption et à l'utilisation de l'EDI, il s'est avéré qu'elle est positivement influencée par le degré d'utilisation de cette technologie. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : EDI, Maroc, Facteurs d'adoption, Degré d'utilisation des technologies de l'information, Bénéfices, Commerce électronique B to B.
2

Création, partage et transfert d'ensembles de données terminologiques basés sur SKOS

Zoghlami, Mohamed Kaiser 08 1900 (has links) (PDF)
Depuis quelques années, la recherche sur la normalisation des ensembles de données terminologiques a été une des plus grandes préoccupations d'un groupe de travail du World Wide Web Consortium. Ce travail de recherche a permis de développer un nouveau standard SKOS qui a été ensuite émis en 2009 en tant que recommandation du W3C. Le travail de recherche que nous entreprenons dans ce mémoire concerne ce standard. Notre étude consiste à réaliser à partir de cette recommandation un modèle conceptuel fiable et cohérent reprenant les principaux éléments de SKOS et de son extension. Elle consiste aussi à prototyper un outil reposant sur ce modèle qui permettrait de gérer, de manipuler et de partager des ensembles de données terminologiques basés sur SKOS. Pour ce faire, une méthodologie de recherche bien précise a été adoptée et diverses recherches concernant le standard SKOS et le type d'ensemble de données terminologiques ont été réalisées. A partir de ces recherches, nous avons proposé un modèle conceptuel de SKOS et nous avons conçu et prototypé l'outil le supportant, qui a été par la suite testé à travers des cas d'utilisation réels. Ces tests ont permis d'évaluer l'outil et de démontrer sa capacité à manipuler des données normalisées en SKOS en toute simplicité. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : Gestion de connaissances, SKOS, RDF, gestion des KOS, ensembles de données terminologiques basés sur SKOS, exportation SKOS, glossaires, thésaurus.
3

Proposition de chaîne numérique pour la fabrication additive

Bonnard, Renan 12 October 2010 (has links) (PDF)
Les procédés par ajout de matière sont soumis à des changements majeurs depuis ces dernières années. En effet, ils sont passés de procédés de prototypage rapide, à des procédés de fabrication additive pour la réalisation de pièces fonctionnelles. Ces changements ont entraîné de nouvelles attentes en termes de maîtrise de ces procédés. Dans le même temps, il subsiste certains problèmes dus à leur non-intégration dans une chaîne numérique complète et robuste. Ce point ne leur permet pas à l'heure actuelle de rattraper leur retard en terme de développement par rapport aux procédés plus traditionnels. Les limites de la structure actuelle au niveau de la commande numérique (s'appuyant sur le STL) des machines de fabrication additive ont été identifiées par les travaux de recherche de plusieurs groupes internationaux. La grande majorité a conclu au nécessaire développement d'une nouvelle structure de données basée sur le format STEP, qui apparaît comme étant un format adapté pour obtenir une chaîne numérique complète, robuste et s'appuyant sur des données de haut niveau conceptuel. Le but des travaux de thèse est donc de proposer une nouvelle structuration des données pour le procédé par ajout de matière basée sur le format STEP-NC puis dans le même temps de mettre en place une nouvelle chaîne numérique STEP-NC s'appuyant sur des DCN génériques du même type que ceux utilisés en usinage. La première partie du travail est la mise en place d'un modèle hiérarchisé des données nécessaire pour la description des procédés par ajout de matière. Ce modèle hiérarchisé permet d'identifier et de hiérarchiser toutes les données utiles à l'élaboration d'un projet de fabrication additive. La seconde étape consiste à partir des données du modèle hiérarchisé à la proposition d'un modèle de données STEP-NC pour l'introduction des procédés de fabrication additive dans la norme ISO 14649. Pour réaliser une chaîne numérique complète basée sur le STEP-NC, les travaux de l'équipe (qui concernent non seulement la fabrication additive mais aussi l'usinage) ont conduit à la mise en place d'une plateforme appelée SPAIM (STEP-NC Platform for Advanced and Intelligent Manufacturing). Dans cette plateforme la chaîne numérique complète (CAO-FAO-DNC) est intégrée autour d'un unique fichier STEP-NC sans perte d'information. Cette plateforme a de plus l'avantage de pouvoir être intégrée sur toutes les machines de nouvelle génération de fabrication additive équipées avec des DCN génériques.
4

MODELISATION DES GRANDS SYSTEMES ELECTRIQUES INTERCONNECTES : APPLICATION A L'ANALYSE DE SECURITE DANS UN ENVIRONNEMENT COMPETITIF

Alcheikh-Hamoud, Khaled 06 April 2010 (has links) (PDF)
La restructuration du secteur de l'énergie électrique et la dérégulation du marché de l'électrécité, les contraintes environnementales et dans certains cas des investissements insuffisants dans les infrastructures des systèmes électriques forment actuellement les principaux facteurs qui poussent les opérateurs des systèmes électriques à faire fonctionner ces derniers dans des conditions opérationnelles contraignantes, à savoir de plus en plus près de leurs limites de stabilité. En effet, afin de pouvoir exploiter leurs réseaux électriques avec des marges de sécurité réduites sans détérioration significative de la sûreté de fonctionnement, les gestionnaires des réseaux de transport (GRTs) ont récemment adopté un nouvel outil pour se prémunir contre le risque des pannes généralisées (blackouts) des réseaux électriques. Il s'agit de l'analyse en ligne de sécurité. A l'heure actuelle, en l'absence d'un coordinateur de sécurité central ou d'échanges complets de données en ligne entre tous les GRTs, l'analyse en ligne de sécurité des grands systèmes électriques interconnectés se fait d'une manière décentralisée au niveau du GRT de chaque zone de réglage. Le problème majeur de l'analyse décentralisée des systèmes interconnectés réside dans le fait que chaque GRT n'est pas capable d'évaluer la vulnérabilité de son système à l'égard des contingences externes originaires des zones de réglage voisines. Dans cette thèse, nous proposons comme solution à ce problème un nouveau cadre de coopération et de coordination entre les GRTs. Dans ce cadre, les GRTs s'échangent en ligne et hors ligne les données nécessaires permettant à chacun d'entre eux premièrement d'évaluer l'impact de ses contingences externes sur la sécurité de sa zone, deuxièmement de concevoir, en utilisant des techniques d'apprentissage automatique, des filtres qu'il utilise ensuite en ligne pour le filtrage rapide de ses contingences externes de sorte que seules les contingences externes potentiellement dangereuses soient sélectionnées pour une analyse détaillée en ligne.
5

Le partage de données scientifiques : analyse des régimes d'échange dans une communauté de recherche sur l'Arctique

Gratton-Gagné, Olivier 06 1900 (has links) (PDF)
Ce mémoire porte sur le partage de données dans la recherche sur l'Arctique. Le partage de données est ici problématisé dans le contexte du développement d'infrastructures scientifiques de collaboration à grande échelle. Notre recherche est structurée autour de la question centrale suivante : comment rendre compte de la pluralité et de la complexité des usages des bases de données scientifiques? Pour ce faire, nous mobilisons les traditions théoriques des études en science, technologie et société, en informatique sociale et en sociologie des usages. Plus précisément, nous recourons à la théorie des régimes d'échange. Cette théorie propose de considérer les pratiques de partage de données à travers trois régimes d'échanges distincts, soit le régime de coopération, le régime de don et le régime de sous-traitance. Notre méthodologie est basée sur une approche qualitative et ascendante et notre terrain de recherche est le réseau de recherche ArcticNet. Nos résultats illustrent la variété et la subtilité des modalités d'échange de données et mettent au jour des enjeux du travail scientifique actuel. Nous terminons ce mémoire en proposant le concept du chercheur-contributeur. Selon cette hypothèse, les scientifiques occupent de plus en plus les fonctions des professionnels des sciences de l'information à mesure que les échanges de données s'accélèrent. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : données, bases de données, recherche scientifique, Arctique, partage, infrastructures scientifiques, régime d'échange
6

Évaluation basée sur l’interopérabilité de la performance des collaborationsdans le processus de conception / Inteopeability-based evaluation of collaboration in the design process

Pirayesh Neghab, Amir 10 November 2014 (has links)
Un processus de conception que ce soit d'un produit ou d'un service est composé d'un grand nombre d'activités reliées par des échanges nombreux de données et d'informations. La qualité de ces échanges, appelés collaborations, nécessite d'être capable d'envoyer et de recevoir des informations et données utiles, compréhensibles et univoques pour les différents concepteurs impliqués. La problématique de ces travaux de thèse se focalise donc sur la définition et l'évaluation de la performance des collaborations, et par extension, du processus de conception dans sa totalité. Cette évaluation de la performance exige la définition de plusieurs éléments clefs tels que : les objets à évaluer, les indicateurs de performance et les variables d'actions. Afin de définir l'objet d'évaluation, ces travaux s'appuient sur une étude de la littérature afin de proposer un méta-modèle de la conception collaborative. La mesure de la performance de ces collaborations est quant à elle basée sur le concept d'interopérabilité. Cette mesure estime ainsi l'interopérabilité technique et sémantique des différentes collaborations élémentaires. Ces travaux se concluent par la proposition d'un cadre méthodologique outillé d'évaluation de la performance des collaborations. Par une approche en deux étapes (modélisation puis évaluation), ce cadre facilite l'identification des collaborations peu performantes et de leurs causes. Ce cadre est illustré et partiellement validé à l'aide d'un exemple académique et d'une étude de cas dans le cadre de la conception. / A design process, whether for a product or for a service, is composed of a large number of activities connected by many data and information exchanges. The quality of these exchanges, called collaborations, requires being able to send and receive data and information which are useful, understandable and unambiguous to the different designers involved. The research question is thus focused on the definition and evaluation of the performance of collaborations, and by extension, of the design process in its entirety. This performance evaluation requires the definition of several key elements such as object(s) to be evaluated, the performance indicator(s) and action variable(s).In order to define the object of evaluation, this research relies on a study of the literature resulting in a meta-model of collaborative process. The measurement of the performance of these collaborations is for its part based on the concept of interoperability. The measurement of the performance of the collaborations is for its part based on the concept of interoperability. Furthermore, this measure estimates the technical and conceptual interoperability of the different elementary collaborations. This work is concluded by proposing a tooled methodological framework for collaborations' performance evaluation. Through a two-step approach (modeling and evaluation), this framework facilitates the identification of inefficient collaborations and their causes. This framework is illustrated and partially validated using an academic example and a case study in design domain.
7

Adaptabilité des flux multimédia appliquée au télé-diagnostic médical / Adaptability of multimedia streams applied to medical telediagnosis

Muthada Pottayya, Ronnie 08 December 2017 (has links)
Dans le domaine médical, la plupart des établissements (hôpitaux, cliniques, …) utilisent des applications distribuées dans le cadre de la télémédecine. Comme la sécurité de l’information est primordiale dans ces établissements,ces applications doivent pouvoir traverser les barrières de sécurité (passerelles sécurisées comme les proxies Web, les pare-feu, …). Le protocole UDP (User Datagram Protocol en anglais), qui est classiquement recommandé pour les applications de vidéo conférence ou toutes autres données soumises à la contrainte temps-réel, n’est pas utilisable par ces dispositifs de sécurité (sauf si des ports fixes sont explicitement configurés : ce qui est considéré comme une violation de sécurité au sein de ces établissements). Dans cette thèse, nous proposons une nouvelle plateforme appelée VAGABOND (Video Adaptation framework, crossing security GAteways, Based ON transcoDing) qui fonctionne de manière très efficace et originale sur la base du protocole TCP (Transmission Control Protocol). VAGABOND est composé de proxies d’adaptation,appelés des AP (pour Adaptation Proxy), qui ont été conçus pour prendre en considération les préférences utilisateurs des professionnels de santé, les hétérogénéités des périphériques,et les variations dynamiques de la bande passante dans un réseau. VAGABOND est capable de s’adapter tout aussi bien au niveau utilisateur qu’au niveau réseau. La loi binômiale et l’inférence bayésienne sur une proportion binômiale sont utilisées pour déclencher des adaptations de profils utilisateurs. Ainsi, nous souhaitons être plus tolérants aux fortes variations de la bande passante d'un réseau. Avec une précision plus fine et grâce à ces lois de probabilité,l'adaptation du profil utilisateur n'est déclenchée que lorsque des congestions réseau sévères surviennent.Enfin, TCP étant un protocole de transport fiable et en mode connecté,nous avons eu besoin de concevoir et d'utiliser de nouvelles stratégies d'adaptation intelligentes avec la transmission de données afin de faire face aux problèmes de latence et à la temporisation des sockets. / In the medical area, most of medical facilities (hospitals, clinics, ldots) use distributed applications in the context of telemedecine.As information security is mandatory, these applications must be able to cross the security protocols (secured gateways like proxies, firewalls, ldots). User Datagram Protocol (UDP), which is classically recommended for videoconferencing applications, does not cross firewalls or proxies unless explicitly configured fixed ports are declared. These fixed ports are considered as a security breach.In this thesis, we propose a novel platform called VAGABOND (Video Adaptation framework, crossing security GAteways, Based ON transcoDing) which works, in a very efficient and original way; on TCP (Transmission Control Protocol). VAGABOND is composed of Adaptation Proxies (APs), which have been designed to take into consideration medical experts videoconferencing preferences, device heterogeneities, and network dynamic bandwidth variations. VAGABOND is able to adapt itself at the user and network levels.The cumulative binomial probability law and the Bayesian inference on a binomial proportion are used to trigger user profile adaptations. In fact, we aim at being more tolerant to severe network bandwidth variations. With a finer precision and following these probability laws, user profile adaptation is only triggered when severe network congestions arise. However, as TCP is a reliable transport protocol, we needed to design and to employ new intelligent adaptation strategies together with data transmission in order to cope with latency issues and sockets timeout.
8

Approximation of OLAP queries on data warehouses / Approximation aux requêtes OLAP sur les entrepôts de données

Cao, Phuong Thao 20 June 2013 (has links)
Nous étudions les réponses proches à des requêtes OLAP sur les entrepôts de données. Nous considérons les réponses relatives aux requêtes OLAP sur un schéma, comme les distributions avec la distance L1 et rapprocher les réponses sans stocker totalement l'entrepôt de données. Nous présentons d'abord trois méthodes spécifiques: l'échantillonnage uniforme, l'échantillonnage basé sur la mesure et le modèle statistique. Nous introduisons également une distance d'édition entre les entrepôts de données avec des opérations d'édition adaptées aux entrepôts de données. Puis, dans l'échange de données OLAP, nous étudions comment échantillonner chaque source et combiner les échantillons pour rapprocher toutes requêtes OLAP. Nous examinons ensuite un contexte streaming, où un entrepôt de données est construit par les flux de différentes sources. Nous montrons une borne inférieure de la taille de la mémoire nécessaire aux requêtes approximatives. Dans ce cas, nous avons les réponses pour les requêtes OLAP avec une mémoire finie. Nous décrivons également une méthode pour découvrir les dépendances statistique, une nouvelle notion que nous introduisons. Nous recherchons ces dépendances en basant sur l'arbre de décision. Nous appliquons la méthode à deux entrepôts de données. Le premier simule les données de capteurs, qui fournissent des paramètres météorologiques au fil du temps et de l'emplacement à partir de différentes sources. Le deuxième est la collecte de RSS à partir des sites web sur Internet. / We study the approximate answers to OLAP queries on data warehouses. We consider the relative answers to OLAP queries on a schema, as distributions with the L1 distance and approximate the answers without storing the entire data warehouse. We first introduce three specific methods: the uniform sampling, the measure-based sampling and the statistical model. We introduce also an edit distance between data warehouses with edit operations adapted for data warehouses. Then, in the OLAP data exchange, we study how to sample each source and combine the samples to approximate any OLAP query. We next consider a streaming context, where a data warehouse is built by streams of different sources. We show a lower bound on the size of the memory necessary to approximate queries. In this case, we approximate OLAP queries with a finite memory. We describe also a method to discover the statistical dependencies, a new notion we introduce. We are looking for them based on the decision tree. We apply the method to two data warehouses. The first one simulates the data of sensors, which provide weather parameters over time and location from different sources. The second one is the collection of RSS from the web sites on Internet.
9

Ingéniérie des Systèmes d'Information Coopératifs, Application aux Systèmes d'Information Hospitaliers

Azami, Ikram El 20 March 2012 (has links)
Dans cette thèse, nous traitons les systèmes d’information hospitaliers (SIH), nous analysons leurs problématiques de conception, d’interopérabilité et de communication, dans l’objectif de contribuer à la conception d’un SIH canonique, coopératif, et communicant, ainsi de modéliser les échanges entre ses composants et également avec les autres systèmes impliqués dans la prise en charge du patient dans un réseau de soin. Nous proposons une structure et un modèle de conception d’un SIH canonique en se basant sur trois concepts principaux responsables de la production de l’information médicale, à savoir, le cas pathologique, le Poste de Production de l’Information Médicale (PPIM) et l’activité médicale elle même. Cette dernière, étant modélisée sur la notion d’arbre, permettra une meilleure structuration du processus de soin.Autant, dans l’optique d'assurer la continuité de soins, nous fournissons un modèle d’échange de données médicales à base du standard XML. Ce modèle consiste en un ensemble de données pertinentes organisées autours de cinq catégories : les données du patient, les données sur les antécédents du patient, les données de l’activité médicale, les données des prescriptions médicales et les données sur les documents médicaux (images, compte rendu…).Enfin, nous décrivons une solution d’intégration des systèmes d’information hospitaliers. La solution est inspirée de l’ingénierie des systèmes d’information coopératifs et consiste en une architecture de médiation structurée en trois niveaux : le niveau système d’information, le niveau médiation, et le niveau utilisateur. L’architecture propose une organisation modulaire des systèmes d'information hospitaliers et contribue à satisfaire l’intégration des données, des fonctions et du workflow de l’information médicale. / In this thesis, we deal with hospital information systems (HIS), we analyze their design issues, interoperability and communication, with the aim of contributing to the design of a canonical, cooperative, and communicative HIS, and model the exchanges between its components and also with other systems involved in the management of patient in a healthcare network.We propose a structure and a conceptual model of a canonical HIS based on three main concepts involved in the production of healthcare data, namely, the pathological case, the Production Post of Healthcare Data (PPHD) and medical activity itself. The latter, being modeled as a tree, will allow better structuring of the care process.However, in view of ensuring continuity of care, we provide an XML-based model for exchanging medical data. This model consists of a set of relevant data organized around five categories: patient data, data on patient history, data of medical activity, data of medical prescriptions and medical records data (images, reporting ...).Finally, we describe a solution for integrating hospital information systems. The solution is inspired by the engineering of cooperatives information systems and consists of mediation-based architecture, structured into three levels: the level of information systems, the level of mediation, and the user level. The architecture offers a modular organization of hospital information systems and helps to insure data, function and workflow integration.
10

Systèmes d'information communautaires. Cas du transport international de fret

Tran Dac, Khoa 26 January 1996 (has links) (PDF)
Cette thèse cherche à comprendre les enjeux, les démarches et les orientations des systèmes d'information communautaires des maillons stratégiques de la chaîne de transport (les ports et les aéroports) à travers une étude approfondie des interrelations entre ces systèmes et les acteurs de transport sous l'effet des évolutions économiques, technologiques et organisationnelles. Sous la pression des concurrences verticales, leurs bilans sont en général mitigés. Malgré cela ces systèmes restent nécessaires car ils ont apporté des contributions parfois importantes. Dans ces derniers temps on voit apparaître un nombre croissant de ces systèmes dans ces plates-formes. Dans les domaines économique et organisationnel, ces systèmes permettent à différents acteurs d'améliorer leur productivité et les services rendus à leurs clients. Dans le domaine juridique la mise en place de ces systèmes a permis la simplification et la révision de certains règlements, en particulier douaniers. Dans le domaine technique, le développement de ces systèmes a enrichi les savoir-faire sur l'informatique de gestion des plates-formes de fret et contribué à la définition de nouveaux messages dans le processus de normalisation. Par ailleurs, on voit que ces systèmes ne modifient pas le rapport de forces existant entre les acteurs. Enfin, on remarque que la rapide évolution de la technologie a pesé lourdement sur ces systèmes. Cependant, de l'autre côté, elle promet aussi de nouveaux services qui viendront enrichir les fonctionnalités existantes de ces systèmes. Parmi ces services, on peut constater ceux du marché virtuel et ceux qui sont liés au commerce électronique et à l'échange automatique multiforme, multimédia et multistandard.

Page generated in 0.4684 seconds