• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 778
  • 433
  • 286
  • 2
  • Tagged with
  • 1499
  • 1499
  • 1499
  • 1499
  • 662
  • 623
  • 245
  • 155
  • 152
  • 110
  • 104
  • 101
  • 99
  • 99
  • 94
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
341

Proposition d'une modélisation conceptuelle d'alignement stratégique : La méthode INSTAL.

Thevenet, Laure-Hélène 11 December 2009 (has links) (PDF)
L'alignement stratégique des Systèmes d'Information (SI) existe lorsque les buts de l'entreprise sont en harmonie, en correspondance, avec les processus métier et les systèmes qui les supportent. Comme le montrent différents rapports, la problématique de l'alignement du SI avec la stratégie représente une des principales préoccupations des Directions des SI depuis une dizaine d'années. C'est une préoccupation importante au sujet de laquelle les entreprises s'attendent à plus de maturité de la pratique. En effet, même s'il est possible de construire des SI performants et de définir la stratégie de l'entreprise, il est indispensable que ces deux ensembles soient alignés afin d'optimiser la performance de l'entreprise. Si l'intérêt de l'alignement est largement reconnu, sa mise en œuvre reste trop souvent limitée. La méthode proposée, INSTAL (INtentional STrategic ALignment), s'intéresse à une nouvelle situation d'ingénierie des SI, qui ne correspond ni au cycle de vie traditionnel en ingénierie des exigences (avec une propagation des exigences sur la solution), ni à une mise en correspondance d'exigences, mais à une situation différente dans laquelle on s'adresse à un ensemble d'éléments liés que l'on cherche à faire évoluer ensemble (coévolution). L'évolution est déclenchée par le changement de modèle du business (stratégie) ou l'analyse des SI et des processus métier (niveau opérationnel). La méthode proposée pour cette nouvelle situation d'ingénierie des SI propose une modélisation de l'ensemble des éléments liés et guide la démarche de modélisation, d'analyse, et d'évolution de l'alignement stratégique. Contrairement aux autres approches, qui représentent l'alignement stratégique en termes de dépendances entre des buts ou des éléments individuels, ce sont les intentions d'alignement partagées par les deux niveaux à aligner (stratégique et opérationnel) qui représentent ici l'alignement stratégique. Ceci est une caractéristique tout à fait distinctive de la méthode INSTAL, dont l'originalité réside dans cette modélisation explicite de l'alignement. La modélisation de la méthode INSTAL permet (1) de modéliser l'alignement en termes d'intentions partagées par les éléments à aligner dans un modèle pivot, (2) de définir des liens d'alignement complexes entre les intentions d'alignement et les éléments existants de l'entreprise en précisant le rôle joué par chaque élément dans le lien, et enfin (3) de définir des métriques et mesures qui complètent les liens d'alignement. INSTAL propose une démarche méthodologique qui guide l'évolution de l'alignement stratégique en prenant en compte de nouvelles exigences d'alignement et en analysant l'alignement actuel (As-Is) (i.e. les modèles pivot, les liens d'alignement et les métriques / mesures). L'analyse du As-Is permet de découvrir des exigences d'évolution du niveau opérationnel (du SI et des processus métier) nécessaires à la mise en place d'une situation To- Be "mieux" alignée. Cette recherche a été validée à travers plusieurs cas d'études dont celui d'une entité de la Banque De Détail France du groupe BNP Paribas, qui a financé cette thèse.
342

Metrique rang et cryptographie

Loidreau, Pierre 25 January 2007 (has links) (PDF)
Dans ce document sont présentées mes thématiques de recherche concernant l'étude des codes correcteurs d'erreurs à des fins cryptographiques. L'essentiel de sa composition est dédié au sujet principal de mes recherches commené un an avant la fin de la thèse à savoir l'étude <br />des cryptosystémes fondés sur des familles de codes décodables en métrique rang.
343

Méthodologie de test pour cartes mixtes analogiques-numériques

Gilles, Bertrand 07 July 2009 (has links) (PDF)
Le problème abordé dans cette thèse concerne le test de cartes mixtes en maintenance. Dans le domaine du test matériel, de nombreuses méthodes et outils de test existent, ciblant principalement le test de circuits en phase de conception et de production. Peu d'intérêt a été porté jusqu'à présent au test de cartes mixtes en phase de maintenance. Pourtant, certains systèmes comme par exemple les systèmes militaires doivent rester opérationnels pendant plusieurs décennies. Il est alors important de s'assurer que les fonctionnalités des cartes électroniques composant ces systèmes ne se dégradent pas au cours du temps. D'autre part, lorsqu'une carte est en panne, une aide au diagnostic s'avère précieuse lorsqu'il faut réparer. Nous proposons une méthodologie de test fonctionnel adaptée au contexte de la maintenance. Cette méthodologie permet une modélisation fonctionnelle uniforme des composants analogiques, numériques et mixtes de la carte à tester et est flexible vis-à-vis de la quantité d'informations disponibles sur la carte. La génération des données de test est pilotée par des stratégies de test globales (bien adaptées à la maintenance préventive) ou locales (plus appropriées dans le cas de la maintenance corrective). L'expertise et les pratiques industrielles des ingénieurs de test en maintenance, qui sont indispensables, sont prises en compte par la méthodologie sous la forme de modèles de test et de tactiques de test qui précisent le processus de génération des données de test. La méthodologie proposée est implantée dans un outil prototype en utilisant la programmation logique par contraintes, et son application sur quelques exemples de cartes mixtes est discutée.
344

M��thode de Partitionnement pour le traitement distribu�� et parall��le de donn��es XML.

Malla, Noor 21 September 2012 (has links) (PDF)
Durant cette derni��re d��cennie, la diffusion du format XML pour repr��senter les donn��es g��n��r��es par et ��chang��es sur le Web a ��t�� accompagn��e par la mise en ��uvre de nombreux moteurs d'��valuation de requ��tes et de mises �� jour XQuery. Parmi ces moteurs, les syst��mes " m��moire centrale " (Main-memory Systems) jouent un r��le tr��s important dans de nombreuses applications. La gestion et l'int��gration de ces syst��mes dans des environnements de programmation sont tr��s faciles. Cependant, ces syst��mes ont des probl��mes de passage �� l'��chelle puisqu'ils requi��rent le chargement complet des documents en m��moire centrale avant traitement.Cette th��se pr��sente une technique de partitionnement des documents XML qui permet aux moteurs " m��moire principale " d'��valuer des expressions XQuery (requ��tes et mises �� jour) pour des documents de tr��s grandes tailles. Cette m��thode de partitionnement s'applique �� une classe de requ��tes et mises �� jour pertinentes et fr��quentes, dites requ��tes et mises �� jour it��ratives.Cette th��se propose une technique d'analyse statique pour reconna��tre les expressions " it��ratives ". Cette analyse statique est bas��e sur l'extraction de chemins �� partir de l'expression XQuery, sans utilisation d'information suppl��mentaire sur le sch��ma. Des algorithmes sont sp��cifi��s, utilisant les chemins extraits par l'��tape pr��c��dente, pour partitionner les documents en entr��e en plusieurs parties, de sorte que la requ��te ou la mise �� jour peut ��tre ��valu��e sur chaque partie s��par��ment afin de calculer le r��sultat final par simple concat��nation des r��sultats obtenus pour chaque partie. Ces algorithmes sont mis en ��uvre en " streaming " et leur efficacit�� est valid��e exp��rimentalement.En plus, cette m��thode de partitionnement est caract��ris��e ��galement par le fait qu'elle peut ��tre facilement impl��ment��e en utilisant le paradigme MapReduce, permettant ainsi d'��valuer une requ��te ou une mise �� jour en parall��le sur les donn��es partitionn��es.
345

Please erase this article, thank you

Please Erase This Article, Thank You, Please Erase This Article, Thank You 17 October 2012 (has links) (PDF)
Concurrency is concerned with systems of multiple computing agents that interact with each other. Bisimilarity is one of the main representatives of these. Concurrent Constrain Programming (ccp) is a formalism that combines the traditional and algebraic view of process calculi with a declarative one based upon first-order logic. The standard definition of bisimilarity is not completely satisfactory for ccp since it yields an equivalence that is too fine grained. By building upon recent foundational investigations, we introduce a labeled transition semantics and a novel notion of bisimilarity that is fully abstract w.r.t. the observational equivalence in ccp. When the state space of a system is finite, the ordinary notion of bisimilarity can be computed via the partition refinement algorithm, but unfortunately, this algorithm does not work for ccp bisimilarity. Hence, we provide an algorithm that allows us to verify strong bisimilarity for ccp, modifying the algorithm by using a pre-refinement and a partition function based on the irredundant bisimilarity. Weak bisimilarity is a central behavioral equivalence in process calculi and it is obtained from the strong case by taking into account only the actions that are observable in the system. Typically the standard partition refinement can also be used for deciding weak bisimilarity simply by using Milner's reduction from weak to strong; a technique referred to as saturation. We demonstrate that the above-mentioned saturation technique does not work for ccp. We give a reduction that allows us to use the ccp partition refinement algorithm for deciding this equivalence.
346

MADISE: Une approche d'ingénierie des méthodes pour améliorer la prise de décision dans l'ingénierie des systèmes d'information

Kornyshova, Elena 13 December 2011 (has links) (PDF)
L'objectif de cette thèse est de proposer une approche (MADISE - MAke Decisions in Information Systems Engineering), pour améliorer la prise de décision (DM - Decision-making) dans l'ingénierie des systèmes d'information, basée sur les principes d'ingénierie de méthodes. Cette approche comprend quatre éléments centrés sur la prise de décision : une ontologie, une famille de méthodes, un processus de configuration et un référentiel méthodologique. L'ontologie de prise de décisions (DMO) est une ontologie de connaissances sur la prise de décision. Son objectif principal est de formaliser la situation de DM et les exigences pour la DM. La famille de méthodes de méthodes de prise de décision est une collection de composants de méthodes de prise de décisions. Les composants décrivent les activités de prise de décision associées au contexte spécifique de leur utilisation. Le processus de configuration de famille de méthodes est un processus qui accompagne les ingénieurs des SI dans l'application de la famille de méthodes. Ce processus guide la sélection et le montage des composants dans une méthode d'application adaptée à une situation donnée. Le référentiel méthodologique fournit aux ingénieurs des SI un support méthodologique pour la réalisation des activités de DM. Pour les besoins de l'approche MADISE, certains principes de l'ingénierie des méthodes ont été développés : la notion de famille de méthodes, une approche pour la contextualisation des composants de méthode et une approche basée sur des indicateurs pour la configuration des familles en fonction des situations. Ces éléments sont appliqués à des méthodes de prise de décisions afin d'atteindre les objectifs principaux de recherche.
347

Théorie des Types et Procédures de Décision

Strub, Pierre-Yves 02 July 2008 (has links) (PDF)
Le but de cette thèse est l'étude d'un système logique formel dans lequel les preuves formelles de propriétés mathématiques sont menées dans un style plus proches des pratiques des mathématiciens.<br /><br /> Notre principal apport est la définition et l'étude du Calcul des Constructions Inductives Congruentes, une extension du Calcul des Constructions Inductives (CIC), intégrant au sein de son mécanisme de calcul des procédures de décisions pour des théories equationnelles au premier ordre.<br /><br /> Nous montrons que ce calcul possède toutes les propriétés attendues: confluence, normalisation forte, cohérence logique et décidabilité de la vérification de types sont préservées. En tant que tel, notre calcul peut être vu comme une restriction décidable du Calcul des Constructions Extentionnelles et peut servir comme base pour l'extension de l'assistant à la preuve Coq.
348

Analyse statique pour l'optimisation des mises à jour de documents XML temporels

Baazizi, Mohamed-Amine 07 September 2012 (has links) (PDF)
Ces dernières années ont été marquées par l'adoption en masse de XML comme format d'échange et de représentation des données stockées sur le web. Cette évolution s'est accompagnée du développement de langages pour l'interrogation et la manipulation des données XML et de la mise en œuvre de plusieurs systèmes pour le stockage et le traitement des ces dernières. Parmi ces systèmes, les moteurs mémoire centrale ont été développés pour faire face à des besoins spécifiques d'applications qui ne nécessitant pas les fonctionnalités avancées des SGBD traditionnels. Ces moteurs offrent les mêmes fonctionnalités que les systèmes traditionnels sauf que contrairement à ces derniers, ils nécessitent de charger entièrement les documents en mémoire centrale pour pouvoir les traiter. Par conséquent, ces systèmes sont limités quant à la taille des documents pouvant être traités. Dans cette thèse nous nous intéressons aux aspects liés à l'évolution des données XML et à la gestion de la dimension temporelle de celles-ci. Cette thèse comprend deux parties ayant comme objectif commun le développement de méthodes efficaces pour le traitement des documents XML volumineux en utilisant les moteurs mémoire centrale. Dans la première partie nous nous focalisons sur la mise à jour des documents XML statiques. Nous proposons une technique d'optimisation basée sur la projection XML et sur l'utilisation des schémas. La projection est une méthode qui a été proposée dans le cadre des requêtes afin de résoudre les limitations des moteurs mémoire centrale. Son utilisation pour le cas des mises à jour soulève de nouveaux problèmes liés notamment à la propagation des effets des mises à jour. La deuxième partie est consacrée à la construction et à la maintenance des documents temporels, toujours sous la contrainte d'espace. A cette contrainte s'ajoute la nécessité de générer des documents efficaces du point de vue du stockage. Notre contribution consiste en deux méthodes. La première méthode s'applique dans le cas général pour lequel aucune information n'est utilisée pour la construction des documents temporels. Cette méthode est conçue pour être réalisée en streaming et permet ainsi le traitement de document quasiment sans limite de taille. La deuxième méthode s'applique dans le cas où les changements sont spécifiés par des mises à jour. Elle utilise le paradigme de projection ce qui lui permet en outre de manipuler des documents volumineux de générer des documents temporels satisfaisant du point de vue du stockage.
349

Approche bioinspirée pour le contrôle des mains mécaniques

Touvet, François 22 October 2012 (has links) (PDF)
Les travaux exposés dans cette thèse sont de natures multiples mais visent tous à une meilleure compréhension du geste de saisie chez l'homme, que ce soit d'un point de vue comportemental, cinématique ou de contrôle. Lorsqu'il doit saisir un objet, l'homme s'appuie sur une structure de contrôle multi-niveaux ainsi que son expérience, ce qui lui permet d'estimer les mouvements à effectuer de manière très efficace avant même d'avoir commencé à bouger. Nous pensons que ce mode de commande peut apporter une solution innovante au double problème de l'atteinte et de la saisie par une main artificielle. Nous avons donc développé une architecture de commande distribuée reproduisant en partie ces mécanismes et capable de contrôler ce genre d'artefacts de manière efficace, déclinée en plusieurs versions en fonction du niveau de contrôle souhaité. Elle est constituée d'un ensemble d'unités d'appariement s'inspirant des structures présentes dans le Système Nerveux Central : chacune a en charge une partie du problème global à résoudre, elles intègrent des informations en provenance de la consigne et/ou d'autres unités à travers des échanges parfois redondants, et elles s'appuient sur un algorithme d'apprentissage supervisé. Afin de mieux comprendre les principes qui sous-tendent le mouvement humain nous nous sommes aussi intéressés à la modélisation de la main et du geste de saisie, que ce soit à travers un protocole d'expérimentation chez l'homme ou l'analyse de données médicales et vidéos chez le singe
350

Contribution à l'analyse complexe de documents anciens, application aux lettrines

Coustaty, Mickaël 20 October 2011 (has links) (PDF)
De nombreux projets de numérisation sont actuellement menés en France et en Europe pour sauvegarder le contenu de dizaines de milliers de documents anciens. Les images de ces documents sont utilisées par les historiens pour identifier l'historique des livres. Cette thèse s'inscrit dans le projet Navidomass (ANR-06-MDCA-012) qui a pour but de valoriser le patrimoine écrit français de la Renaissance, en proposant d'identifier ses images pour les indexer. Dans le cadre de cette thèse, nous nous sommes particulièrement intéressés aux images graphiques. Ces documents,qui sont apparus avec le début de l'imprimerie, sont composées d'images complexes puisque composées de différentes couches d'informations (images de traits).Afin de répondre à ce problème, nous proposons un modèle ontologique d'analyse complexe d'images de documents anciens. Ce modèle permet d'intégrer dans une même base les connaissances propres aux historiens, et les connaissances extraites par des traitements d'images. De par la nature complexe de ces images, les méthodes habituelles d'analyse d'images et d'extraction automatique de connaissances sont inopérantes. Nous proposons donc une nouvelle approche d'analyse des images de documents anciens qui permet de les caractériser à partir de leurs spécificités. Cette approche commence par simplifier les images en les séparant en différentes couches d'informations (formes et traits). Puis, pour chaque couche, nous venons extraire des motifs utilisés pour décrire les images. Ainsi, les images sont caractérisées à l'aide de sacs de motifs fréquents, et de sacs de traits. Pour ces deux couches d'informations, nous venons également extraire des graphes de régions qui permettent d'extraire une connaissance structurelle des images. La complexification de ces deux descriptions est insérée dans la base de connaissances, pour permettre des requêtes complexes. Le but de cette base est de proposer à l'utilisateur de rechercher une image en indiquant soit un exemple d'images recherchées, soit des éléments caractéristiques des images.

Page generated in 0.0856 seconds