• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 173
  • 49
  • 19
  • Tagged with
  • 238
  • 238
  • 88
  • 62
  • 53
  • 46
  • 45
  • 43
  • 39
  • 39
  • 39
  • 35
  • 32
  • 32
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Nature, statut et traitements informatisés des<br />données en archéologie : les enjeux des systèmes<br />d'informations archéologiques

Chaillou, Anne 19 June 2003 (has links) (PDF)
En archéologie, les données, c'est-à-dire les vestiges avec les informations dont ils sont porteurs ainsi que les constructions intellectuelles dont ils sont l'objet, constituent le point clef de la recherche. L'enregistrement de ces données dans une structure logique permettant de les retrouver et de les comparer est nécessaire. L'arrivée de l'informatique en archéologie permet de systématiser cet archivage et de le rendre plus accessible. Les enjeux des bases de données seront d'assurer des recherches croisées entre différentes bases et une pérennité des données. Pour garantir ces enjeux, il faut homogénéiser les unités documentaires, les codes d'inventaires, la description et le vocabulaire utlisés pour celles-ci. Cette homogénéisation devrait être assurée dans un tronc commun qui regrouperait les données et éléments d'archivage minimaux nécessaires à la gestion des données. Une solution, fondée sur une étude comparative de bases existantes, est présentée dans cette thèse.
62

L'ingénierie de l'alignement : Concepts, Modèles et Processus.<br />La méthode ACEM pour la correction et l'évolution d'un système d'information aux processus d'entreprise

Etien, Anne 13 March 2006 (has links) (PDF)
Les organisations subissent de fréquents changements. Pour rester compétitives, leurs<br />processus d'entreprise et leur système d'information doivent évoluer de concert, ce qui n'est<br />pas aisé. Bien souvent, l'évolution se fait de manière séparée voire divergente. Or, une rupture<br />de la relation d'alignement entre système et processus entraîne une baisse de la performance<br />de l'organisation. L'organisation a donc besoin de maîtriser l'évolution conjointe du système<br />et des processus, ce qui suppose de savoir si le système et les processus gèrent la même<br />information ou permettent d'atteindre les mêmes buts, pour pouvoir ensuite corriger le<br />système ou les processus. Les directeurs de systèmes d'information considèrent le problème<br />de l'alignement comme leur priorité absolue mais ils admettent qu'il reste encore mal posé et,<br />a fortiori, mal résolu.<br />De nombreux chercheurs s'intéressent au problème de l'alignement, le plus souvent sous<br />l'angle de l'alignement de la politique du développement du système d'information sur la<br />politique de développement de l'entreprise (alignement stratégique). Nous proposons de nous<br />écarter de cette vision réductrice en abordant le problème de l'alignement, de façon<br />rigoureuse et formelle, dans un contexte d'évolution qui correspond à la réalité quotidienne<br />des organisations et permet de mieux comprendre les enjeux et les concepts de l'ingénierie de<br />l'alignement.<br />Cette thèse apporte des réponses au problème de l'alignement et de son maintien au cours du<br />temps. Nous définissons précisément et formellement les concepts nécessaires à la mesure, à<br />la correction et à l'évolution de l'alignement entre un système et des processus d'entreprise.<br />Ainsi, nous proposons dix métriques permettant d'évaluer différents aspects complémentaires<br />de la relation d'alignement. Ces métriques sont bâties sur l'utilisation de modèles pour<br />représenter le système et les processus d'entreprise et la définition de deux types de liens<br />entre les concepts de ces modèles.<br />Nous proposons également une méthode, la méthode ACEM (Alignment Correction and<br />Evolution Method), pour corriger l'alignement et faire évoluer conjointement le système et les<br />processus d'entreprise. Cette méthode matérialise la relation d'alignement à un niveau<br />intentionnel par le biais d'un modèle pivot. Elle guide les ingénieurs d'alignement dans la<br />réalisation des différentes étapes du processus tout en leur laissant une grande liberté de<br />choix. L'ingénieur fait évoluer le modèle pivot en exprimant explicitement les exigences<br />d'évolution sous forme d'opérateurs d'écart.<br />Ces métriques et ces opérateurs doivent pouvoir être utilisés dans des contextes variés. C'est<br />pourquoi nous les avons définis à un niveau générique, indépendamment de tout méta-modèle<br />spécifique. Des processus permettent de les générer de façon rigoureuse et aisée pour des<br />méta-modèles particuliers sans faire appel aux connaissances des ingénieurs ou aux<br />particularités d'un projet ou d'une méthode.
63

Combinaison de spécifications formelles pour la modélisation des systèmes d'information

Gervais, Frédéric 04 December 2006 (has links) (PDF)
L'objectif de cette thèse est de profiter des avantages de deux formes de modélisation complémentaires pour représenter de manière formelle les systèmes d'information (SI). Un SI est un système informatisé qui permet de rassembler les informations d'une organisation et qui fournit des opérations pour les manipuler. Les SI considérés sont développés autour de systèmes de gestion de bases de données (SGBD). Notre motivation est d'utiliser des notations et des techniques formelles pour les concevoir, contrairement aux méthodes actuelles qui sont au mieux semi-formelles. D'une part, EB3 est un langage formel basé sur les traces d'événements qui a été défini pour la spécification des SI. En particulier, EB3 met en avant le comportement dynamique du système. D'autre part, B est un langage formel basé sur les états qui se prête bien à la spécification des propriétés statiques des SI. Nous avons défini une nouvelle approche, appelée EB4, qui bénéficie à la fois des avantages d'EB3 et B. Dans un premier temps, les processus décrits en EB3 sont utilisés pour représenter et pour valider le comportement du système. Ensuite, la spécification est traduite en B pour spécifier et vérifier les principales propriétés statiques du SI. Enfin, nous avons défini des techniques de synthèse automatique de transactions BD relationnelles à partir du modèle de données d'EB3 pour compléter le cycle de développement du SI.
64

L'Ingénierie des Exigences appliquée aux Systèmes d'Information

Salinesi, Camille 07 December 2010 (has links) (PDF)
Ce mémoire de thèse d'habilitation présente une synthèse des travaux de recherche et le projet de Camille Salinesi dans le domaine de l'Ingénierie des Exigences.
65

SIGA3D : modélisation, échange et visualisation d'objets 3D du bâtiment et d'objets urbains géoréférencés ; application aux IFC pour la gestion technique de patrimoine immobilier et urbain / SIGA3D : modeling, exchange and visualization of 3D building objects and urban georeferenced objects. Application to IFC for building and urban facility management

Mignard, Clément 13 November 2012 (has links)
Cette thèse définit une nouvelle approche de gestion technique de biens immobiliers et urbains. Pour cela, un processus de production et de gestion de l’information du bâtiment, de son environnement proche et des objets urbains est défini. Il permet de gérer ces objets tout au long de leur cycle de vie, au sein d’un concept appelé Urban Facility Management, ou gestion technique de patrimoine urbain. Cette technologie s’appuie sur un Modèle d’Information Urbain qui permet de modéliser dans une ontologie dynamique et évolutive toute l’information de la ville et du bâtiment. Un mécanisme de niveaux de détail géométrico-contextuels a par ailleurs été définit afin de supporter la montée en charge d’un tel système. En effet, le nombre d’objets à gérer dans une scène par rapport à un système de modélisation du bâtiment est bien supérieur, tout comme la superficie de l’information à traiter. Aussi, les niveaux de détail contextuels permettent d’optimiser la scène en fonction de critères sémantiques.La proposition que nous avons faite se base sur une architecture dérivée des travaux en systèmes hypermédia adaptatifs. Elle est composée de six couches permettant de résoudre les problématiques de manière systémique : une couche de connexion aux sources de données, une couche d’import de ces données dans le système, une couche sémantique, une couche de contextualisation, une couche de connexion et une couche d’interface avec l’utilisateur. Cette architecture autorise la définition d’un workflow que nous avons décomposé au sein d’une architecture de processus. Celui-ci décrit la manière d’acquérir des données à la fois de sources SIG mais aussi IFC ou plus généralement CAO. Ces données sont importées dans le modèle d’information de la ville au sein d’une ontologie définie à l’aide d’outils présents dans la couche sémantique. Ces outils consistent en un ensemble d’opérateurs permettant de définir des concepts, relations et énoncés logiques. Ils sont couplés à un mécanisme de contextes locaux qui permet de définir des niveaux de détail contextuels au sein de l’ontologie. Associé à des représentations graphiques provenant des sources données, il est ainsi possible d’associer plusieurs représentations géométriques, 2D ou 3D, à un objet de notre base de connaissance, et de choisir le modèle à appliquer en fonction de critères sémantiques. La couche de gestion du contexte apporte des informations contextuelles au niveau des modèles de données grâce à un mécanisme basé sur les named graphs. Une fois l’ontologie mise en place, les données peuvent être exploitées par l’intermédiaire d’un moteur graphique que nous avons développé et qui gère l’information contextuelle et les niveaux de détail.Cette architecture de processus a été implémentée et adaptée sur la plateforme Active3D. Une partie des travaux de recherche a consisté à adapter l’architecture formelle du modèle d’information urbain à l’architecture existante afin de répondre aux contraintes industrielles du projet et aux critères de performances requis. La dernière partie de cette thèse présente les développements techniques nécessaires à la réalisation de ces objectifs / This thesis defines a new approach in urban and building facility management. A production and information management process of the building, its immediate environment and urban objects has been defined. It allows to manage these objects throughout their life cycle, in a concept called Urban Facility Management. This technology relies on an Urban Information Model to model all the information of cities and buildings in a dynamic and evolutive ontology. A mechanism for geometric and semantic levels of detail has also been defined to support the scalability of such a system. Indeed, the number of objects to be managed in a scene, compared to a building modeling system, is much higher, as the area of information processing. Also, contextual levels of detail optimize the scene according to semantic criteria.The proposal we made is based on an architecture derived from work in adaptive hypermedia systems. It consists of six layers that aim at solving problems in a systemic form: a connecting layer to data sources, a layer to import these data into the system, a semantic layer, a level of contextualization, a connection layer and an interface layer with the user. This architecture allows the definition of a workflow that we decomposed in an architecture of processes. This one describes how to acquire data from both GIS sources and IFC, but also from CAD in general. Data are then imported into the city information model into an ontology defined using tools from the semantic layer. These tools are composed of a set of operators that aim at defining concepts, relations and logical statements. They are coupled to a mechanism that allows the definition of local contexts used to express contextual levels of details within the ontology. Associated with graphical representations issued from diverse data sources, it become possible to combine several geometric representations, 2D or 3D, to an object of the knowledge base, and choose the representation to be displayed according to semantic criteria. The layer for context management provides contextual information on global data models through a mechanism based on named graphs. Once the ontology is developed, data can be exploited via a graphical engine that has been specially developed and that manages contextual information and levels of details.This architecture of processes has been implemented and adapted to the platform Active3D. Part of the research has been to adapt the formal architecture of the urban information model to the existing architecture. The goal was to provide a solution to the industrial constraints of the project and required performance criteria. The last part of this thesis therefore presents the technical developments necessary to achieve these goals
66

Vérification de spécifications EB-3 à l'aide de techniques de model-checking / Verification of EB-3 specifications with model checking techniques

Vekris, Dimitrios 10 December 2014 (has links)
EB-3 est un langage de spécification développé pour la spécification des systèmes d'information. Le noyau du langage EB-3comprend des spécifications d'algèbre de processus afin de décrire le comportement des entités du système et des fonctions d'attributs qui sont des fonctions récursives dont l'évaluation se fait sur la trace d'exécution du système décrivant les attributs des entités. La vérification de propriétés temporelles en EB-3 est un sujet de grande importance pour des utilisateurs de EB-3. Dans cette thèse, on se focalise sur les propriétés de vivacité concernant des systèmes d'information exprimant l'éventualité que certaines actions puissent s'exécuter. La vérification des propriétés de vivacité se fait à l'aide de model checking. Dans un premier temps, on présente une sémantique opérationnelle deEB-3, selon laquelle les fonctions d'attributs sont évaluées pendant l'exécution du programme puis stockées. Cette sémantique nous permet de définir une traduction automatique de EB-3 vers LNT, qui est un langage simultané enrichi d'une algèbre de processus. Notre traduction assure la correspondance un à un entre les états et les transitions des systèmes étiquetés de transition correspondent respectivement à des spécifications EB-3 et LNT. Ensuite, on automatise la traduction grâce à l'outil EB3toLNT fournissant aux utilisateurs de EB-3 une tous les outils de vérification fonctionnelle disponible dans CADP. Dans le but d'améliorer les résultats de notre approche concernant le model checking, on explore des techniques d'abstraction dédiées aux systèmes d'information spécifiées en EB-3. En particulier, on se focalise sur une famille spécifique de systèmes qui s'appellent paramétriques dont le comportement varie en fonction de la valeur prédéfinie d'un paramètre du système. Enfin, on applique cette méthode dans le contexte de EB-3 / EB-3 is a specification language for information systems. The core of the EB-3 language consists of process algebraic specifications describing the behaviour of entities in a system, and attribute functions that are recursive functions evaluated on the system execution trace describing entity attributes. The verification ofEB-3 specifications against temporal properties is of great interest to users of EB-3. In this thesis, we focus on liveness properties of information systems, which express the eventuality that certain actions take place. The verification of liveness properties can beachieved with model checking. First, we present an operational semantics for EB-3 programs, in which attribute functions are computed during program evolution and their values are stored into program memory. This semantics permits us to define an automatic translation from EB-3 to LNT, a value-passing concurrent language with classical process algebra features. Our translation ensures the one-to-one correspondence between states and transitions of the labelled transition systems corresponding to theEB-3 and LNT specifications. Then, we automate this translation with the EB-3toLNT tool, thus equipping the EB-3 method with the functional verification features available in the model checking toolbox CADP. With the aim of improving the model checking results of this approach, we explore abstraction techniques for information systems specified inEB-3. In particular, we concentrate on a specific family of systems called parametric, whose behaviour is scaled in keeping with the predefined value of a system parameter. Finally, we apply this method on the EB-3 context
67

L'évaluation de l'impact des systèmes d'information sur les organisations gouvernementales iraniennes : le cas du Ministère des Technologies de l'Information et de la Communication / Evaluating the impact of information systems on governmentale organizations in Iran : the case of ICT Ministry

Taghizadeh, Ghasem 08 July 2011 (has links)
De nos jours les organisations publiques ont compris que les systèmes d'information sont devenus un atout stratégique. Dans ce cadre les organisations publiques gouvernementales ont recours massivement aux SI pour améliorer leur fonctionnement interne et les services qu'elles offrent aux usagers? Cependant le montant des investissements en SI s'avère élevé. Ces investissements comprennent certes le coût des technologies de l'information mais aussi des coûts immatériels liés à l'impact organisationnel des TI et le changement de nombreuses procédures en matière de management de l'information. / Owadays public organizations have realized that information systems have become a strategic asset. Within this framework governmental public organizations rely heavily on SI improve their internal operations and the services they provide to users? However the amount of investment in IS is high. These investments do include the cost of information technology but also the intangible costs associated with the organizational impact of IT and change many procedures for information management.
68

A model driven engineering approach to build secure information systems / Une approche MDE pour construire des systèmes d'information sécurisés

Nguyen, Thi Mai 13 January 2017 (has links)
Aujourd’hui, les organisations s'appuient de plus en plus sur les systèmes d'information pour collecter, manipuler et échanger leurs données. Dans ces systèmes, la sécurité joue un rôle essentiel. En effet, toute atteinte à la sécurité peut entraîner de graves conséquences, voire détruire la réputation d'une organisation. Par conséquent, des précautions suffisantes doivent être prises en compte. De plus, il est bien connu que plus tôt un problème est détecté, moins cher et plus facile il sera à corriger. L'objectif de cette thèse est de définir les politiques de sécurité depuis les premières phases de développement et d’assurer leur déploiement correct sur une infrastructure technologique donnée.Notre approche commence par spécifier un ensemble d'exigences de sécurité, i.e. des règles statiques et dynamiques, accompagnées de l'aspect fonctionnel d'un système basé sur UML (Unified Modeling Language). L'aspect fonctionnel est exprimé par un diagramme de classes UML, les exigences de sécurité statiques sont modélisées à l'aide de diagrammes de SecureUML, et les règles dynamiques sont représentées en utilisant des diagrammes d'activités sécurisées.Ensuite, nous définissons des règles de traduction pour obtenir des spécifications B à partir de ces modèles graphiques. La traduction vise à donner une sémantique précise à ces schémas permettant ainsi de prouver l'exactitude de ces modèles et de vérifier les politiques de sécurité par rapport au modèle fonctionnel correspondant en utilisant les outils AtelierB prover et ProB animator. La spécification B obtenue est affinée successivement à une implémentation de type base de données, qui est basée sur le paradigme AOP. Les affinements B sont également prouvés pour s'assurer que l’implémentation est correcte par rapport à la spécification abstraite initiale. Le programme d’AspectJ traduit permet la séparation du code lié à la sécurité sécurité du reste de l'application. Cette approche permet d’éviter la diffusion du code de l'application, et facilite ainsi le traçage et le maintien.Enfin, nous développons un outil qui génère automatiquement la spécification B à partir des modèles UML, et la dérivation d'une implémentation d'AspectJ à partir de la spécification B affinée. L'outil aide à décharger les développeurs des tâches difficiles et à améliorer la productivité du processus de développement / Nowadays, organizations rely more and more on information systems to collect, manipulate, and exchange their relevant and sensitive data. In these systems, security plays a vital role. Indeed, any security breach may cause serious consequences, even destroy an organization's reputation. Hence, sufficient precautions should be taken into account. Moreover, it is well recognized that the earlier an error is discovered, the easier and cheaper it is debugged. The objective of this thesis is to define adequate security policies since the early development phases and ensure their correct deployment on a given technological infrastructure. Our approach starts by specifying a set of security requirements, i.e. static and dynamic rules, along with the functional aspect of a system based on the Unified Modeling Language (UML). Fundamentally, the functional aspect is expressed using a UML class diagram, the static security requirements are modeled using SecureUML diagrams, and the dynamic rules are represented using secure activity diagrams. We then define translation rules to obtain B specifications from these graphical models. The translation aims at giving a precise semantics to these diagrams, thus proving the correctness of these models and verifying security policies with respect to the related functional model using the AtelierB prover and the ProB animator. The obtained B specification is successively refined to a database-like implementation based on the AOP paradigm. The B refinements are also proved to make sure that the implementation is correct with respect to the initial abstract specification. Our translated AspectJ-based program allows separating the security enforcement code from the rest of the application. This approach avoids scattering and tangling the application's code, thus it is easier to track and maintain. Finally, we develop a tool that automates the generation of the B specification from UML-based models and of the AspectJ program connected to a relational database management system from the B implementation. The tool helps disburden developers of the difficult and error-prone task and improve the productivity of the development process
69

Enjeux de la réduction d'échelle dans l'estimation par télédétection des déterminants climatiques

Hangnon, Hugues Yenoukoume 09 November 2022 (has links)
Ce travail s'inscrit dans le cadre de recherche sur les maladies vectorielles de Lyme et Virus du Nil au sein de l'Agence de Santé Publique du Canada (ASPC) ayant pour finalité d'évaluer et de cartographier les risques sanitaires associés à ces maladies infectieuses liées au climat aux échelles municipales, provinciales et fédérale. Dans ce contexte, cette recherche vise à démontrer la faisabilité, la pertinence et les enjeux de recourir aux méthodes de réduction d'échelle pour obtenir à une haute résolution spatio-temporelle (100/30 m et 1 jour) avec au plus des marges d'erreur de 2 unités, des déterminants climatiques et microclimatiques (DCMC) en milieu hétérogène du Canada. Un cadre méthodologique d'application des méthodes de réduction d'échelle, Random Forest Regression (RFR), Thermal sharpening (TsHARP), Pixel block intensity modulation (PBIM), a été proposé pour estimer la température de surface (LST) de MODIS 1000 m à 100/30 m. Des expérimentations basées sur cette approche ont été effectuées sur trois sites au Québec à différentes époques. Les résultats, spatialement représentatifs, ont été validés avec les températures de l'air et celles prises par de Landsat 08 avec des marges d'erreur autour de 2°C. L'analyse des résultats démontre la capacité effective des méthodes de réduction d'échelle à discriminer la LST dans l'espace. Toutefois, dans le contexte du projet de l'ASPC, ces résultats sont non concluants à 100/30 m en l'absence d'une plus-value significative au plan spatial de LST. Cette analyse a conduit à discuter des enjeux temporels, spatiaux, méthodologiques et de gestion de gros volumes de données en lien avec la réduction d'échelle dans le contexte du projet. / This research is part of the Public Health Agency of Canada's (PHAC) research on Lyme and West Nile Virus vector-borne diseases, which aims to assess and map the health risks associated with these climate-related infectious diseases at the municipal, provincial and federal levels. In this context, this research aims to demonstrate the feasibility, relevance and challenges of using downscaling methods to obtain high spatial and temporal resolution (100/30 m and 1 day), with margins of error of no more than 2 units, of climatic and microclimatic determinants (CMDs) in a heterogeneous Canadian environment. A methodological framework for the application of downscaling methods, Random Forest Regression (RFR), Thermal sharpening (TsHARP), Pixel block intensity modulation (PBIM), has been proposed to estimate the surface temperature (LST) from MODIS 1000 m to 100/30 m. Experiments with our approach were carried out at three sites in Quebec at different times. The spatially representative results were validated with air and Landsat 08 temperatures with error margins around 2°C. The analysis of our results demonstrates the effective capacity of downscaling methods to discriminate LST in space. However, in the context of the ASPC project, these results are inconclusive at 100/30 m in the absence of a significant, expected increase in the spatial accuracy of LST. This analysis led to a discussion of the temporal, spatial, methodological and large data volume management issues related to downscaling in the context of the project.
70

Évaluation de la qualité des données géospatiales : approche top-down et gestion de la métaqualité

Lévesque, Johann 13 April 2018 (has links)
Depuis l'avènement du numérique, la demande de données par les utilisateurs des systèmes d'information géographique (SIG) ne fait qu'augmenter. Les organismes utilisateurs se retrouvent souvent devant plusieurs sources de données géographiques potentielles et ils doivent alors évaluer la qualité de chaque source en fonction de leurs besoins. Pour ce faire, ces organismes pourraient faire appel à un expert en qualité qui pourrait les aider à déterminer s'il y a adéquation (i.e. qualité externe) entre les données et leurs besoins. Pour utiliser le système MUM, l'expert en qualité doit recueillir de l'information sur les jeux de données. Dans le domaine de la géomatique, cette information se retrouve généralement sous la forme de métadonnées émises par les producteurs de données. Le système MUM, développé par Devillers et al. [2004b], a été conçu initialement en fonction d'une approche bottom-up, où on utilise des métadonnées fines pour extraire des indicateurs globaux de qualité, à l'aide d'opérateurs d'agrégation typiques des outils SOLAP. Il s'agit là d'une solution qui permet de faciliter l'analyse de la qualité, particulièrement dans des contextes de données hétérogènes. Par contre, comme le mentionnent les concepteurs de MUM, le manque de métadonnées fines est un obstacle à l'utilisation du système MUM dans sa forme actuelle. L'objectif de la présente recherche a donc été d'élaborer une méthode de génération des métadonnées dite top-down. Cette méthode permet de générer, lorsque possible, les métadonnées fines (au niveau des occurrences, voire des primitives géométriques) d'un jeu de données à l'aide des métadonnées grossières et des opinions d'experts touchant un ensemble d'occurrences. Cette méthodologie amène l'expert en qualité à utiliser dans certains cas des sources de données différentes. Ceci soulève alors un problème concernant l'hétérogénéité de la fiabilité des sources utilisées pour évaluer la qualité externe. Le concept de métaqualité a été introduit pour répondre à ce problème d'hétérogénéité. Il permet en effet de quantifier le risque lié à l'imperfection de l'information contenue dans les indicateurs de qualité. L'enrichissement du système MUM a donc été réalisé grâce à la conception du modèle E-QIMM (Extented Quality Information Management Model) qui est une extension du modèle QIMM de Devillers [2004] et qui permet d'intégrer la dimension ± Métaqualité ¿ dans le processus d'évaluation de la qualité.

Page generated in 0.0954 seconds