• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • Tagged with
  • 8
  • 8
  • 8
  • 3
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Représentation des données spatiales à différents niveaux d'abstraction : application à l'archéoastronomie

Khoumeri, El-Hadi 28 November 2007 (has links) (PDF)
La carte est le moyen le plus naturel de transmission de l'information géographique. Elle est aussi un excellent support pour la visualisation des données analytiques sur des phénomènes à référence spatiale. Ceci inclut les cartes topographiques, aussi bien que les cartes schématiques (ex : réseau de transport urbain). Pour des considérations liées à des contraintes technologiques, la représentation du monde réel a été discrétisée, en cartographie classique, en tenant compte des projets et applications souhaitées, en représentations à différentes échelles correspondant à plusieurs niveaux d'abstraction.<br />Les producteurs de cartes maintiennent de façon identique une base de donnée par gamme d'échelle sans aucune inter-relation. De ce fait, outre les problèmes classiques de la redondance des données, et l'impossibilité de la propagation des mises à jour, le contrôle des cohérences est rendu très difficile. Pour maintenir la cohérence et éviter les redondances, la solution idéale serait une base de donnée où l'information géométrique est saisie à l'échelle la plus précise, et toutes les visualisations à des échelles moins précises seraient dérivées automatiquement à travers des processus de généralisation cartographique. Malheureusement cette dérivation ne peut être complètement automatisée. Par conséquent, le stockage explicite de plusieurs représentations de la géométrie des objets (une par échelle) s'impose. Néanmoins plusieurs solutions ont été mises en oeuvre pour parer aux inconvénients induits, dont la mise en oeuvre d'une base de donnée multi-échelle : une base de données où toutes les représentations requises coexistent et sont inter-reliées.<br />Nous présentons les besoins et les problèmes rencontrés par les spécialistes en SHS, en particulier nous mettons en évidence les problèmes soulevés dans le cadre d'une utilisation des SIG pour l'archéoastronomie, puis nous présentons les approches de résolution des problèmes ainsi que la présentation des concepts de base utilisés pour résoudre les problèmes mis en évidence. Les concepts précédents sont traités dans le cadre d'une conception orientée objets (COO). L'approche COO de la multi-représentation est basé sur une modélisation objet en UML. La validation des concepts précédents, est présenté à travers un exemple concret.<br />L'approche est illustrée par la réalisation du prototype logiciel GIS-3A sous Visual Basic ce qui permet d'une part d'implémenter les différentes notions en utilisant une conception orientée objets et d'autre part de faciliter l'intégration des ces notions dans un SIG (Arcview).
2

Élaboration d'un système de maintien de vérité : une approche orientée objet

Diri, Driss 16 April 2018 (has links)
Le but de ce mémoire est de présenter une approche orientée objet pour l’élaboration d’un Système de Maintien de Vérité à base de Justifications à Négation et Non Monotone (SMVJNNM). Un SMV est un module utilisé dans les systèmes à base de connaissances pour réviser des croyances. On distingue trois principaux types de SMV: à base de justifications, à base logique et à base d'assomptions. Ils utilisent des structures en réseau pour enregistrer les instances d'un ensemble de règles et tous s'inscrivent dans un paradigme orienté listes. Nous proposons un paradigme objet pour l’élaboration d’un SMV. Les étapes de la démarche suivie sont: étude des SMV existants, modélisation d’un SMV au niveau des connaissances, conception par patrons, implémentation et tests. Deux exemples tirés de la documentation scientifique montrent que notre système offre des fonctionnalités équivalentes à celles des SMV étudiés. Notre système a aussi été utilisé comme mini-moteur de recherche. / The objective of this master’s degree dissertation is to propose an object oriented approach for the design of negated non-monotonic justifications-based truth maintenance systems (NNMJTMS). A truth maintenance system (TMS) is a module assisting knowledge-based systems to conduct belief revision. There are three main types of TMS: justification-based, logical-based and assumption-based. All of these systems use network structures to register instances of a set of production rules according to a list-oriented paradigm. We propose in our work to adopt an object-oriented approach for the design of a TMS. We went through the following steps: review of existing TMS, modeling a TMS at the knowledge level, design and implementation using patterns and testing. To test the TMS in conjunction with a client system, two examples borrowed from scientific literature indicate that our system offers functionalities equivalent to those of the TMS found in the literature. In the first example, we validate some textbook cases. And in the second one, we test the load capacity of the TMS system while assisting a tiny search engine.
3

Orientation de l'effort des tests unitaires dans les systèmes orientés objet : une approche basée sur les métriques logicielles

Toure, Fadel 24 April 2018 (has links)
Les logiciels actuels sont de grandes tailles, complexes et critiques. Le besoin de qualité exige beaucoup de tests, ce qui consomme de grandes quantités de ressources durant le développement et la maintenance de ces systèmes. Différentes techniques permettent de réduire les coûts liés aux activités de test. Notre travail s’inscrit dans ce cadre, est a pour objectif d’orienter l’effort de test vers les composants logiciels les plus à risque à l’aide de certains attributs du code source. À travers plusieurs démarches empiriques menées sur de grands logiciels open source, développés avec la technologie orientée objet, nous avons identifié et étudié les métriques qui caractérisent l’effort de test unitaire sous certains angles. Nous avons aussi étudié les liens entre cet effort de test et les métriques des classes logicielles en incluant les indicateurs de qualité. Les indicateurs de qualité sont une métrique synthétique, que nous avons introduite dans nos travaux antérieurs, qui capture le flux de contrôle ainsi que différentes caractéristiques du logiciel. Nous avons exploré plusieurs techniques permettant d’orienter l’effort de test vers des composants à risque à partir de ces attributs de code source, en utilisant des algorithmes d’apprentissage automatique. En regroupant les métriques logicielles en familles, nous avons proposé une approche basée sur l’analyse du risque des classes logicielles. Les résultats que nous avons obtenus montrent les liens entre l’effort de test unitaire et les attributs de code source incluant les indicateurs de qualité, et suggèrent la possibilité d’orienter l’effort de test à l’aide des métriques. / Current software systems are large, complex and critical. The need for quality requires a lot of tests that consume a large amount of resources during the development and the maintenance of systems. Different techniques are used to reduce the costs of testing activities. Our work is in this context. It aims to guide the unit testing effort distribution on the riskiest software components using the source code attributes. We conducted several empirical analyses on different large object-oriented open source software systems. We identified and studied several metrics that characterize the unit testing effort according to different perspectives. We also studied their relationships with the software class metrics including quality indicators. The quality indicators are a synthetic metric that we introduced in our previous work. It captures control flow and different software attributes. We explored different approaches for unit testing effort orientation using source code attributes and machine learning algorithms. By grouping software metrics, we proposed an effort orientation approach based on software class risk analysis. In addition to the significant relationships between testing metrics and source code attributes, the results we obtained suggest the possibility of using source code metrics for unit testing effort orientation.
4

Système organisationnel et architecture d'un support d'information sur l'intégration des activités de logistique inversée au sein d'un centre de réadaptation

Chouinard, Marc 11 April 2018 (has links)
Dans ce mémoire, on traite de problèmes reliés à l'intégration et au pilotage des activités de logistique inversée au sein d'une organisation. Les activités de logistique inversée font référence à la récupération de produits inutilisés ou en fin de cycle de vie, à leur traitement et à la redistribution des matériels réutilisables. Pour illustrer les concepts abordés, un nouveau système organisationnel, qui représente le déroulement des processus opérationnels et l'exploitation des ressources de l'organisation (main-d'uvre, matériel, équipement, etc.), et une architecture de support d'information ont été proposés pour la situation vécue par un centre de réadaptation. Celui-ci, comme l'ensemble des centres de réadaptation de la province de Québec, se voit désormais confronté à la récupération et au traitement de fauteuils roulants inutilisés de sa clientèle en plus des activités courantes d'attribution et de maintenance. / Les concepts développés peuvent non seulement s'étendre aux autres centres de réadaptation, mais également s'appliquer avantageusement à plusieurs applications, autant dans le secteur de production de bien que de service.
5

Intégration des besoins des utilisateurs pour la conception de systèmes d'information interactifs.<br />Application à la conception d'un système d'information voyageurs multimodal (SIVM)

Mouloudi, Assia 04 September 2007 (has links) (PDF)
Ce travail de recherche examine la possibilité d'intégration des principes de conception centrée utilisateurs dans un processus de conception de systèmes d'information interactifs (SII). L'approche de l'analyse de l'activité produit une description des stratégies d'utilisation de ce type de systèmes. Cette description doit servir de base afin de spécifier le système à développer. L'hypothèse avancée est que pour réussir leur intégration, les données d'une analyse des usages doivent être représentées dans un formalisme le plus proche possible du langage de développement. Afin de réaliser cette intégration nous avons mis au point la méthode RAMSES. RAMSES propose une méthodologie centrée utilisateur de conception de SII en cinq étapes : recueil des données, analyse des données recueillies, modélisation du système s'appuyant sur les flux d'information, spécification et évaluation des spécifications. Cette méthode a été appliquée à la conception d'un système d'information voyageurs multimodal (SIVM). <br />En premier lieu, nous avons étudié le domaine d'application du système à concevoir : l'information multimodale des voyageurs de transports en commun confrontés à une perturbation du trafic. Nous avons construit et mis en œuvre la méthodologie de recueil et d'analyse des besoins des usagers dans différentes situations nominales et perturbées. Afin de modéliser les données recueillies, nous avons adopté un paradigme de représentation à base d'objets et de relations qui représentent les acteurs, les sites, les outils et leurs interactions. Nous avons construit un modèle générique des connaissances acquises lors de l'analyse des besoins des utilisateurs. Ce modèle a, par la suite, été transcrit dans le formalisme UML à des fins de spécification du système à concevoir. Dans la dernière partie, nous avons implémenté une application informatique basée sur ce modèle. Cette application est un outil d'aide à la conception visant à assister la validation des spécifications du système d'information interactif à concevoir.
6

Co-conception Logiciel/FPGA pour Edge-computing : promotion de la conception orientée objet / software/FPGA co-design for Edge-computing : Promoting object-oriented design

Le, Xuan Sang 31 May 2017 (has links)
L’informatique en nuage (cloud computing) est souvent le modèle de calcul le plus référencé pour l’internet des objets (Internet of Things).Ce modèle adopte une architecture où toutes les données de capteur sont stockées et traitées de façon centralisée. Malgré de nombreux avantages, cette architecture souffre d’une faible évolutivité alors même que les données disponibles sur le réseau sont en constante augmentation. Il est à noter que, déjà actuellement, plus de50 % des connexions sur Internet sont inter objets. Cela peut engendrer un problème de fiabilité dans les applications temps réel. Le calcul en périphérie (Edge computing) qui est basé sur une architecture décentralisée, est connue comme une solution pour ce problème émergent en : (1) renforçant l’équipement au bord du réseau et (2) poussant le traitement des données vers le bord.Le calcul en périphérie nécessite des noeuds de capteurs dotés d’une plus grande capacité logicielle et d’une plus grande puissance de traitement, bien que contraints en consommation d’énergie. Les systèmes matériels hybrides constitués de FPGAs et de processeurs offrent un bon compromis pour cette exigence. Les FPGAs sont connus pour permettre des calculs exhibant un parallélisme spatial, aussi que pour leur rapidité, tout en respectant un budget énergétique limité. Coupler un processeur au FPGA pour former un noeud garantit de disposer d’un environnement logiciel flexible pour ce nœud.La conception d’applications pour ce type de systèmes hybrides (réseau/logiciel/matériel) reste toujours une tâche difficile. Elle couvre un vaste domaine d’expertise allant du logiciel de haut niveau au matériel de bas niveau (FPGA). Il en résulte un flux de conception de système complexe, qui implique l’utilisation d’outils issus de différents domaines d’ingénierie. Une solution commune est de proposer un environnement de conception hétérogène qui combine/intègre l’ensemble de ces outils. Cependant, l’hétérogénéité intrinsèque de cette approche peut compromettre la fiabilité du système lors des échanges de données entre les outils.L’objectif de ce travail est de proposer une méthodologie et un environnement de conception homogène pour un tel système. Cela repose sur l’application d’une méthodologie de conception moderne, en particulier la conception orientée objet (OOD), au domaine des systèmes embarqués. Notre choix de OOD est motivé par la productivité avérée de cette méthodologie pour le développement des systèmes logiciels. Dans le cadre de cette thèse, nous visons à utiliser OOD pour développer un environnement de conception homogène pour les systèmes de type Edge Computing. Notre approche aborde trois problèmes de conception: (1) la conception matérielle, où les principes orientés objet et les patrons de conception sont utilisés pour améliorer la réutilisation, l’adaptabilité et l’extensibilité du système matériel. (2) la co-conception matériel/logiciel, pour laquelle nous proposons une utilisation de OOD afin d’abstraire l’intégration et la communication entre matériel et logiciel, ce qui encourage la modularité et la flexibilité du système. (3) la conception d’un intergiciel pour l’Edge Computing. Ainsi il est possible de reposer sur un environnement de développement centralisé des applications distribuées† tandis ce que l’intergiciel facilite l’intégration des nœuds périphériques dans le réseau, et en permet la reconfiguration automatique à distance. Au final, notre solution offre une flexibilité logicielle pour la mise en oeuvre d’algorithmes distribués complexes, et permet la pleine exploitation des performances des FPGAs. Ceux-ci sont placés dans les nœuds, au plus près de l’acquisition des données par les capteurs, pour déployer un premier traitement intensif efficace. / Cloud computing is often the most referenced computational model for Internet of Things. This model adopts a centralized architecture where all sensor data is stored and processed in a sole location. Despite of many advantages, this architecture suffers from a low scalability while the available data on the network is continuously increasing. It is worth noting that, currently, more than 50% internet connections are between things. This can lead to the reliability problem in realtime and latency-sensitive applications. Edge-computing which is based on a decentralized architecture, is known as a solution for this emerging problem by: (1) reinforcing the equipment at the edge (things) of the network and (2) pushing the data processing to the edge.Edge-centric computing requires sensors nodes with more software capability and processing power while, like any embedded systems, being constrained by energy consumption. Hybrid hardware systems consisting of FPGA and processor offer a good trade-off for this requirement. FPGAs are known to enable parallel and fast computation within a low energy budget. The coupled processor provides a flexible software environment for edge-centric nodes.Applications design for such hybrid network/software/hardware (SW/HW) system always remains a challenged task. It covers a large domain of system level design from high level software to low-level hardware (FPGA). This result in a complex system design flow and involves the use of tools from different engineering domains. A common solution is to propose a heterogeneous design environment which combining/integrating these tools together. However the heterogeneous nature of this approach can pose the reliability problem when it comes to data exchanges between tools.Our motivation is to propose a homogeneous design methodology and environment for such system. We study the application of a modern design methodology, in particular object-oriented design (OOD), to the field of embedded systems. Our choice of OOD is motivated by the proven productivity of this methodology for the development of software systems. In the context of this thesis, we aim at using OOD to develop a homogeneous design environment for edge-centric systems. Our approach addresses three design concerns: (1) hardware design where object-oriented principles and design patterns are used to improve the reusability, adaptability, and extensibility of the hardware system. (2) hardware / software co-design, for which we propose to use OOD to abstract the SW/HW integration and the communication that encourages the system modularity and flexibility. (3) middleware design for Edge Computing. We rely on a centralized development environment for distributed applications, while the middleware facilitates the integration of the peripheral nodes in the network, and allows automatic remote reconfiguration. Ultimately, our solution offers software flexibility for the implementation of complex distributed algorithms, complemented by the full exploitation of FPGAs performance. These are placed in the nodes, as close as possible to the acquisition of the data by the sensors† in order to deploy a first effective intensive treatment.
7

Etude de l'interaction entre une onde de choc et une turbulence cisaillée en présence de gradients moyens de température et de masse volumique / Interaction of a shock wave with a sheared turbulence in presence of mean temperature and density gradients

Crespo, Matthieu 21 September 2009 (has links)
Cette étude a été l'occasion d'étudier les effets liés à la présence d'un cisaillement particulier de l'écoulement moyen sur le phénomène d'interaction choc/turbulence. Dans un premier temps, un outil de calcul performant et modulaire fondé sur une approche orientée objet a été développé afin de réaliser des simulations numériques directes de ce type d'écoulement. L'utilisation de schémas numériques à capture de choc et d'ordre élevé de type WENO ont permis une résolution fidèle des équations de Navier-Stokes compressibles. Dans un deuxième temps, une analyse poussée des effets de ce type de cisaillement sur la turbulence en l'absence de choc a été réalisée. Cette première étude a été l'occasion de dégager l'influence de plusieurs paramètres influents pour cette configuration d'écoulement. Enfin, dans un dernier temps, l'étude du phénomène d'interaction choc/turbulence cisaillée en présence de gradients moyens de température et de masse volumique a permis de souligner l'activation de phénomènes physiques caractéristiques à cette configuration. Ce travail permet également d'apporter une base de données de résultats susceptible d'être confrontée avec les modèles de turbulence et constitue un point de vue intéressant pour l'étude du phénomène d'interaction choc/couche limite. / This study sheds some light on the effects of a specific sheared flow over the shock / turbulence interaction phenomenon. An efficient and modular computational tool using an oriented object approach has first been developed in order to carry out direct numerical simulations of this configuration. The use of high order shock capturing schemes allows to solve accurately the turbulent flow, even in presence of physical discontinuities. A detailed study concerning the effects of this specific mean shear on the turbulent flow has then been conducted in a shock-free configuration. This preliminary study emphases some significant parameters of this flow configuration. In a second step, DNS of the interaction between the turbulent shear flow and a normal shock ware are performed. These simulations are compared to the isotropic turbulence / shock interaction situation, which allows to underline the activationof specific mechanisms due to the presence of the mean shear in the upstream flow. An interesting database is now available and can be used to assess and improve turbulence models. This is also an interesting point of view for studying the shock/boundary layer interaction phenomenon.
8

Une application de l'intelligence artificielle à la synthèse architecturale des circuits intégrés VLSI

Fonkoua, Alain Blaise 04 October 1989 (has links) (PDF)
Description d'un outil de développement de systèmes experts (ODSE) conçu et réalisé en ADA. Le formalisme de description des connaissances (faits et règles), les mécanismes d'interférence mis en œuvre ainsi que l'implémentation du système sont donnes. Enfin, la thèse décrit l'utilisation de ODSE pour la réalisation d'un outil d'aide a la synthèse architecturale de c.i. VLSI (ASA). Les techniques utilisées par ASA (analyse de flots, ordonnancement, allocation de ressources) sont exposées ainsi que leur traduction dans le formalisme de ODSE. Enfin, les résultats d'utilisation de ASA pour la synthèse d'un filtre Leapfrog d'ordre 9 sont donnes

Page generated in 0.0807 seconds