Spelling suggestions: "subject:"1rchitecture logiciel."" "subject:"1rchitecture logiciels.""
21 |
Intégration de politiques de sécurité dans les systèmes ubiquitairesLiu, Pengfei 17 January 2013 (has links) (PDF)
Lors du développement des applications ubiquitaires, il est essentiel de définir des politiques de sécurité et de développerdes mécanismes de sécurité pour assurer la confidentialité et l'intégrité des applications. De nombreux langages de spécification de politiques se concentrent uniquement sur leur puissance d'expression. Les défis émergents dans les systèmes ubiquitaires ne peuvent pas être résolus par ces approches. Par exemple, la sensibilité au contexte est un élément central des systèmes ubiquitaires. Les approches existantes tiennent rarement compte des informations contextuelles dans leurs langages. Cette thèse propose une approche générative pour spécifier et implanter les politiques de sécurité dans les applications ubiquitaires. Pour définir une politique de sécurité, nous proposons un langage de spécification qui tient compte des informations contextuelles. Il permet aux développeurs de spécifier les règles de la politique et les entités requises (e.g. la description spatiale, les rôles, le contexte). Les politiques sont implémentés par des systèmes de réécriture, ce qui offre une grande puissance de vérification. Pour appliquer une politique, nous proposons une architecture qui intègre les concepts importants des politiques de sécurité (sujet, contexte, objet) dans des applications ubiquitaires. Pour mettre en oeuvre notre approche, nous avons enrichi une approche existante pour le développement des applications ubiquitaires. La spécification de la politique de sécurité et la description de l'application ubiquitaire enrichie sont utilisées pour générer un canevas de programmation qui facilite l'implémentation des mécanismes de sécurité, tout en séparant les aspects sécurités de la logique applicative.
|
22 |
-- Géométrie algorithmique --<br />De la théorie à la pratique,<br />Des objets linéaires aux objets courbes.Teillaud, Monique 25 September 2007 (has links) (PDF)
Si la communauté internationale de géométrie algorithmique a souvent<br />la tentation de s'engouffrer dans des recherches essentiellement<br />théoriques, et en particulier combinatoires, la grande originalité des<br />travaux à l'INRIA résidait déjà à l'époque de mes débuts dans le<br />souci de leur validation expérimentale et de leur applicabilité. <br /><br />Le domaine a suivi globalement une évolution dans cette direction,<br />en particulier grâce à l'``Impact Task Force Report''. Notre intérêt pour le transfert technologique et<br />industriel, ainsi que pour l'établissement d'une plateforme pour la<br />recherche, a pris pendant ce temps une tournure encore plus concrète<br />avec notre implication très forte dans le projet CGAL<br />dont notre équipe est l'un des moteurs.<br /><br />Ce document prend le parti de présenter les travaux sous l'angle de<br />cette préoccupation pratique.<br />Il comporte deux chapitres principaux : le premier rassemble<br />des travaux sur les triangulations, le second présente des travaux sur<br />les objets courbes. Ces deux chapitres se concluent par un ensemble de<br />directions ouvertes. Le troisième chapitre survole rapidement d'autres<br />résultats.
|
23 |
Architecture logicielle et outils pour les interfaces hommes-machines graphiques avancéesBlanch, Renaud 26 September 2005 (has links) (PDF)
Dans cette thèse nous proposons une approche et des outils pour faciliter la mise au point et l'utilisation de techniques d'interaction avancées au sein d'applications graphiques interactives. Nous proposons de résoudre les exigences antithétiques de la réutilisation, nécessaire à la factorisation des efforts, et de l'innovation, nécessaire à l'adaptation à de nouveaux contextes, en fournissant une pyramide d'abstractions de divers niveaux permettant leur recombinaison pour s'adapter finement aux besoins spécifiques à chaque usage. Nous proposons également d'intégrer aux langages impératifs une structure de contrôle basée sur un formalisme de machines à états hiérarchiques pour faciliter la programmation de comportements dynamiques et faire des interactions des objets à part entière du vocabulaire des programmeurs.<br /><br />Nous montrons par des exemples comme ces éléments permettent la reproduction de l'état de l'art des interactions, tant standards qu'avancées, et la mise au point de techniques d'interaction originales et performantes. Nous présentons en particulier la réalisation d'applications graphiques interactives utilisant une architecture distribuée permettant de localiser l'interaction sur le système local et de reporter le noyau fonctionnel sur une machine distante. Nous présentons enfin une technique d'interaction avancée, le pointage sémantique, qui facilite la tâche élémentaire de sélection par pointage en permettant d'utiliser deux tailles pour les objets de l'interface, l'une choisie en fonction des informations qu'ils présentent, l'autre en fonction de leur importance pour la manipulation.
|
24 |
Une démarche à granularité extrêmement fine pour la construction de canevas intergiciels hautement adaptables : application aux services de transactionsRouvoy, Romain 08 December 2006 (has links) (PDF)
Cette thèse adresse la problématique de la construction des intergiciels hautement adaptables. Ces intergiciels se caractérisent par une grande diversité des fonctionnalités fournies. Dans le domaine du transactionnel, cette diversité concerne non seulement les modèles de transactions, les protocoles de contrôle de concurrence et de reprise après défaillance, mais aussi les normes et les standards d'intégration. Notre proposition consiste à définir un canevas intergiciel capitalisant la diversité du domaine transactionnel, et permettant de construire des services de transactions hautement adaptables. Ce type de services requiert la mise en place d'une démarche de construction à granularité extrêmement fine afin de pouvoir adapter les nombreuses caractéristiques de l'intergiciel.<br /><br />Nous proposons donc de compléter l'approche issue des exogiciels avec quatre nouveaux éléments. Ainsi, nous définissons le modèle de programmation Fraclet à base d'annotations pour favoriser la programmation des abstractions fonctionnelles de l'intergiciel. Nous proposons ensuite un langage de description et de vérification de motifs d'architecture pour fiabiliser la modélisation des abstractions architecturales. Ces deux premiers éléments servent à la conception d'un canevas intergiciel à base de composants utilisant les motifs de conception comme structure architecturale extensible. Enfin, nous décrivons les configurations possibles en utilisant différents modèles de haut niveau dédiés aux caractéristiques de l'intergiciel. Nous illustrons ces concepts en présentant GoTM, un canevas intergiciel à composants pour la construction de services de transactions hautement adaptables.<br /><br />Notre approche est validée au travers de trois expériences originales. Tout d'abord, nous proposons de faciliter l'intégration des services de transactions dans les plates-formes intergicielles par la définition de politiques de démarcation transactionnelle indépendantes de la plate-forme et du type de service intégré. Ensuite, nous définissons un service de transactions composant plusieurs personnalités simultanément pour faciliter l'interopérabilité transactionnelle d'applications hétérogènes. Enfin, nous sommes en mesure de sélectionner différents protocoles de validation à deux phases pour optimiser le temps d'exécution des transactions face aux changements des conditions d'exécution de l'application.
|
25 |
Une approche pour l'ingénierie des systèmes interactifs critiques multimodaux et multi-utilisateurs : application à la prochaine génération de cockpit d'aéronefs / Engeeniring multimodal and multiuser critical interactive systems : application to the next aircrafts cockpits generationCronel, Martin 18 October 2017 (has links)
Nos travaux contribuent au domaine de l'ingénierie des systèmes interactifs multimodaux critiques. Ils facilitent l'introduction de nouveaux périphériques (comme les tablettes multi-touch, les systèmes de reconnaissance de geste...) permettant l'interaction multimodale et multi-utilisateurs au sein des futurs cockpits. Pour le moment, les méthodes et les techniques de description des IHM (Interactions Homme Machine) existantes pour la conception des cockpits ne permettent pas de prendre en compte la complexité des techniques d'interaction multimodales. De leur côté, les méthodes de conception d'IHM grand public sont incompatibles avec les exigences de fiabilité et de certification nécessaires aux systèmes critiques. Les travaux proposent un modèle d'architecture logicielle et matérielle MIODMIT (Multiple Input Output devices Multiple Interaction Techniques) qui vise l'intégration de périphériques permettant l'usage de multimodalité au sein de systèmes critiques. Ce modèle décrit précisément les rôles de chacun des composants ainsi que les relations qu'ils entretiennent. Il couvre l'ensemble du spectre du système interactif multimodal qui va des périphériques d'entrée et leurs pilotes, vers les techniques d'interaction et l'application interactive. Il décrit aussi le rendu allant de l'application interactive aux périphériques de sortie en passant par les techniques complexes de présentation. Au-delà de sa capacité de description, ce modèle d'architecture assure la modifiabilité de la configuration du système (ajout ou suppression de périphériques au moment du design et de l'exécution). En outre, la modélisation des systèmes fait apparaitre qu'une partie importante du comportement est autonome c'est-à-dire qu'il évolue sans recevoir d'entrées produites par l'utilisateur. Les utilisateurs peuvent avoir du mal à comprendre et à anticiper ce genre de comportement autonome, qui peut engendrer des erreurs appelées automation surprises. Nous proposons une méthode d'évaluation à base de modèles des techniques d'interaction permettant d'analyser pour ensuite réduire significativement les erreurs d'utilisation liées à ces comportements inattendus et incompréhensibles. Enfin nous avons exploité le langage formel ICO (Interactive Cooperative Objects), pour décrire de façon complète et non ambiguë chacun des composants de l'architecture. Il est exploitable au moyen d'un outil d'édition et d'interprétation appelé Petshop, qui permet de faire fonctionner l'application interactive dans son ensemble (de l'entrée à la sortie). Nous avons complété cet environnement par une plateforme que nous avons appelée ARISSIM(ARINC 653 Standard SIMulator). Elle ajoute des mécanismes de sûreté de fonctionnement aux systèmes interactifs multimodaux développés avec Petshop. Plus précisément ARISSIM permet la ségrégation spatiale et la ségrégation temporelle des processus, ce qui accroît fortement la tolérance aux fautes durant l'exécution. Nos travaux proposent un socle aux équipes de conception pluridisciplinaires (principalement ergonomes spécialistes en IHM et développeurs) d'interaction homme-machine pour les systèmes critiques destinés aux cockpits d'aéronefs de prochaine génération. / The work of this thesis aims at contributing to the field of the engineering of interactive critical systems. We aim at easing the introduction of new input and output devices (such as touch screens, mid-air gesture recognition ...) allowing multi-user and multimodal interactions in next generation of aircraft’s cockpits. Currently, development process in the aeronautical filed is not compatible with the complexity of multimodal interaction. On the other side development process of wide spread systems cannot meet the requirements of critical systems. We introduce a generic software and hardware architecture model called MIODMIT (Multiple Input Output devices Multiple Interaction Techniques) which aim the introduction of dynamically instantiated devices, allowing multimodal interaction in critical systems. It describes the organization of information flux with a complete and non-ambiguous way. It covers the entire spectrum of multimodal interactive systems, from input devices and their drivers, to the specification of interaction techniques and the core of the application. It also covers the rendering of every software components, dealing with fission and fusion of information. Furthermore, this architecture model ensure the system configuration modifiability (i.e. add or suppress a device in design or operation phase). Furthermore, moralizing a system reveals that an important part of the interactive part is autonomous (i.e. not driven by the user). This kind of behavior is very difficult to understand and to foresee for the users, causing errors called automation surprises. We introduce a model-based process of evaluation of the interaction techniques which decrease significantly this kind of error. Lastly, we exploited ICO (Interactive Cooperative Objects) formalism , to describe completely and unambiguously each of the software components of MIODMIT. This language is available in an IDE (integrated development environment) called Petshop, which can execute globally the interactive application (from input/output devices to the application core). We completed this IDE with an execution platform named ARISSIM (ARINC 653 Standard SIMulator), adding safety mechanisms. More precisely, ARRISIM allows spatial segregation of processes (memory allocution to each executing partition to ensure the confinement of potential errors) and temporal segregation (sequential use of processor). Those adding increase significantly the system reliability during execution. Our work is a base for multidisciplinary teams (more specifically ergonoms, HMI specialist and developers) which will conceive future human machine interaction in the next generation of aircraft cockpits.
|
26 |
Synthèse d’architectures logicielles pour systèmes-de-systèmes : une méthode automatisée par résolution de contraintes / Synthesis of software architectures for systems-of-systems : an automated method by constraint solvingMargarido, Milena 27 September 2017 (has links)
Les systèmes-de-systèmes (Systems-of-Systems, SoS) interconnectent plusieurs systèmes indépendants qui travaillent ensemble pour exécuter une action conjointe dépassant leurs compétences individuelles. Par ailleurs, les descriptions architecturales sont des artefacts qui décrivent des architectures logicielles jouant dans le contexte SoS un rôle important dans la promotion de l’interaction des éléments constituants tout en favorisant la communication parmi les intéressés et en soutenant les activités d’inspection et d’analyse dès le début de leur cycle de vie. Le principal problème traité dans cette thèse est le manque de descriptions architecturales adéquates pour les SoS qui sont développés sans l’attention nécessaire à leur architecture logicielle. Puisque les systèmes constituants ne sont pas forcément connus pendant la conception du projet à cause du développement évolutionnaire des SoS, la description architecturale doit définir à la conception même du projet quelles coalitions entre les systèmes constituants seront possibles pendant son exécution. En outre, comme plusieurs de ces systèmes sont développés pour le domaine critique de sécurité, des mesures supplémentaires doivent être mises en place pour garantir l’exactitude et la complétude de la description architecturale. Afin de résoudre ce problème, nous nous servons du SosADL, un langage formel créé spécialement pour le domaine SoS et qui permet de décrire les architectures logicielles comme des associations dynamiques entre systèmes indépendants où les interactions doivent être coordonnées pour réaliser une action combinée. Notamment, une nouvelle méthode formelle, nommée Ark, est proposée pour systématiser les étapes nécessaires dans la synthèse d’architectures concrètes obéissant à cette description. Dans ce dessein, cette méthode crée un modèle formel intermédiaire, nommé TASoS, qui décrit l’architecture du SoS en tant que problème de satisfaisabilité de restrictions, rendant ainsi possible la vérification automatique d’un ensemble initial de propriétés. Le résultat obtenu par cette analyse peut s’utiliser en raffinements et révisions ultérieurs de la description architecturale. Un outil logiciel nommé SoSy a été aussi développé pour automatiser la génération de modèles intermédiaires et d’architectures concrètes, en cachant l’utilisation de solveurs de contraintes dans le projet de SoS. Particulièrement, cet outil intègre un environnement de développement plus important et complet pour le projet de SoS. Cette méthode et son outil ont été appliqués dans un modèle de SoS de surveillance de rivières urbaines où la faisabilité d’architectures abstraites a été étudiée. En formalisant et en automatisant les étapes requises pour la synthèse architecturale de SoS, Ark contribue à l’adoption de méthodes formelles dans le projet d’architectures SoS, ce qui est nécessaire pour atteindre des niveaux plus élevés de fiabilité. / Systems-of-Systems (SoS) encompass diverse and independent systems that must cooperate with each other for performing a combined action that is greater than their individual capabilities. In parallel, architecture descriptions, which are the main artifact expressing software architectures, play an important role in fostering interoperability among constituents by facilitating the communication among stakeholders and supporting the inspection and analysis of the SoS from an early stage of its life cycle. The main problem addressed in this thesis is the lack of adequate architectural descriptions for SoS that are often built without an adequate care to their software architecture. Since constituent systems are, in general, not known at design-time due to the evolving nature of SoS, the architecture description must specify at design-time which coalitions among constituent systems are feasible at run-time. Moreover, as many SoS are being developed for safety-critical domains, additional measures must be placed to ensure the correctness and completeness of architecture descriptions. To address this problem, this doctoral project employs SoSADL, a formal language tailored for the description of SoS that enables one to express software architectures as dynamic associations between independent constituent systems whose interactions are mediated for accomplishing a combined action. To synthesize concrete architectures that adhere to one such description, this thesis develops a formal method, named Ark, that systematizes the steps for producing such artifacts. The method creates an intermediate formal model, named TASoS, which expresses the SoS architecture in terms of a constraint satisfaction problem that can be automatically analyzed for an initial set of properties. The feedback obtained in this analysis can be used for subsequent refinements or revisions of the architecture description. A software tool named SoSy was also developed to support the Ark method as it automates the generation of intermediate models and concrete architectures, thus concealing the use of constraint solvers during SoS design and development. The method and its accompanying tool were applied to model a SoS for urban river monitoring in which the feasibility of candidate abstract architectures is investigated. By formalizing and automating the required steps for SoS architectural synthesis, Ark contributes for adopting formal methods in the design of SoS architectures, which is a necessary step for obtaining higher reliability levels.
|
27 |
Novel approaches to the operation & orchestration of IoT systems / Novel approaches to the operation and orchestration of IoT systemsMouine, Mohamed 24 October 2024 (has links)
L'Internet des Objets (IoT) ainsi que le Edge Computing ont connu une croissance significative autant en termes de popularité que d'avancement technologique. La démocratisation des nouvelles technologies de communications à haut débit et le développement des plateformes infonuagiques modernes ont joué un rôle majeur dans l'adoption de l'IoT dans divers cas d'utilisation commerciaux. Parmi ces applications figurent la médecine, l'Industrie 4.0, ainsi que les centres de données, pour n'en citer que quelques-unes. Ces applications modernes de l'Internet des Objets se caractérisent par une importance particulière attribuée à la flexibilité, la résilience et la sécurité des systèmes. Les contextes mis en jeu présentent en effet d'importants défis et problématiques allant bien au-delà des enjeux logiciels traditionnels. Cela s'explique principalement par la nature critique des infrastructures et environnements mis en cause. Dans de tels contextes, une défaillance du système serait susceptible d'entraîner des conséquences financières désastreuses pour les entreprises et même une menace grave à la sécurité physique des usagers et opérateurs. Dans ce mémoire, nous explorons le potentiel et les possibilités qu'offrent des approches inspirées par les écosystèmes logiciels adjacents dans le but de répondre aux problématiques et défis présentés par l'évolution technologique de l'IoT. Des propositions sont finalement présentées visant l'objectif commun de réduire la complexité opérationnelle et d'assurer une résilience optimale de ces systèmes. Pour commencer, nous abordons la complexité de gestion et de développement des infrastructures IoT. Nous basons notre approche sur des concepts applicatifs et contextuels issus du domaine d'affaires du cas d'utilisation. Grâce au développement piloté par modèle (Model Driven Development), nous visons à combler l'écart technique entre les couches technologiques abstraites et les concepts concrets ou humains de l'application. Dans le contexte d'un système médical digital et distribué, nous présentons un langage spécifique au domaine (DSL) qui interface les composants technologiques complexes grâce à des modèles de domaine concrets et proches du cas d'utilisation identifié. Les schémas de modèles proposés se concentrent sur l'adoption d'une approche flexible et intuitive pour concevoir et mettre à l'échelle l'infrastructure en fonction des besoins de l'entreprise. En tirant parti de technologies Cloud-Native, telles que les conteneurs, Kubernetes et les communications événementielles, nous démontrons l'efficacité de cette approche dans le contexte de scénarios majeurs. La solution vise principalement à accroître la flexibilité du processus de développement et maintenance des systèmes IoT, tout en maintenant une résilience optimale. Le premier sujet d'intérêt sélectionné est celui des applications et composantes exécutées en périphérie (edge workloads) ainsi que l'intégration des dispositifs et appareils physiques avec l'infrastructure cloud du système. L'approche proposée se base sur l'utilisation de Kubernetes en tant que plateforme d'orchestration principale. Kubernetes est l'une des solutions les plus populaires pour la gestion des systèmes cloud modernes à grande échelle. L'outil offre plusieurs avantages en termes de flexibilité, de résilience et de sécurité. Pour permettre l'extension de Kubernetes aux environnements hors-cloud, nous proposons KubeEdge. KubeEdge permet l'intégration transparente des nœuds hors-cloud au cluster Kubernetes initial. Cela permet la planification de services dans le edge en émulant l'environnement cloud ainsi que ses mécanismes natifs de résilience et d'orchestration. En plus d'étendre la portée du cluster au edge, KubeEdge implémente plusieurs solutions de gestion des composantes physiques spécifiques à l'IoT. La solution proposée s'appuie sur des communications asynchrones via le protocole MQTT. Les communications événementielles permettent une meilleure flexibilité des environnements et processus synchronisés entre edge et cloud. Cette approche permet aussi d'atténuer les contraintes infrastructurelles et simplifie l'évolution et la maintenance des systèmes en permettant l'ajout ou la suppression de composants physiques avec fluidité. La deuxième partie de la thèse couvre l'analyse de données et l'exécution d'applications intelligentes dans le edge. L'IoT se caractérise par un immense volume de données générées. Ces données sont souvent exploitées dans le contexte de tâches d'analyse et d'applications intelligentes. Ce sujet introduit diverses contraintes et défis qui lui sont propres et qui varient au travers du cycle de vie des données collectées. Les deux principaux aspects considérés dans ce contexte sont d'abord, la complexité de gestion de larges volumes de données en termes d'efficacité de stockage et de coûts, puis l'optimisation et l'efficacité des processus de traitement et d'analyse applicatifs. Pour aborder ces problématiques, nous avons opté pour une distribution des charges de calcul et de stockage dans les couches périphériques. L'implémentation se concrétise principalement au travers d'instances InfluxDB et Telegraf dans les environnements edge. Ces composantes se connectent aux canaux d'événements du broker MQTT. Les métriques sont initialement stockées et traitées directement dans le edge et subissent diverses transformations et calculs tels qu'une normalisation, un sous-échantillonnage, un enrichissement, etc. Les données sortantes sont migrées périodiquement vers des volumes de stockage centralisés à l'échelle du cloud. Le traitement au niveau du edge permet de distribuer les volumes de stockage et de simplifier les processus analytiques devenus davantage modulaires et réplicables. De plus, la rétention temporaire des données en périphérie permet une stratégie de résilience native en cas de rupture de la connexion cloud-edge et simplifie la gestion de sauvegardes de secours. / The Internet of Things (IoT) and edge computing have seen significant growth in popularity and technical advancement. The democratization of high-speed communications and the development of modern cloud technologies, to name a few factors, have played a major role in the adoption of IoT for a variety of business applications. Some of these applications are healthcare, manufacturing (Industry 4.0), and data centers, to name a few. These modern applications of the Internet of Things are characterized by the importance of scalability, resilience, and security. These use cases present us with challenges and concerns that go far beyond traditional software systems due to the critical nature of some workloads. System failure in this context can lead to disastrous monetary consequences for businesses and even represent a safety threat for users and operators. In this research thesis, we explore the potential of leveraging and adapting approaches from adjacent software ecosystems to address IoT and Edge Computing specifications. The presented proposals have a common goal of reducing the complexity of operations and minimizing the challenges of IoT systems. To begin with, we address the complexity of defining and managing the IoT infrastructure by leveraging the contextual concepts relevant to the business use case. Through model-driven development, we bridge the technical gap between the system infrastructure and human operators. In the case study of a healthcare IoT system, we present a domain-specific language (DSL) that abstracts infrastructure-specific components behind models specific to the identified use case. The proposed model schemas focus on enabling a flexible and intuitive approach to designing and scaling the infrastructure according to business needs. By leveraging Cloud-Native technologies, such as containers, Kubernetes, and event-driven communications, we demonstrate the efficiency of the proposed approaches for some major scenarios to increase the flexibility and resilience of IoT systems. Furthermore, we discuss the challenges and potential limitations of the implementations presented and the technologies utilized. The first topic of interest identified revolves around the management of edge workloads and the integration of physical devices into the cloud system infrastructure. The proposed approach is based on the integration of Kubernetes as an orchestration platform for both cloud and edge workloads. Kubernetes is one of the most popular solutions for managing modern cloud systems at scale. It provides several benefits in terms of flexibility, resilience, and security. To enable the implementation of Kubernetes in the context of the edge environments, we propose KubeEdge as an extension to the cloud layer. KubeEdge enables the seamless integration of edge nodes into the basic Kubernetes cluster. This allows the scheduling of edge services similar to conventional containerized cloud applications, including the native Kubernetes resilience and orchestration mechanisms. In addition to extending the cluster to edge nodes, KubeEdge implements a solution to manage the connections, states, and commands of physical devices throughout the system. The proposed solution leverages asynchronous communications through the MQTT protocol. The event-driven approach improves the flexibility of the edge environments, mitigating its limitations, and improving the system's scalability by simplifying the addition or removal of physical components. The second part of the thesis covers the subject of data analysis through edge computing workloads. One of the main characteristics of the IoT is the large volume of data generated. These data are frequently used in the core analytic workloads of most IoT applications. This aspect of the use case introduces specific challenges divided through the stages of the data life cycle. The two main aspects considered for this topic are the handling of large volumes of data in terms of storage efficiency and costs, and the execution of processing and analysis workloads in terms of optimization and accuracy. To address these aspects, we provision part of the processing and storage workloads to the edge layers. The implementation is based on InfluxDB and Telegraf instances at the edge, which listen to specific data topics of the MQTT broker. The local data are stored and processed to apply common normalization and downsampling transformations. It is then periodically migrated to a centralized storage unit in the cloud layer. Through processing at the edge layer, we optimize storage costs in the cloud and simplify global analytic workloads. Furthermore, the temporary retention of data at the edge improves the resilience of the system in the event of a loss of edge-cloud connection.
|
28 |
VisionLib NexGen : design et implémentation d'une nouvelle architecture pour une librairie de vision numériqueMorin-Rivest, Yannick 18 April 2018 (has links)
Optel Vision est une compagnie produisant des systèmes d'inspection par vision artificielle pour l'industrie pharmaceutique, nutraceutique et cosmétique. Ces systèmes possèdent une architecture matérielle et logicielle interagissant ensemble. Les algorithmes de vision sont une librairie faisant partie de l'ensemble logiciel. Cette dernière contient l'ensemble des structures et des algorithmes de vision construits à l'interne se nommant VisionLib. Cette librarie possède déjà quelques années et son architecture limite maintenant le développement de certaines spécifications importantes ainsi que de nouvelles applications que l'entreprise aimerait ajouter à son porte-folio. Ce mémoire présentera l'approche utilisée afin de créer la nouvelle architecture de la librairie de vision en optimisant la parallélisation des algorithmes de manière automatique, en développement en système plus ouvert et facilement configurable, en facilitant le débogage interne, et finalement en minimisant le temps de développement d'une nouvelle analyse vision
|
29 |
Élaboration du modèle conceptuel flexible et extensible d'une architecture logicielle orientée-objet permettant la parallélisation et la distribution d'une architecture de simulation séquentielleShields, Jean-Philippe 12 April 2018 (has links)
La parallélisation est une solution possible pour améliorer un simulateur séquentiel s'il devient trop lent dû à une surcharge de calculs et qu'on ne désire pas concevoir à neuf un nouveau simulateur parallèle. Ce mémoire présente la conception UML d'une architecture pour un simulateur parallèle flexible et extensible capable de gérer différents environnements de déploiement par une configuration au temps d'exécution. Ce projet a vu le jour dans le but d'améliorer les performances de l'architecture KARMA, une architecture séquentielle pour la simulation d'engagements d'armes, pour réussir à atteindre le temps-réel dans une simulation haute-fidélité avec matériel dans la boucle. L'approche retenue propose une architecture non commerciale et développable à faibles coûts. L'implémentation et les tests préliminaires ont été basés sur un logiciel source libre et portable sur plusieurs plates-formes nommé ACE.
|
30 |
Developing sustainable simulation software for biophotonicsBégin, Ludovick 13 December 2023 (has links)
L'objectif de ce mémoire est de développer des logiciels de simulation durables pour les chercheurs en biophotonique. En raison de l'absence de solutions logicielles adaptées aux applications biophotoniques, les chercheurs doivent consacrer beaucoup de temps soit à l'apprentissage de logiciels commerciaux complexes, souvent coûteux et difficiles à modifier, soit au développement de leur propre logiciel. Dans ce dernier cas, le produit est souvent difficile à entretenir ou à utiliser par d'autres chercheurs en raison de l'absence de bonnes pratiques de développement logiciel, comme les tests unitaires et la séparation des responsabilités, ce qui n'est pas prévu dans le programme d'études en biophotonique. En mettant l'accent sur la conception et l'architecture logicielle, ce travail présente comment des solutions de simulation extensibles et maintenables ont été développées en Python pour permettre de simuler facilement la propagation de la lumière dans les tissus et améliorer la qualité d'image d'un système d'imagerie. Un module PyTissueOptics est d'abord développé avec une librarie graphique 3D indépendante pour prendre en charge la propagation de la lumière selon la méthode de Monte Carlo dans des tissus et des environnements 3D complexes. Un module Polarization est ensuite développé pour simuler la propagation de la lumière polarisée dans les composants optiques et les tissus biréfringents. Ce module est ensuite utilisé pour générer des données synthétiques de tomographie à cohérence optique sensible à la polarisation (PS-OCT). Enfin, ces données synthétiques sont utilisées pour entraîner un nouveau modèle d'apprentissage profond, CLNet, afin de nettoyer les tomogrammes PS-OCT et d'obtenir une meilleure qualité d'image. / The goal of this memoir is to develop sustainable simulation software for biophotonics researchers. The lack of good and tailored software solutions for biophotonics applications results in researchers having to take a lot of time to either learn complex commercial software, which is also often expensive and hard to modify, or develop their own software. The latter often yields a product that is hard to maintain or use by other researchers because of a lack of good software development practices, like unit testing and separation of concerns, which is not included in the biophotonics curriculum. With a focus on software design and architecture, this work presents how extensible and maintainable simulation solutions were developed in Python to allow easy simulation of light propagation in tissues and improve the image quality of an imaging system. A PyTissueOptics module is first developed along with an independent 3D graphics framework to support Monte Carlo light propagation in complex 3D tissues and environments. A Polarization module is then developed to simulate polarized light propagation in optical components and birefringent tissues. This module is then used to generate synthetic data of polarization-sensitive optical coherence tomography (PS-OCT). Finally, this synthetic data is used to train a novel deep learning model, CLNet, to clean PS-OCT tomograms and yield an improved image quality.
|
Page generated in 0.0585 seconds