• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 422
  • 171
  • 72
  • 2
  • 1
  • 1
  • Tagged with
  • 721
  • 336
  • 296
  • 278
  • 254
  • 246
  • 243
  • 144
  • 133
  • 92
  • 90
  • 82
  • 79
  • 69
  • 68
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
431

Exploration robotique de l’environnement aquatique : les modèles au coeur du contrôle / Robotic exploration of the aquatic environment : Models at the core of the control

Lasbouygues, Adrien 10 December 2015 (has links)
Les robots sous-marins peuvent aujourd'hui évoluer dans des environnements complexes difficilement accessibles à l'Homme pour des raisons de coût ou de sécurité. Ils peuvent donc intervenir dans une grande variété de missions en environnement aquatique. Or, la complexité de ces milieux impose de doter le vecteur robotique d'une autonomie opérationnelle suffisante afin qu'il puisse mener sa mission à bien tout en préservant son intégrité. Cela nécessite de développer des lois de commande répondant aux spécificités de l'application. Ces lois de commande se basent sur des connaissances provenant de différentes disciplines scientifiques ce qui souligne l'interdisciplinarité inhérente à la robotique. Une fois la loi de commande développée, il faut implémenter le contrôleur sur le robot sous forme de logiciel de contrôle basé sur une architecture logicielle temps-réel.Or la conception actuelle des lois de commande, sous forme de blocs "monolithiques", rend difficile l'évolution d'une loi de commande d'une application à l'autre, l'intégration de connaissances provenant d'autres disciplines scientifiques que ne maitrisent pas forcément les automaticiens et pénalisent son implémentation sur des architectures logicielles qui nécessitent la modularité. Pour résoudre ces problèmes nous cherchons à proprement séparer les différentes connaissances afin que chacune soit aisément manipulable, son rôle clair et que les relations établies entre les différentes connaissances soient explicites. Cela permettra en outre une projection plus efficace sur l'architecture logicielle. Nous proposons donc un nouveau formalisme de description des lois de commande selon une composition modulaire d'entités de base appelées Atomes et qui encapsulent les différents éléments de connaissance. Nous nous intéressons également à l'établissement d'une meilleure synergie entre les aspects automatique et génie logiciel qui se construit autour de préoccupations communes telles que les contraintes temporelles et la stabilité. Pour cela, nous enrichissons nos Atomes de contraintes chargées de véhiculer les informations relatives à ces aspects temporels. Nous proposons également une méthodologie basée sur notre formalisme afin de guider l'implémentation de nos stratégies de commande sur un Middleware temps-réel, dans notre cas le Middleware ContrACT développé au LIRMM.Nous illustrons notre approche par diverses fonctionnalités devant être mises en oeuvre lors de missions d'exploration de l'environnement aquatique et notamment pour l'évitement de parois lors de l'exploration d'un aquifère karstique. / Underwater robots can nowadays operate in complex environments in a broad scope of missions where the use of human divers is difficult for cost or safety reasons. However the complexity of aquatic environments requires to give the robotic vector an autonomy sufficient to perform its mission while preserving its integrity. This requires to design control laws according to application requirements. They are built on knowledge from several scientific fields, underlining the interdisciplinarity inherent to robotics. Once the control law designed, it must be implemented as a control Software working on a real-time Software architecture.Nonetheless the current conception of control laws, as "monolithic" blocks, makes difficult the adaptation of a control from an application to another and the integration of knowledge from various scientific fields which are often not fully understood by control engineers. It also penalizes the implementation of control on Software architectures, at least its modularity and evolution. To solve those problems we seek a proper separation of knowledge so that each knowledge item can be easily used, its role precisely defined and we want to reify the interactions between them. Moreover this will allow us a more efficient projection on the Software architecture. We thus propose a new formalism for control laws description as a modular composition of basic entities named Atoms used to encapsulate the knowledge items.We also aim at building a better synergy between control and software engineering based on shared concerns such as temporal constraints and stability. Hence we extend the definition of our Atoms with constraints carrying information related to their temporal behaviour. We propose as well a methodology relying on our formalism to guide the implementation of control on a real-time Middleware. We will focus on the ContrACT Middleware developed at LIRMM.Finally we illustrate our approach on several robotic functionalities that can be used during aquatic environments exploration and especially for wall avoidance during the exploration of a karst aquifer.
432

Etude de la plasticité du protéasome : identification et caractérisation de cibles et de régulateurs / Study of proteasome plasticity : identification and characterization of targets and regulators

Pellentz-Lemattre, Céline 03 July 2014 (has links)
Le protéasome est une protéase multimérique essentielle et hautement conservée au cours de l’évolution. Le protéasome 26S eucaryote est l’unité catalytique du système Ubiquitine-Protéasome et contrôle de ce fait de nombreux processus cellulaires. Son dysfonctionnement participe à la pathogenèse de nombreuses maladies. Le protéasome émerge notamment comme une cible thérapeutique de choix dans le traitement de cancers. Il semble donc important d’identifier l’ensemble des processus cellulaires dans lesquels le protéasome est impliqué ainsi que l’ensemble de ses régulateurs.Mon travail de thèse a consisté à identifier et caractériser de nouveaux partenaires physiques et fonctionnels du protéasome par une approche multi-technique. Nous étudions ces facteurs dans l’organisme modèle S. cerevisiae et déterminons s’ils sont fonctionnellement conservés dans les cellules de Mammifères.Après avoir identifié des partenaires physiques et fonctionnels au moyen de cribles à grande échelle, j’ai analysé les données et établi une bibliothèque pondérée de ces partenaires. J’ai ainsi mis en évidence de nouveaux acteurs potentiellement impliqués dans le fonctionnement du protéasome. De plus, j’ai caractérisé les protéines Spg5p et Poc5p. Mes données suggèrent que Spg5p participe à la régulation du protéasome en quiescence. Poc5p, présente à la fois chez l’Homme et la levure, participe à la régulation du protéasome à au moins deux niveaux différents : elle joue un rôle de point de contrôle dans l’assemblage du complexe et un rôle inhibiteur sur son activité. / The proteasome is a highly conserved essential proteolytic machine. The eukaryotic 26S proteasome is the hydrolytic heart of the ubiquitin-mediated degradation pathway and therefore controls many cellular pathways. Its dysfunction is involved in the pathogenesis of numerous diseases. Notably, the proteasome has emerged as an interesting drug target for anti-cancer therapy. It seems therefore important to identify all cellular processes in which the proteasome is involved and all of its regulators.My work was to identify and characterize new physical and functional partners of the proteasome by a multi-technical approach. We characterize these factors in the model organism S. cerevisiae and determine if they are functionally conserved in mammalian cells.After identifying physical and functional partners through large-scale screens, I analyzed the data and developed a weighted library of these partners. I have thus highlighted new actors potentially involved in the proteasome functioning. In addition, I characterized the Spg5p and Poc5p proteins. My data suggest that Spg5p participates in the regulation of proteasome during quiescence. Poc5p, presents both in human and yeast, is involved in the regulation of proteasome at at least two different levels: it acts as a checkpoint in the complex assembly and have an inhibitory effect on its activity.
433

Ingéniérie dirigée par les modèles pour la gestion de la variabilité dans le test d'applications mobiles / Model-Driven Engineering for Variability Management in Mobile Application Testing

Ridene, Youssef 23 September 2011 (has links)
L'engouement du grand public pour les applications mobiles, dont le nombre ne cessede croître, a rendu les utilisateurs de plus en plus exigeants quant à la qualité de cesapplications. Seule une procédure de test efficace permet de répondre à ces exigences.Dans le contexte des applications embarquées sur téléphones mobiles, le test est unetâche coûteuse et répétitive principalement à cause du nombre important de terminauxmobiles qui sont tous différents les uns des autres.Nous proposons dans cette thèse le langage MATeL, un DSML (Domain-Specific ModelingLanguage) qui permet de d’écrire des scénarios de test spécifiques aux applicationsmobiles. Sa syntaxe abstraite, i.e. un méta modèle et des contraintes OCL, permet auconcepteur de manipuler les concepts métier du test d'applications mobiles (testeur, mobileou encore résultats attendus et résultats obtenus). Par ailleurs, il permet d'enrichirces scénarii avec des points de variabilité qui autorisent de spécifier des variations dansle test en fonction des particularités d'un mobile ou d'un ensemble de mobiles. La syntaxeconcrète de MATeL, qui est inspirée de celle des diagrammes de séquence UML,ainsi que son environnement basé sur Eclipse permettent à l'utilisateur de concevoir desscénarii relativement facilement.Grâce à une plateforme de test en ligne construite pour les besoins de notre projet,il est possible d'exécuter les scénarii sur plusieurs téléphones différents. La démarcheest illustrée dans cette thèse à travers des cas d'utilisation et des expérimentations quiont permis de vérifier et valider notre proposition. / Mobile applications have increased substantially in volume with the emergence ofsmartphones. Ensuring high quality and successful user experience is crucial to the successof such applications. Only an efficient test procedure allows developers to meet these requirements. In the context of embedded mobile applications, the test is costly and repetitive. This is mainly due to the large number of different mobile devices. In this thesis, we describe MATeL, a Domain-Specific Modeling Language (DSML) for designing test scenarios for mobile applications. Its abstract syntax, i.e. a meta model and OCL constraints, enables the test designer to manipulate mobile applications testing concepts such as tester, mobile or outcomes and results. It also enables him/her to enrich these scenarios with variability points in the spirit of Software Product-Line engineering, that can specify variations in the test according to the characteristics of one mobile or a set of mobiles. The concrete syntax of MATeL that is inspired from UML sequence diagrams and its environment based on Eclipse allow the user to easily develop scenarios. MATeL is built upon an industrial platform (a test bed) in order to be able to run scenarios on several different phones. The approach is illustrated in this thesis through use cases and experiments that led to verify and validate our contribution.
434

An integrated language for the specification, simulation, formal analysis and enactment of discrete event systems / Un langage intégré pour la spécification, simulation, analyse formelle et en-action des systèmes à événements discrets

Maïga, Oumar 22 December 2015 (has links)
Cette thèse propose une méthodologie qui intègre les méthodes formelles dans la spécification, la conception, la vérification et la validation des systèmes complexes concurrents et distribués avec une perspective à événements discrets. La méthodologie est basée sur le langage graphique HILLS (High Level Language for System Specification) que nous avons défini. HiLLS intègre des concepts de génie logiciel et de théorie des systèmes pour une spécification des systèmes. Précisément, HiLLS intègre des concepts et notations de DEVS (Discrete Event System Specification), UML (Unified Modeling Language) et Object-Z. Les objectifs de HILLS incluent la définition d’une syntaxe concrète graphique qui facilite la communicabilité des modèles et plusieurs domaines sémantiques pour la simulation, le prototypage, l’enaction et l’accessibilité à l’analyse formelle. L’Enaction se définit par le processus de création d’une instance du système qui s’exécute en temps réel (par opposition au temps virtuel utilisé en simulation). HiLLS permet la construction hiérarchique et modulaire des systèmes à événements discrets grâce à une description simple et rigoureuse des aspects statiques, dynamiques et fonctionnels des modèles. La sémantique pour simulation de HiLLS est définie en établissant un morphisme sémantique entre HiLLS et DEVS; de cette façon chaque modèle HiLLS peut être simulé en utilisant un simulateur DEVS. Cette approche permet aux utilisateurs DEVS d’utiliser HiLLS comme un langage de spécification dans la phase de modélisation et d’utiliser leurs propres implémentations locales ou distribuées de DEVS en phase de simulation. L’enactment des modèles HiLLS est basé sur une adaptation du patron de conception Observateur pour leur implémentation. La vérification formelle est faite en établissant un morphisme entre chaque niveau d’abstraction de HiLLS et une méthode formelle adaptée pour la vérification formelle des propriétés à ce niveau. Les modèles formels sur lesquels sont faites les vérifications formelles sont obtenus à partir des spécifications HiLLS en utilisant des morphismes. Les trois niveaux d’abstraction de HiLLS sont : le niveau composite, le niveau unitaire et le niveau des traces. Ces niveaux correspondent respectivement aux trois niveaux suivants de la hiérarchie de spécification des systèmes proposée par Zeigler : CN (Coupled Network), IOS (Input Output System) et IORO (Input Output Relation Observation). Nous avons établi des morphismes entre le niveau Composite et CSP (Communicating Sequential Processes), entre le niveau unitaire et Z, et nous utilisons les logiques temporelles telles que LTL, CTL et TCTL pour exprimer les propriétés sur les traces. HiLLS permet à la fois la spécification des modèles à structures statiques et les modèles à structures variables. Dans le cas des systèmes à structures variables, le niveau composite intègre à la fois des propriétés basées sur les états et les processus. Pour prendre en compte ces deux aspects, un morphisme est défini entre le niveau Composite de HiLLS et CSPZ (une combinaison de CSP et Z). Le processus de vérification et de validation combine la simulation, la vérification exhaustive de modèle (model checking) et la preuve de théorèmes (theorem proving) dans un Framework commun. La vérification exhaustive et la preuve de théorèmes sur les modèles HiLLS sont basées sur les outils associés aux méthodes formelles sélectionnées dans les morphismes. Nous appliquons la méthodologie de modélisation de HiLLS à la modélisation du Alternating Bit Protocol (ABP) et à celle d’un guichet automatique de dépôt de billet (Automated Teller Machine) (ATM). / This thesis proposes a methodology which integrates formal methods in the specification, design, verification and validation processes of complex, concurrent and distributed systems with discrete events perspectives. The methodology is based on the graphical language HILLS (High Level Language for System Specification) that we defined. HiLLS integrates software engineering and system theoretic views for the specification of systems. Precisely, HiLLS integrates concepts and notations from DEVS (Discrete Event System Specification), UML (Unified Modeling Language) and Object-Z. The objectives of HILLS include the definition of a highly communicable graphical concrete syntax and multiple semantic domains for simulation, prototyping, enactment and accessibility to formal analysis. Enactment refers to the process of creating an instance of system executing in real-clock time. HILLS allows hierarchical and modular construction of discrete event systems models while facilitating the modeling process due to the simple and rigorous description of the static, dynamic, structural and functional aspects of the models. Simulation semantics is defined for HiLLS by establishing a semantic mapping between HiLLS and DEVS; in this way each HiLLS model can be simulated by a DEVS simulator. This approach allow DEVS users to use HiLLS as a modeling language in the modeling phase and use their own stand alone or distributed DEVS implementation package to simulate the models. An enactment of HiLLS models is defined by adapting the observer design-pattern to their implementation. The formal verification of HiLLS models is made by establishing morphisms between each level of abstraction of HILLS and a formal method adapted for the formal verification of the properties at this level. The formal models on which are made the formal verification are obtained from HILLS specifications by using the mapping functions. The three levels of abstraction of HILLS are: the Composite level, the Unitary level and the Traces level. These levels correspond respectively to the following levels of the system specification hierarchy proposed by Zeigler: CN (Coupled Network), IOS (Input Output System) and IORO (Input Output Relation Observation). We have established morphisms between the Composite level and CSP (Communicating Sequential Processes), between Unitary level and Z and we expect to use temporal logics like LTL, CTL and TCTL to express traces level properties. HiLLS allows the specification of both static and dynamic structure systems. In case of dynamic structure systems, the composite level integrates both sate-based and process-based properties. To handle at the same time state-based and process-based properties, morphism is established between the dynamic composite level and CSPZ (a combination of CSP and Z); The verification and validation process combine simulation, model checking and theorem proving techniques in a common framework. The model checking and theorem proving of HILLS models are based on an integrated tooling framework composed of tools supporting the notations of the selected formal methods in the established morphisms. We apply our methodology to modeling of the Alternating Bit Protocol (ABP) and the Automated Teller Machine (ATM).
435

Analyse de sensibilité paramétrique d’un outil de modélisation des conséquences de scénarios d’accidents. Application à la dispersion atmosphérique de rejets avec le logiciel Phast / Parametric sensitivity analysis of a modelling tool for consequence estimation. Application to the atmospheric dispersion of accidental releases with the Phast software

Pandya, Nishant 01 December 2009 (has links)
L’objectif de la thèse est d’effectuer l’analyse de sensibilité paramétrique du logiciel Phast de modélisation de la dispersion atmosphérique de gaz toxiques et/ou inflammables. La technique a consisté à coupler Phast et l’outil d’analyse de sensibilité SimLab, ce qui permet d’exécuter automatiquement un grand nombre de simulations en faisant varier l’ensemble des paramètres du modèle de façon simultanée. La méthode d’analyse de sensibilité globale choisie, E-FAST, est basée sur l’analyse de la variance des sorties du modèle pour le calcul des indices de sensibilité. Nous avons étudié des scénarios de rejet continus pour six produits différents (monoxyde d’azote, ammoniac, chlore, azote, n-hexane et fluorure d’hydrogène), sélectionnés pour couvrir une large gamme de caractéristiques physiques et de conditions de stockage. L’analyse du modèle de dispersion de Phast, Unified Dispersion Model, a été séparée en deux étapes : étape de « screening » avec pour but de comparer l’influence de l’ensemble des paramètres puis étude de l’influence globale des paramètres de modélisation, autres que les paramètres météo et du terme source, sur une plage large de valeurs. Pour chaque produit, nous avons décomposé les scénarios de base en sous-scénarios correspondant à des conditions de rejet différentes. Ce travail a notamment permis de classifier les paramètres du modèle selon leur degré d’influence sur la variabilité de différentes sorties et d’effectuer une analyse comparative par produit indiquant, pour des conditions de rejet données, quels paramètres sont les plus influents sur les sorties. Une étude complémentaire a consisté à effectuer une analyse de sensibilité locale de ces paramètres autour de leur valeur par défaut. / We have undertaken a parametric sensitivity analysis of the Phast software tool’s models for atmospheric dispersion of toxic and/or inflammable gases. We have coupled Phast with the sensitivity analysis tool SimLab, and have automated the execution of a large number of simulations while varying simultaneously selected model parameters. The global sensitivity analysis method used, E-FAST, is based on analysis of the variance of model outputs, and allows us to estimate sensitivity indices. We have studied continuous release scenarios for six different products (nitric oxide, ammonia, chlorine, nitrogen, n-hexane and hydrogen fluoride), which were chosen to cover a wide range of physical characteristics and storage conditions. Our analysis of Phast’s Unified Dispersion Model comprises two phases: a screening phase which allows the sensitivity of a wide range of parameters to be compared, followed by a phase focusing on the sensitivity of internal model parameters (excluding weather and source term variables), over a wide input range. For each product, we have broken down base-case scenarios into a number of sub-scenarios corresponding to different release conditions. This work has allowed us to rank model parameters according to their influence on the variability of a number of model outputs. It also includes a per-product comparative analysis indicating, for each release condition studied, which parameters have the most influence on the outputs. In the final part of the work, we have analyzed the local sensitivity of these parameters in a narrow range around their default values.
436

A Design-Driven Methodology for the Development of Large-Scale Orchestrating Applications / Une methodologie dirigée par la conception pour le developpement d’applications d’orchestration à grande echelle

Kabac, Milan 26 September 2016 (has links)
Notre environnement est de plus en plus peuplé de grandes quantités d’objets intelligents. Certains surveillent des places de stationnement disponibles, d’autres analysent les conditions matérielles dans les bâtiments ou détectent des niveaux de pollution dangereux dans les villes. Les quantités massives de capteurs et d’actionneurs constituent des infrastructures de grande envergure qui s’étendent sur des terrains de stationnement entiers, des campus comprenant plusieurs bâtiments ou des champs agricoles. Le développement d’applications pour de telles infrastructures reste difficile, malgré des déploiement réussis dans un certain nombre de domaines. Une connaissance considérable des spécificités matériel / réseau de l’infrastructure de capteurs est requise de la part du développeur. Pour remédier à ce problème, des méthodologies et des outils de développement logiciel permettant de relever le niveau d’abstraction doivent être introduits pour que des développeurs non spécialisés puissent programmer les applications. Cette thèse présente une méthodologie dirigée par la conception pour le développement d’applications orchestrant des quantités massives d’objets communicants. La méthodologie est basée sur un langage de conception dédié, nommé DiaSwarm qui fournit des constructions déclaratives de haut niveau permettant aux développeurs de traiter des masses d’objets en phase de conception, avant de programmer l’application. La programmation générative est utilisée pour produire des cadres de programmation spécifiques à la conception pour guider et soutenir le développement d’applications dans ce domaine. La méthodologie intègre le traitement parallèle de grandes quantités de données collectées à partir de masses de capteurs. Nous introduisons un langage de déclarations permettant de générer des cadres de programmation basés sur le modèle de programmation MapReduce. En outre, nous étudions comment la conception peut être utilisée pour rendre explicites les ressources requises par les applications ainsi que leur utilisation. Pour faire correspondre les exigences de l’application à une infrastructure de capteurs cible, nous considérons les déclarations de conception à différents stades du cycle de vie des applications. Le passage à l’échelle de cette approche est évaluée dans une expérience qui montre comment les cadres de programmation générés s’appuyant sur le modèle de programmation MapReduce sont utilisés pour le traitement efficace de grands ensembles de données de relevés des capteurs. Nous examinons l’efficacité de l’approche proposée pour relever les principaux défis du génie logiciel dans ce domaine en mettant en oeuvre des scénarios d’application qui nous sont fournis par des partenaires industriels. Nous avons sollicité des programmeurs professionnels pour évaluer l’utilisabilité de notre approche et présenter des données quantitatives et qualitatives de l’expérience. / Our environment is increasingly populated with large amounts of smart objects. Some monitor free parking spaces, others analyze material conditions in buildings or detect unsafe pollution levels in cities. The massive amounts of sensing and actuation devices constitute large-scale infrastructures that span over entire parking lots, campuses of buildings or agricultural fields. Despite being successfully deployed in a number of domains, the development of applications for such infrastructures remains challenging. Considerable knowledge about the hardware/network specificities of the sensor infrastructure is required on the part of the developer. To address this problem, software development methodologies and tools raising the level of abstraction need to be introduced to allow non-expert developers program applications. This dissertation presents a design-driven methodology for the development of applications orchestrating massive amounts of networked objects. The methodology is based on a domain-specific design language, named DiaSwarm that provides high-level, declarative constructs allowing developers to deal with masses of objects at design time, prior to programming the application. Generative programming is used to produce design-specific programming frameworks to guide and support the development of applications in this domain. The methodology integrates the parallel processing of large-amounts of data collected from masses of sensors. We introduce specific language declarations resulting in the generation of programming frameworks based on the MapReduce programming model. We furthermore investigate how design can be used to make explicit the resources required by applications as well as their usage. To match the application requirements to a target sensor infrastructure, we consider design declarations at different stages of the application lifecycle. The scalability of this approach is evaluated in an experiment, which shows how the generated programming frameworks relying on the MapReduce programming model are used for the efficient processing of large datasets of sensor readings. We examine the effectiveness of the proposed approach in dealing with key software engineering challenges in this domain by implementing application scenarios provided to us by industrial partners. We solicited professional programmers to evaluate the usability of our approach and present quantitative and qualitative data from the experiment.
437

O fetichismo do software livre e a reestruturação produtiva da atualidade / LE FÉTICHISME DE LOGICIEL ET LIBRE Y LA RESTRUCTURATION PRODUCTIVE DANS LES NOUVELLES

Serra Júnior, Gentil Cutrim 29 January 2015 (has links)
Submitted by Rosivalda Pereira (mrs.pereira@ufma.br) on 2017-05-29T18:11:02Z No. of bitstreams: 1 GentilCutrimSerra.pdf: 11131195 bytes, checksum: 24a57792b8f3099a5d0458781763e53a (MD5) / Made available in DSpace on 2017-05-29T18:11:03Z (GMT). No. of bitstreams: 1 GentilCutrimSerra.pdf: 11131195 bytes, checksum: 24a57792b8f3099a5d0458781763e53a (MD5) Previous issue date: 2015-01-29 / Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES) / Ce travail traite la relation contradictoire entre les Logiciels Libres et les Logiciels Propriétaires, montrant que, dans le contexte historique dans lequel s’intègre la problématique présentée, il y a une restructuration productive et dans celle-ci s’insère le phénomène étudié. Pour cela, il a été considéré que cette restructuration se présente comme réponse à une crise structurelle, et c’est dans ce contexte que surgit l’idéalisation de la collaboration en masse, avec l’unicité de développement de Logiciels Libres / Code Ouvert (LL / CO). Lors de cette exposition, cette restructuration productive est qualifiée comme un grand changement social et historique, qui implique la lutte de classes. Comme le montre cette étude, la plupart des concepts sur les LL / CO ont été inventés par les intellectuels organiques du capital, qui démontrent un signal clair avec les intérêts de classe, étant donné les transformations nécessaires à la bourgeoisie. De là, nous avons analysé les discours des défenseurs des Logiciels Libres, en précisant leur intérêt sur la di usion de règles des idéologies dominantes, qui attribuent aux technologies le pouvoirs d’émancipation et de l’indépendance de classe. Il a été observé que le récit de la collaboration de masse, présenté par de nombreux théoriciens comme une nouvelle forme d’organisation de la production, dont les technologies assumeraient un rôle central dans la société, falsifie les processus réels de transformation sociale, visant à rendre possible une plus grande accumulation du capital. Ainsi, il a été montré que dans le domaine de travail immatériel et de la collaboration en masse la lutte reste permanente. Il a été vérifié que, dans la perspective du discours d’une révolution technique et scientifique, où les Nouvelles Technologies de l’Information et de la Communication sont placées comme instrumentale nécessaire à la collaboration sociale et économique, la collaboration productive de nature informationnelle vise à utiliser la main-d’oeuvre bénévole pour servir les intérêts capitaux, et que de cette manière, le résultat d’un travail collectif des employés et des bénévoles de ce processus, sous la coordination et le soutien financier du secteur public, privé et du secteur tier, devient la propriété de capital. Il a été constaté que, généralement, les codes d’informatiques en caractère libre sont englobés dans le capital, originant l’alimentation de développement de systèmes de licences restrictives, les systèmes dits propriétaires. Ainsi, il est devenu évident qu’un système informatique de type libre, même s’il semble être en marge de la logique du capital et le profit privé, devient fonctionnel aux nouvelles stratégies de restauration de la structure du capital. Il a été démontré, alors, que le Logiciel Libre et le Logiciel Propriétaire forment une unité, une relation organique, une relation dialectique fondée sur la création de l’usine de logiciel. Ainsi, au fur et à mesure qu’on développe un Logiciel Propriétaire, on développe également des Logiciels Libres et vice-versa. Ainsi, on prouve qu’il existe une unité entre la production de LL / CO et le développement de systèmes propriétaires, de sorte que l’un n’existe sans l’autre. C’est ce qui fait en ce que chaque grande invention dans le Logiciel Libre soit suivie par un incrément de Logiciel Propriétaire et que chaque complément dans le Logiciel Propriétaire, à son tour, conduit à de nouvelles inventions libres. Où il peut être conclu que la production collaborative de logiciels est intégrée dans l’univers de la mode de production capitaliste. / Este trabalho trata da relação contraditória entre o Software Livre e o Software Proprietário, mostrando que, no contexto histórico no qual está inserida a problemática apresentada, existe uma reestruturação produtiva e nela se insere o fenômeno pesquisado. Para isso, considerou-se que essa reestruturação apresenta-se como resposta a uma crise estrutural, e que é nesse contexto que surge a idealização da colaboração em massa, com a singularidade do desenvolvimento de Software Livre/Código Aberto (SL/CA). No decorrer desta exposição, essa reestruturação produtiva é qualificada como uma grande transformação social e histórica, que envolve luta de classes. Conforme mostrado neste estudo, a maioria dos conceitos a respeito do SL/CA foram cunhados por intelectuais orgânicos do capital, que demonstram uma clara sinalização com os interesses de classe, tendo em vista transformações necessárias à burguesia. A partir disso, analisou-se os discursos dos defensores do Software Livre, deixando claro o seu interesse em disseminar postulados das ideologias dominantes, as quais atribuem às tecnologias poderes emancipatórios e independência classista. Pôde-se observar que a narrativa da colaboração em massa, apresentada por muitos teóricos como uma nova forma de organização da produção, em que as tecnologias assumiriam um papel central na sociedade, mistifica os reais processos de transformação social, visando possibilitar uma maior acumulação para o capital. Assim, mostrou-se que no domínio do trabalho imaterial e da colaboração em massa a luta de classes continua permanente. Verificou-se que na perspectiva do discurso de uma revolução técnico-científica, onde as Novas Tecnologias da Informação e Comunicação são colocadas como o instrumental necessário para as transformações sociais e econômicas, a colaboração produtiva de cariz informacional busca utilizar a força de trabalho de voluntários para servir aos interesses do capital, e que, desta maneira, o resultado do trabalho coletivo dos assalariados e dos voluntários desse processo, sob a coordenação e o suporte financeiro de instituições públicas, privadas e do terceiro setor, torna-se propriedade do capital. Constatou-se que, de uma forma geral, os códigos computacionais de caráter livre são subsumidos ao capital, passando a alimentar o desenvolvimento de sistemas de licenciamento restritivo, os chamados sistemas proprietários. Deste modo, ficou claro que um sistema computacional do tipo livre, mesmo que aparentemente esteja à margem da lógica do capital e do lucro privado, torna-se funcional às novas estratégias de restauração da estrutura do capital. Demonstrou-se, então, que o Software Livre e o Software Proprietário formam uma unidade, uma relação orgânica, uma relação dialética fundada na criação da fábrica de software. Deste modo, à medida que se desenvolve o Software Proprietário, desenvolve-se também o Software Livre e vice-versa. Assim, prova-se que existe uma unidade entre a produção de SL/CA e o desenvolvimento de sistemas proprietários, de maneira que um não existe sem o outro. É isso o que faz com que toda grande invenção no Software Livre seja seguida de um incremento no Software Proprietário e que cada acréscimo no Software Proprietário, por sua vez, conduza a novas invenções livres. De onde pode-se concluir que a produção colaborativa de software está incorporada ao universo do modo de produção capitalista
438

Implémentation d'algorithmes de reconnaissance biométrique par l'iris sur des architectures dédiées / Implementing biometric iris recognition algorithms on dedicated architectures

Hentati, Raïda 02 November 2013 (has links)
Dans cette thèse, nous avons adapté trois versions d'une chaine d'algorithmes de reconnaissance biométrique par l’iris appelés OSIRIS V2, V3, V4 qui correspondent à différentes implémentations de l’approche de J. Daugman pour les besoins d’une implémentation logicielle / matérielle. Les résultats expérimentaux sur la base de données ICE2005 montrent que OSIRIS_V4 est le système le plus fiable alors qu’OSIRIS_V2 est le plus rapide. Nous avons proposé une mesure de qualité de l’image segmentée pour optimiser en terme de compromis coût / performance un système de référence basé sur OSIRIS V2 et V4. Nous nous sommes ensuite intéressés à l’implémentation de ces algorithmes sur des plateformes reconfigurables. Les résultats expérimentaux montrent que l’implémentation matériel / logiciel est plus rapide que l’implémentation purement logicielle. Nous proposons aussi une nouvelle méthode pour le partitionnement matériel / logiciel de l’application. Nous avons utilisé la programmation linéaire pour trouver la partition optimale pour les différentes tâches prenant en compte les trois contraintes : la surface occupée, le temps d’exécution et la consommation d’énergie / In this thesis, we adapted three versions of a chain of algorithms for biometric iris recognition called OSIRIS V2, V3, V4, which correspond to different implementations of J. Daugman approach. The experimental results on the database ICE2005 show that OSIRIS_V4 is the most reliable when OSIRIS_V2 is the fastest. We proposed a measure of quality of the segmented image in order to optimize in terms of cost / performance compromise a reference system based on OSIRIS V2 and V4. We focused on the implementation of these algorithms on reconfigurable platforms. The experimental results show that the hardware / software implementation is faster than the software implementation. We propose a new method for partitioning hardware / software application. We used linear programming to find the optimal partition for different tasks taking into account the three constraints : the occupied area, execution time and energy consumption
439

Conception d’architecture de système-de-systèmes à logiciel prépondérant dirigée par les missions / Mission-driven Software-intensive System-of-Systems Architecture Design

Ferreira silva, Eduardo 17 December 2018 (has links)
La formulation des missions est le point de départ du développement de systèmes-de- systèmes, étant utilisée comme base pour la spécification, la vérification et la validation d’architectures de systèmes-de-systèmes. Élaborer des modèles d’architecture pour systèmes-de-systèmes est une activité complexe, cette complexité reposant spécialement sur les comportements émergents, c'est-à-dire, des comportements issus des interactions entre les parties constituantes d’un système-de-systèmes qui ne peuvent pas être prédits même si on connaît tous les comportements de tous les systèmes constituants. Cette thèse adresse le lien synergique entre mission et architecture dans le cadre des systèmes-de-systèmes à logiciel prépondérant, en accordant une attention particulière aux comportements émergents créés pour réaliser les missions formulées. Nous proposons ainsi une approche pour la conception d’architecture de systèmes-de-systèmes dirigée par le modèle de mission. Dans notre approche, le modèle de mission sert à dériver et à valider les architectures de systèmes-de-systèmes. Dans un premier temps, nous générons la structure de l’architecture à l’aide de transformations de modèles. Ensuite, lors que l’architecte spécifie les aspects comportementaux, la description de l’architecture résultante est validée à l’aide d’une démarche conjointe qui comprend à la fois la vérification des propriétés spécifiées et la validation par simulation des comportements émergents. La formalisation en termes de logique temporelle et la vérification statistique de modèles sont les fondements formels de l’approche. Un outil mettant en œuvre l’ensemble de l’approche a été également développé et expérimenté. / The formulation of missions is the starting point to the development of Systems-of-Systems (SoS), being used as a basis for the specification, verification and validation of SoS architectures. Specifying, verifying and validating architectural models for SoS are complex tasks compared to usual systems, the inner complexity of SoS relying specially on emergent behaviors, i.e. features that emerge from the interactions among constituent parts of the SoS which cannot be predicted even if all the behaviors of all parts are completely known. This thesis addresses the synergetic relationship between missions and architectures of software-intensive SoS, giving a special attention to emergent behaviors which are created for achieving formulated missions. We propose a design approach for the architectural modeling of SoS driven by the mission models. In our proposal, the mission model is used to both derive, verify and validate SoS architectures. As first step, we define a formalized mission model, then we generate the structure of the SoS architecture by applying model transformations. Later, when the architect specifies the behavioral aspects of the SoS, we generate concrete SoS architectures that will be verified and validated using simulation-based approaches, in particular regarding emergent behaviors. The verification uses statistical model checking to verify whether specified properties are satisfied, within a degree of confidence. The formalization in terms of a temporal logic and statistical model checking are the formal foundations of the developed approach. A toolset that implements the whole approach was also developed and experimented.
440

Modeling and verification of functional and non functional requirements of ambient, self adaptative systems / Modélisation et vérification des exigences fonctionnelles et non fonctionnelles des systèmes ambiants auto-adaptatifs

Ahmad, Manzoor 07 October 2013 (has links)
Le contexte de ce travail de recherche se situe dans le domaine du génie logiciel, et vise plus spécifiquement les systèmes auto-adaptatifs (Self Adaptive Systems, SAS). Le travail de recherche vise les tous premiers stades du cycle de vie du développement logiciel : la phase de spécification des exigences (Requirements Engineering). Nous nous concentrons sur la définition et la modélisation des exigences (Elicitation) ainsi que sur leur vérification. La contribution globale de cette thèse est de proposer une approche intégrée pour la modélisation et la vérification des exigences des SAS à l'aide de techniques d'ingénierie des modèles (Model Driven Engineering, MDE). Nous prenons les exigences en entrée de notre processus et les divisons en exigences fonctionnelles et non fonctionnelles. Ensuite, nous appliquons un processus pour identifier les exigences qui sont adaptables et celles qui sont invariantes. Les progrès récents dans les techniques basées sur les buts en Ingénierie des Exigences nous ont poussé à intégrer ces techniques dans notre approche. En (Goal Oriented Requirements Engineering, GORE), les (Non Functional Requirements, NFR) sont exprimées sous la forme de buts, ce qui est beaucoup plus riche et complet dans la définition des relations entre les exigences. Ici, les exigences invariantes sont capturées par le concept de buts fonctionnels et les exigences adaptables sont capturées par le concept des buts non fonctionnels. Nous avons identifié quelques problèmes dans les méthodes classiques de modélisation des exigences et la vérification des propriétés. Ces approches ne tiennent pas compte des caractéristiques d'adaptabilité associées avec les systèmes auto-adaptatifs. Afin de valider notre approche, nous avons modélisé les exigences de deux études de cas et vérifié les exigences d'une étude de cas. / The overall contribution of this thesis is to propose an integrated approach for modeling and verifying the requirements of Self Adaptive Systems using Model Driven Engineering techniques. Model Driven Engineering is primarily concerned with reducing the gap between problem and software implementation domains through the use of technologies that support systematic transformation of problem level abstractions to software implementations. By using these techniques, we have bridged this gap through the use of models that describe complex systems at multiple levels of abstraction and through automated support for transforming and analyzing these models. We take requirements as input and divide it into Functional and Non Functional Requirements. We then use a process to identify those requirements that are adaptable and those that cannot be changed. We then introduce the concepts of Goal Oriented Requirements Engineering for modeling the requirements of Self Adaptive Systems, where Non Functional Requirements are expressed in the form of goals which is much more rich and complete in defining relations between requirements. We have identified some problems in the conventional methods of requirements modeling and properties verification using existing techniques, which do not take into account the adaptability features associated with Self Adaptive Systems. Our proposed approach takes into account these adaptable requirements and we provide various tools and processes that we developed for the requirements modeling and verification of Self Adaptive Systems. We validate our proposed approach by applying it on two different case studies in the domain of Self Adaptive Systems.

Page generated in 0.0388 seconds