• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 8
  • 7
  • 1
  • Tagged with
  • 57
  • 10
  • 10
  • 7
  • 7
  • 6
  • 6
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Collaborative brain-computer interfaces in rapid image presentation and motion pictures

Matran-Fernandez, Ana January 2017 (has links)
The last few years have seen an increase in brain-computer interface (BCI) research for the able-bodied population. One of these new branches involves collaborative BCIs (cBCIs), in which information from several users is combined to improve the performance of a BCI system. This thesis is focused on cBCIs with the aim of increasing understanding of how they can be used to improve performance of single-user BCIs based on event-related potentials (ERPs). The objectives are: (1) to study and compare different methods of creating groups using exclusively electroencephalography (EEG) signals, (2) to develop a theoretical model to establish where the highest gains may be expected from creating groups, and (3) to analyse the information that can be extracted by merging signals from multiple users. For this, two scenarios involving real-world stimuli (images presented at high rates and movies) were studied. The first scenario consisted of a visual search task in which images were presented at high frequencies. Three modes of combining EEG recordings from different users were tested to improve the detection of different ERPs, namely the P300 (associated with the presence of events of interest) and the N2pc (associated with shifts of attention). We showed that the detection and localisation of targets can improve significantly when information from multiple viewers is combined. In the second scenario, feature movies were introduced to study variations in ERPs in response to cuts through cBCI techniques. A distinct, previously unreported, ERP appears in relation to such cuts, the amplitude of which is not modulated by visual effects such as the low-level properties of the frames surrounding the discontinuity. However, significant variations that depended on the movie were found. We hypothesise that these techniques can be used to build on the attentional theory of cinematic continuity by providing an extra source of information: the brain.
42

Recomposition des organisations de santé et appropriation des TIC : le cas des Systèmes d’Information Hospitaliers (SIH) et du Dossier Patient Informatisé (DPI) / Reorganization of health organizations and appropriation of ICT : the case of Hospital Information Systems (HIS) and the Computerized Patient File (DPI)

Gravereaux, Clément 07 July 2017 (has links)
Avec l’essor des technologies de l’information et de la communication, la société et les organisations se transforment, serecomposent tous secteurs confondus. On appelle communément disruption, le changement de paradigme économique etorganisationnel lié aux TIC, plus précisément, à la digitalisation des processus.Les modes d’échanges entre les hommes ont évolué. Notre mémoire de master 2 (Numérique, recomposition organisationnelles et appropriation des TIC, Gravereaux, 2013) nous aura permis de comprendre que les véritables changements qui opèrent en organisation se situent au-delà des usages des espaces numériques de travail et des outils TIC.Notre thèse s’inscrit dans la continuité de ce travail préliminaire qui nous avait offert de questionner, de manière introductive, quelle pouvait être la portée de la dimension politique dans l’appropriation des technologies numériques.Cette thèse de doctorat a pour but de saisir, d’identifier, d’analyser et de conceptualiser, tant sur le plan théorique que pratique, le processus de transition organisationnelle qui opère dans les établissements de santé traversés par l’informatisation du dossier de soin et par la maturation des Systèmes d’Information Hospitalier. Après avoir compris qu’il fallait dépasser les usages pour comprendre l’appropriation des TIC, nous orienterons nos réflexions et enquêtes de façon à confronter ce point de vue et à lui donner une portée opérationnelle.Les phénomènes communicationnels liés aux changements et aux transformations en organisations constituent un élément central de ces recompositions. Le chercheur doit enquêter pour questionner et saisir ces phénomènes à l’aune de la compréhension particulière d’un établissement de santé.Le regard communicationnel porté sur un espace, un vécu, en transition, tentera de mettre à jour les conditions qui participent de l’appropriation des nouveaux outils liés à la traçabilité des soins : la forme informatisée du dossier patient.Notre thèse de doctorat se propose d’apporter une contribution à des problématiques de recherches actuelles en questionnant l’individu au travail au regard des questions politico-organisationnelles liées à l’appropriation du dossier patient informatisé.Ces acteurs que nous sommes venus « étudié », soignants, médecins, personnels administratif, sont au coeur, vivent, en même temps que l’organisation, ce phénomène de disruption qui affecte l’intégralité du dispositif organisationnel.À partir d’une rupture disruptive, de nouvelles formes d’organisation du travail, liées aux changements de pratiques del’information médicale, apparaissent, émerge des dissonances. De la même façon, pour accompagner cette organisation émergente, les formes et normes de management en santé, sont amenées à se recomposer et donc à se spécialiser.Nous assistons à une recomposition globale de la Santé, dont les composantes du dispositif tendent à faire de la contribution, de la collaboration, de l’autonomie et de la traduction, les nouveaux fondamentaux du management en organisations de santé accompagnant la métamorphose digitale des routines des acteurs. / With the growth of information and communication technologies, society and organizations are transforming, recomposing all sectors combined. The common paradigm shift is to change the economic and organizational paradigm linked to ICT, more precisely, to the digitalization of processes.The modes of exchange between men have evolved. Our Master 2 thesis (Digital, Organizational Reorganization andAppropriation of ICTs, Gravereaux, 2013) allowed us to understand that the real changes that operate in organization arebeyond the use of digital workspaces and ICT tools.Our thesis is part of the continuation of this preliminary work which offered us to question, in an introductory way, what could be the scope of the political dimension in the appropriation of digital technologies.This doctoral thesis aims at capturing, identifying, analyzing and conceptualizing, both theoretically and practically, the process of organizational transition that operates in the healthcare institutions through which the computerization of the care file And by the maturation of Hospital Information Systems. Having understood that we need to go beyond the uses to understand ICT appropriation, we will orient our reflections and investigations in order to confront this point of view and to give it an operational scope.The communicationa phenomena linked to changes and transformations in organizations are a central element of theserecompositions. The researcher must investigate and question these phenomena in terms of the particular understanding of a healthcare institution.The communicative look at a space, a experience, in transition, will try to update the conditions that participate in the appropriation of the new tools related to the traceability of care: the computerized form of the patient record.Our doctoral thesis proposes to make a contribution to current research questions by questioning the individual at work withregard to the politico-organizational issues related to the appropriation of the computerized patient record.These actors, who have come to be "studied", caregivers, doctors and administrative staff, are at the heart of this phenomenon of disruption, which affects the entire organizational system, at the same time as the organization.From a disruptive rupture, new forms of work organization, linked to changes in the practices of medical information, emerge, emerging from dissonances. In the same way, to support this emerging organization, the forms and standards of health management, are led to recompose and therefore to specialize.We are witnessing a global recomposition of health, whose components of the system tend to make contribution, collaboration, autonomy and translation, new fundamentals of management in health organizations accompanying the digital metamorphosis of routines actors.
43

Fast and flexible compilation techniques for effective speculative polyhedral parallelization / Techniques de compilation flexibles et rapides pour la parallelization polyédrique et spéculative

Martinez Caamaño, Juan Manuel 29 September 2016 (has links)
Dans cette thèse, nous présentons nos contributions à APOLLO : un compilateur de parallélisation automatique qui combine l'optimisation polyédrique et la parallélisation spéculative, afin d'optimiser des programmes dynamiques à la volée. Grâce à une phase de profilage en ligne et un modèle spéculatif du comportement mémoire du programme cible, Apollo est capable de sélectionner une optimisation et de générer le code résultant. Pendant l'exécution du programme optimisé, Apollo vérifie constamment la validité du modèle spéculatif. La contribution principale de cette thèse est un mécanisme de génération de code qui permet d'instancier toute transformation polyédrique, au cours de l'exécution du programme cible, sans engendrer de surcoût temporel majeur. Ce procédé est désormais utilisé dans Apollo. Nous l'appelons Code-Bones. Il procure des gains de performance significatifs par comparaison aux autres approches. / In this thesis, we present our contributions to APOLLO: an automatic parallelization compiler that combines polyhedral optimization with Thread-Level-Speculation, to optimize dynamic codes on-the-fly. Thanks to an online profiling phase and a speculation model about the target's code behavior, Apollo is able to select an optimization and to generate code based on it. During optimized code execution, Apollo constantly verifies the validity of the speculation model. The main contribution of this thesis is a code generation mechanism that is able to instantiate any polyhedral transformation, at runtime, without incurring a major time-overhead. This mechanism is currently in use inside Apollo. We called it Code-Bones. It provides significant performance benefits when compared to other approaches.
44

Vers une utilisation efficace des processeurs multi-coeurs dans des systèmes embarqués à criticités multiples / Towards an efficient use of multi-core processors in mixed criticality embedded systems

Blin, Antoine 30 January 2017 (has links)
Les systèmes embarqués dans les véhicules comportent un mélange d’applications temps réel et « best effort » déployées, pour des raisons d’isolation, sur des calculateurs séparés. L’ajout de nouvelles fonctionnalités dans les véhicules se traduit par un accroissement du nombre de calculateurs et ainsi par une augmentation des coûts, de la consommation électrique et de la dissipation thermique.L’émergence de nouvelles plate-formes multi-cœurs à bas coûts permet d’envisager le déploiement d’une nouvelle architecture dite « virtualisée » pour exécuter en parallèle sur un même calculateur les deux types d’applications. Néanmoins, la hiérarchie mémoire de tels calculateurs, reste partagée. Une application temps réel exécutée sur un cœur peut donc voir ses temps d’accès à la mémoire ralentis par les accès effectués par les applications « best effort » exécutées en parallèle entraînant ainsi la violation des échéances de la tâche temps réel.Dans cette thèse, nous proposons une nouvelle approche de gestion de la contention mémoire. Dans une première étape, hors ligne, nous générons un oracle capable d’estimer les ralentissements d’une tâche temps réel en fonction du trafic mémoire mesuré. Dans une deuxième étape, en ligne, les tâches temps réel sont exécutées en parallèle des applications « best effort ». Un mécanisme de régulation va surveiller la consommation mémoire et utiliser l’oracle généré précédemment pour estimer le ralentissement des tâches temps réel. Lorsque le ralentissement estimé est supérieur à celui fixé par le concepteur du système les applications « best effort » sont suspendues jusqu’à ce que l’application temps réel termine son activation. / Complex embedded systems today commonly involve a mix of real-time and best-effort applications integrated on separate microcontrollers thus ensuring fault isolation and error containment. However, this solution multiplies hardware costs, power consumption and thermal dissipation.The recent emergence of low-cost multi-core processors raises the possibility of running both kinds of applications on a single machine, with virtualization ensuring isolation. Nevertheless, the memory hierarchy on such processors is shared between all cores. Memory accesses done by a real time application running on one dedicated core can be slowed down by concurrent memory accesses initiated by best effort applications running in parallels. Therefore real time applications can miss their deadlines.In this thesis, we propose a run-time software-regulation approach that aims to maximize parallelism between real-time and best-effort applications running on a single low-cost multicore ECU. Our approach uses an overhead estimation derived from offline profiling of the real-time application to estimate the slow down on the real-time application caused by memory interferences. When the estimated overhead reaches a predefined threshold, our approach suspends the best-effort applications, allowing the real-time task to continue executing without interferences. Suspended best-effort applications are resumed when the real-time application ends its current activation.
45

Le problème de décompositions de points dans les variétés Jacobiennes / The point decomposition problem in Jacobian varieties

Wallet, Alexandre 26 November 2016 (has links)
Le problème du logarithme discret est une brique fondamentale de nombreux protocoles de communication sécurisée. Son instantiation sur les courbes elliptiques a permis, grâce à la petite taille des opérandes considérées, le déploiement de primitives asymétriques efficaces sur des systèmes embarqués. De nos jours, les cryptosystèmes utilisant des courbes elliptiques, aussi appelées courbes de genre 1, sont déjà intensément utilisés: il est donc impératif de savoir estimer précisément la robustesse de ces systèmes. L'existence d'attaques mathématiques permettant de transférer un problème de logarithme discret elliptique dans un autre type de courbe algébrique, et la nouvelle compétitivité des courbes de genre 2 imposent de ne pas se restreindre à la seule compréhension du problème sur les courbes elliptiques.Dans cette optique, le sujet de cette thèse se concentre sur les attaques algébriques sur les courbes de genre supérieur à 1. Les algorithmes de type calcul d'indice sont en général préférés pour ce genre d'attaque. Ces algorithmes se déroulent en deux phases: la première, appelée phase de récolte, dispose de nombreuses modélisations algébriques dépendant de la courbe ciblée. Le problème sous-jacent revient à savoir décomposer efficacement des points dans la variété Jacobienne de la courbe en somme d'autres points.On propose dans un premier temps une approche par crible pour la phase de récolte, s'adaptant à tous les types de courbes de genre plus grand que 1, et qui est expérimentalement plus efficaces que les méthodes de l'état de l'art. Cette méthode a l'avantage de proposer une implémentation immédiate, et évite les problèmes usuels de gestion des relations obtenues.Ensuite, on se concentre les variantes de calcul d'indice appelées attaques par décomposition, et ciblant les courbes définies sur des extensions de corps. Dans cette situation, la phase de récolte est effectuée par résolution de nombreux systèmes polynomiaux multivariés. On propose une nouvelle approche de modélisation de ces systèmes, en généralisant la notion de polynômes de sommation elliptique à tout les types de courbes algébriques. Pour cela on fait appel à la théorie de l'élimination, tandis que l'aspect pratique est gérée par des méthodes de bases de Gröbner.Enfin, on fournit des algorithmes d'amélioration du processus de résolution des systèmes lorsque la caractéristique du corps de base est paire. Par le biais d'une présentation théorique générale et en utilisant des méthodes de bases de Gröbner, on propose une analyse fine de l'impact de ces améliorations sur la complexité de la résolution. Cette analyse fine, ainsi qu'une implémentation dédiée, nous permettent d'attaquer une courbe de genre 2 satisfaisant des bornes de sécurité réaliste en pratique. / The discrete logarithm problem is a fundamental brick for several protocols for secured communications. Its instantiation over elliptic curves allows the deployment of efficient asymmetric primitives in embedded systems, because of the small size of the parameters considered. Nowadays, elliptic curves cryptosystems are already widely used: it is therefore crucial to precisely understand the hardness of such systems. Because of the existence of mathematical attacks enabling the transfer from an elliptic curve discrete logarithm problem to another algebraic curve, and the upcoming competitivity of genus 2 curves, it is mandatory to study the problem not only for elliptic curves, but for the other curves as well.In this way, this thesis focuses on the algebraic attacks over curves with genus greater than 1. The index calculus family of algorithms is in general preferred for this kind of attacks. Those algorithms run in two phases: the first, called harvesting phase, can be modelled by different algebraic approaches, depending in the targetted curve. The underlying problem amounts to knowing how to decompose efficiently points in the Jacobian variety of the curve into sums of other points.First, we propose a sieving approach to the harvesting, that can be adated to any type of curves with genus greater than 1, and which turns to be experimentally more efficient than state-of-the-art's methods. Moreover, our method allows a close-to-immediate implementation, and avoid complications coming from relations management.Our second focus is on a variant of index calculus called decomposition attack, targetting curves defined over field extensions. In this situation, harvesting is done by solving numerous multivariate polynomial systems. We propose a new approach to this modelling by generalizing the notion of elliptic summation polynomias to any type of algebraic curves. This uses elimination theory, and the computational aspect is handled by Gröbner bases methods.Third, we give algorithms to improve the solving process of the systems arising from a decomposition attacks when the characteristic of the base field is even. By mean of a general theoretical presentation, and using Gröbner bases methods, we give a sharp analysis of the impact of such improvement on the complexity of the resolution process. This sharp analysis together with a dedicated implementation allows us to attack a genus 2 curve satisfying realistic security parameters.
46

Commande et optimisation d'une installation multi-sources. / Control and Optimization of a Photovoltaic Installation.

Alotaibi, Lafi 30 March 2012 (has links)
Cette thèse traite la commande et l'optimisation d'une installation photovoltaïquepour un site isolé. Ainsi, nous avons proposé un algorithme par logique flouepermettant la poursuite du point de puissance maximal afin de remédier auxinconvénients des méthodes classiques. Ensuite, nous nous sommes intéressés àl'optimisation de la structure de l'installation. En effet, dans les installationsclassiques, dans le cas de défaillance d'un panneaux, tout le bloc série devientinutilisable, ce qui réduit considérablement les capacités de production del'installation. Pour résoudre ce problème, nous avons proposé un superviseur permettant la reconfiguration automatique de l'installation de telle sorte que seul lepanneaux défaillant est mis hors connexion. Par ailleurs, pour gérer le flux depuissance et pour répondre à la demande de l'utilisateur, nous avons développé un superviseur par logique floue. Ainsi, le surplus de production est stocké systématiquement dans la batterie pour l'utiliser ensuite en cas où la demandedépasse la production. De plus, la structure proposée permet de ne solliciter la batterie en cas de besoin de ce qui permet de prolonger considérablement sa duréede vie. / This thesis addresses the control and optimization of a stand-alone photovoltaicsystem. Thus, we proposed a fuzzy logic algorithm for tracking the maximum powerpoint to overcome the disadvantages of classical methods. Then we focused onoptimizing the structure of the installation. Indeed, in conventional systems, in thecase of failure of a panel, the whole serie block becomes unusable, greatly reducingthe production capacity. To resolve this problem, we proposed a supervisor for theautomatic reconfiguration of the installation so that only the failed panels is takenoffline. Furthermore, to manage the power flow and to meet user demand, wedeveloped a fuzzy supervisor. Thus, the surplus production is systematically storedin the battery for later use in cases where demand exceeds production. In addition,the proposed structure can not draining the battery in case of need thereby greatlyextend its lifetime.
47

APPROCHE INTELLIGENTE À BASE DE RAISONNEMENT À PARTIR DE CAS POUR LE DIAGNOSTIC EN LIGNE DES SYSTÈMES AUTOMATISÉS DE PRODUCTION / Intelligent case based reasoning approach for online diagnosis of automated production systems

Ben Rabah, Nourhène 14 December 2018 (has links)
Les systèmes automatisés de production (SAP) représentent une classe importante des systèmes industriels qui sont de plus en plus complexes vue le grand nombre d’interaction et d’interconnexion entre leurs différents composants. En conséquence, ils sont plus sensibles aux dysfonctionnements dont les conséquences peuvent être importantes en termes de productivité, de sécurité et de qualité de production. Un défi majeur est alors de développer une approche intelligente qui peut être utilisée pour le diagnostic de ces systèmes afin de garantir leurs suretés de fonctionnement. Dans le cadre de cette thèse, nous nous intéressons seulement au diagnostic des SAP ayant une dynamique discrète. Nous présentons dans le premier chapitre ces systèmes, les dysfonctionnements possibles et la terminologie du diagnostic utilisée. Ensuite, nous présentons un état de l’art de différentes méthodes et approches existantes et aussi une synthèse de ces méthodes. Cette synthèse nous a motivé de choisir une approche à base de donnée qui s’appuie sur une technique d’apprentissage automatique, qui est le raisonnement à partir de cas (RàPC). Pour cela, nous avons présenté dans le deuxième chapitre un état de l’art sur l’apprentissage automatique et ses différentes méthodes en mettant l’accent essentiellement sur le RàPC et ses utilisations pour le diagnostic des systèmes industriels. Cette étude nous a permis de proposer dans le chapitre 3 une approche d’aide au diagnostic qui se base sur le RàPC. Cette approche s’appuie sur une phase hors ligne et une phase en ligne. La phase hors ligne permet de définir un format de représentation de cas et de construire une base de cas normaux (BCN) et une base de cas défaillants (BCD) à partir d’une base de données d’historique. La phase en ligne permet d’aider les opérateurs humains de surveillance à la prise de la décision du diagnostic la plus adéquate. Les résultats des expérimentations sur un système de tri de caisses ont présentés les piliers de cette approche qui résident au niveau du format de représentation de cas proposé et au niveau de la base de cas utilisé. Pour résoudre ces problèmes et améliorer les résultats, un nouveau format de représentation de cas est proposé dans le chapitre 4. Selon ce format et à partir des données issues du système simulé après son émulation en mode normal et fautif, les cas de la base de cas initiale sont construits. Ensuite, une phase de raisonnement et d’apprentissage incrémental est présentée. Cette phase permet non seulement le diagnostic du système surveillé mais aussi d’enrichir la base de cas suite à l’apparition des nouveaux comportements inconnus. Les expérimentations présentées dans le chapitre 5 sur « le plateau tournant » qui est un sous système du système « tri de caisses » ont permis de montrer l’amélioration des résultats et aussi d’évaluer et de comparer les performances de l’approche proposée vis-à-vis certaines approches d’apprentissage automatique et vis-à-vis une approche à base de modèle pour le diagnostic du plateau tournant. / Automated production systems (APS) represents an important class of industrial systems that are increasingly complex given the large number of interactions and interconnections between their different components. As a result, they are more susceptible to malfunctions, whose consequences can be significant in terms of productivity, safety and quality of production. A major challenge is to develop an intelligent approach that can be used to diagnose these systems to ensure their operational safety. In this thesis, we are only interested in the diagnosis of APS with discrete dynamics. We present in the first chapter these systems, the possible malfunctions and the used terminology for the diagnosis. Then, we present a state of the art of the existing methods for the diagnosis of this class of systems and also a synthesis of these methods. This synthesis motivated us to choose a data-based approach that relies on a machine learning technique, which is Case-Based Reasoning (CBR). For this reason, we presented in the second chapter a state of the art on machine learning and its different methods with a focus mainly on the CBR and its uses for the diagnosis of industrial systems. This study allowed us to propose in Chapter 3 a Case Based Decision Support System for the diagnosis of APS. This system is based on an online block and an offline block. The Offline block is used to define a case representation format and to build a Normal Case Base (NCB) and a Faulty Case Base (FCB) from a historical database. The online block helps human operators of monitoring to make the most appropriate diagnosis decision. The experiments results perform on a sorting system presented the pillars of this approach, which reside in the proposed case representation format and in the used case base. To solve these problems and improve the results, a new case representation format is proposed in chapter 4. According to this format and from the data acquired from the simulated system after its emulation in normal and faulty mode, cases of the initial case base are build. Then, a reasoning and incremental learning phase is presented. This phase allows the system diagnosis and the enrichment of the case base following the appearance of new unknown behaviors. The experiments presented in Chapter 5 and perform on the 'turntable' which is a subsystem of the 'sorting system” allowed to show the improvement of the results and also to evaluate and compare the performances of the proposed approach with some automatic learning approaches and with a model-based approach to turntable diagnosis.
48

Beyond the realm of the polyhedral model : combining speculative program parallelization with polyhedral compilation / Au-delà des limites du modèle polyédrique : l'alliage de la parallélisation spéculative de programmes avec la compilation polyédrique

Sukumaran Rajam, Aravind 05 November 2015 (has links)
Dans cette thèse, nous présentons nos contributions à Apollo (Automatic speculative POLyhedral Loop Optimizer), qui est un compilateur automatique combinant la parallélisation spéculative et le modèle polyédrique, afin d’optimiser les codes à la volée. En effectuant une instrumentation partielle au cours de l’exécution, et en la soumettant à une interpolation, Apollo est capable de construire un modèle polyédrique spéculatif dynamiquement. Ce modèle spéculatif est ensuite transmis à Pluto, qui est un ordonnanceur polyédrique statique. Apollo sélectionne ensuite un des squelettes d’optimisation de code générés statiquement, et l’instancie. La partie dynamique d’Apollo surveille continuellement l’exécution du code afin de détecter de manière dé- centralisée toute violation de dépendance. Une autre contribution importante de cette thèse est notre extension du modèle polyédrique aux codes exhibant un comportement non-linéaire. Grâce au contexte dynamique et spéculatif d’Apollo, les comportements non-linéaires sont soit modélisés par des hyperplans de régression linéaire formant des tubes, soit par des intervalles de valeurs atteintes. Notre approche permet l’application de transformations polyédriques à des codes non-linéaires grâce à un système de vérification de la spéculation hybride, combinant vérifications centralisées et décentralisées. / In this thesis, we present our contributions to APOLLO (Automatic speculative POLyhedral Loop Optimizer), which is an automated compiler combining Thread Level Speculation (TLS) and the polyhedral model to optimize codes on the fly. By doing partial instrumentation at runtime, and subjecting it to interpolation, Apollo is able to construct a speculative polyhedral model dynamically. The speculative model is then passed to Pluto -a static polyhedral scheduler-. Apollo then selects one of the statically generated code optimization skeletons and instantiates it. The runtime continuously monitors the code for any dependence violation in a decentralized manner. Another important contribution of this thesis is our extension of the polyhedral model to codes exhibiting a non linear behavior. Thanks to the dynamic and speculative context offered by Apollo, non-linear behaviors are either modeled using linear regression hyperplanes forming tubes, or using ranges of reached values. Our approach enables the application of polyhedral transformations to non-linear codes thanks to an hybrid centralized-decentralized speculation verification system
49

RA-LPEL : a Resource-Aware Light-weight Parallel Execution Layer for reactive stream processing networks on the SCC many-core tiled architecture

Karavadara, Nilesh January 2016 (has links)
In computing the available computing power has continuously fallen short of the demanded computing performance. As a consequence, performance improvement has been the main focus of processor design. However, due to the phenomenon called 'Power Wall' it has become infeasible to build faster processors by just increasing the processor's clock speed. One of the resulting trends in hardware design is to integrate several simple and power-efficient cores on the same chip. This design shift poses challenges of its own. In the past, with increasing clock frequency the programs became automatically faster as well without modifications. This is no longer true with many-core architectures. To achieve maximum performance the programs have to run concurrently on more than one core, which forces the general computing paradigm to become increasingly parallel to leverage maximum processing power. In this thesis, we will focus on the Reactive Stream Program (RSP). In stream processing, the system consists of computing nodes, which are connected via communication streams. These streams simplify the concurrency management on modern many-core architectures due to their implicit synchronisation. RSP is a stream processing system that implements the reactive system. The RSPs work in tandem with their environment and the load imposed by the environment may vary over time. This provides a unique opportunity to increase performance per watt. In this thesis the research contribution focuses on the design of the execution layer to run RSPs on tiled many-core architectures, using the Intel's Single-chip Cloud Computer (SCC) processor as a concrete experimentation platform. Further, we have developed a Dynamic Voltage and Frequency Scaling (DVFS) technique for RSP deployed on many-core architectures. In contrast to many other approaches, our DVFS technique does not require the capability of controlling the power settings of individual computing elements, thus making it applicable for modern many-core architectures, with which power can be changed only for power islands. The experimental results confirm that the proposed DVFS technique can effectively improve the energy efficiency, i.e. increase the performance per watt, for RSPs.
50

Algorithme de recherche incrémentale d'un motif dans un ensemble de séquences d'ADN issues de séquençages à haut débit / Algorithms of on-line pattern matching in a set of highly sequences outcoming from next sequencing generation

Ben Nsira, Nadia 05 December 2017 (has links)
Dans cette thèse, nous nous intéressons au problème de recherche incrémentale de motifs dans des séquences fortement similaires (On-line Pattern Matching on Highly Similar Sequences), issues de technologies de séquençage à haut débit (SHD). Ces séquences ne diffèrent que par de très petites quantités de variations et présentent un niveau de similarité très élevé. Il y a donc un fort besoin d'algorithmes efficaces pour effectuer la recherche rapide de motifs dans de tels ensembles de séquences spécifiques. Nous développons de nouveaux algorithmes pour traiter ce problème. Cette thèse est répartie en cinq parties. Dans la première partie, nous présentons un état de l'art sur les algorithmes les plus connus du problème de recherche de motifs et les index associés. Puis, dans les trois parties suivantes, nous développons trois algorithmes directement dédiés à la recherche incrémentale de motifs dans un ensemble de séquences fortement similaires. Enfin, dans la cinquième partie, nous effectuons une étude expérimentale sur ces algorithmes. Cette étude a montré que nos algorithmes sont efficaces en pratique en terme de temps de calcul / In this thesis, we are interested in the problem of on-line pattern matching in highly similar sequences, On-line Pattern Matching on Highly Similar Sequences, outcoming from Next Generation Sequencing technologies (NGS). These sequences only differ by a very small amount. There is thus a strong need for efficient algorithms for performing fast pattern matching in such specific sets of sequences. We develop new algorithms to process this problem. This thesis is partitioned into five parts. In the first part, we present a state of the art on the most popular algorithms of finding problem and the related indexes. Then, in the three following parts, we develop three algorithms directly dedicated to the on-line search for patterns in a set of highly similar sequences. Finally, in the fifth part, we conduct an experimental study on these algorithms. This study shows that our algorithms are efficient in practice in terms of computation time.

Page generated in 0.4179 seconds