• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 655
  • 220
  • 55
  • 3
  • 2
  • 2
  • 1
  • Tagged with
  • 932
  • 729
  • 427
  • 340
  • 200
  • 178
  • 151
  • 145
  • 121
  • 116
  • 107
  • 89
  • 84
  • 72
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
231

Volumes d'ombre en rendu temps réel : Complexité géométrique et stratégie de partitionnement / Geometric complexity and partitioning strategy for real-time Shadow Volumes

Deves, François 22 October 2019 (has links)
Les ombres sont un élément fondamental pour garantir le réalisme des images de synthèses. Elles donnent des informations nécessaires pour discerner correctement le positionnement relatif des objets. Le calcul d'ombre dures exactes en temps-réel reste toutefois un problème difficile en Informatique Graphique. Les Shadow Maps sont privilégiées pour leurs excellentes performances, mais elles ne peuvent garantir un résultat exact par pixel. Les volumes d'ombre sont plus lents que les Shadow Maps mais produisent des ombres exactes en toute circonstances. Bien qu'ils aient récemment atteint un haut niveau de performances, ils restent sensibles à la complexité géométrique et sont limités à des scènes de taille modeste. Dans cette thèse, nous proposons un nouvel algorithme de rendu d'ombres dures en temps réel basé sur les volumes d'ombre qui reste rapide sur des scènes de très grande tailles. De plus, nous introduisons une nouvelle stratégie de partitionnement jusque-là inexplorée en Informatique Graphique : les arbres métriques. / Shadows are a fundamental visual effect for computer generated images. They provide essential spatial hints allowing us to correctly perceive objects positions in the scene. Despite its importance, computing pixel accurate shadows in real-time is a challenging problem in Computer Graphics. Shadow Maps are still the favored solution due to their high efficiency, but they can't always provide pixel accurate results. Shadow Volumes are slower than Shadow Maps but always garantee pixel accurate shadows. While recent works significantly improved their performance, they remain sensitive to scalability, which limits their application scope. In this thesis, we propose a new algorithm based on Shadow Volumes that remains fast even on very large scenes. Furthermore, we introduce a new partitioning strategy that is yet unexplored in Computer Graphics : the metric tree.
232

Par-delà le rêve et la veille ˸ la fin du monde. Une approche cosmologique de l'entre-deux. S. Hedayat, I. al-Koni et A. Volodine / Beyond Dream and Wake ˸ the end of the world. A cosmological approach to the in-between. S. Hedayat, I. al-Koni & A. Volodine

Khalsi, Khalil 03 May 2019 (has links)
Cette thèse propose d’étudier l’entre-deux du rêve et de la veille sous un angle cosmologique. Notre hypothèse est que chacun des textes du corpus véhicule une vision particulière du monde médiée par un plan interstitiel à travers lequel les protagonistes négocient leur identité ainsi que leur rapport au monde, notamment en contexte d’apocalypse culturelle. Dans le chapitre zéro, nous inscrivons notre propos dans le champ discursif contemporain s’attelant à réévaluer le concept de « grand partage » sur lequel se base l’ontologie moderne (Descola, Latour, Morin). Cette déconstruction nous amène à considérer le rapport de médiation que rêve et réel peuvent entretenir dans un contexte de crise de l’imagination (Augé), de sorte à interroger le type de réel porteur d’avenir que cette logique dialectique (Benjamin) permet d’envisager. À l’aune de ce dispositif épistémologique, le premier chapitre s'intéresse au roman La Chouette aveugle (Bouf-e-kour) de l’Iranien Sadegh Hedayat (1936). À travers l’entre-deux du rêve et de la veille, transparaît l’effondrement de la cosmologie perse antique, qu’un ange-femme signifie au narrateur en ve-nant mourir dans son lit ; l’analyse herméneutique et sémantique du texte révèle le basculement d’une vision du monde prémoderne, basée sur le déchiffrement du Réel imaginal par l’« angélophanie » (Corbin), à une perspective spectrale soumettant le présent à l’intempestivité d’une origine irrévocablement morte (Derrida). Dans le second chapitre, l’analyse de Poussière d’or (al-Tibr) du Touareg Ibrahim al-Koni (1990) fait apparaître l’entre-deux comme le socle d’une structure cosmique où les êtres s’opposent et se complètent entre visible et invisible (Claudot-Hawad) ; à travers la descente aux enfers que vit le protagoniste entre rêve et veille, l’étude cosmologique dévoile toute une écologie qui étend le territoire de l’humain à travers celui de l’esprit et de l’animal, de sorte à le faire accéder à « l’unité de l’existence » dont le désert est l’équation. Le troisième et dernier chapitre se consacre à l’analyse du Port intérieur d’Antoine Volodine (1995), et du post-exotisme en général, qui imagine l’entre-deux du rêve et de la veille comme un médium de transmigration ; nous proposons de voir comment l’apocalypse, sans cesse réactivée, lève le voile sur l’horreur du réel que les personnages réélaborent dans une éternelle transition. Enfin, la mise en écho de ces trois œuvres permet de considérer la capacité du rêve à générer du réel au seuil de l’inconnu de l’avenir, que la littérature invite à reconcevoir par le biais d’une refondation cosmologique. / This dissertation aims to study the in-between of dreams and wake from a cosmological angle. We will argue that every text of our corpus conveys a particular vision of the world mediated by an interstitial level, through which the characters negotiate their identity and relationship with the world, notably in a context of cultural apocalypse. In chapter zero, we situate our statement vis a vis the contemporary field of discourse aiming to re-evaluate the concept of ‘‘Great Divide”, on which modern ontology is based (Descola, Latour, Morin). This deconstruction leads us to con-sider the mediation link interrelating dreams with reality in a context of imagination crisis (Augé), so as to interrogate the type of forward-looking reality that the dialectical logic (Benja-min) makes us consider. In light of this epistemological device, the first chapter focuses on the novel The Blind Owl (Bouf-e-kour) by Iranian writer Sadegh Hedayat (1936). Between the states of dream and wake is revealed the collapse of ancient Persian cosmology, signified to the narra-tor by a female angel coming to die in his bed. The hermeneutic and semantic analysis of the text reveals the shift from a premodern vision of the world, based on the deciphering of the Imaginal Real through « angélophanie » (Corbin), to a spectral perspective subjecting the present to an irrevocably dead origin (Derrida). In the second chapter, the Tuareg Ibrahim al-Koni’s (al-Tibr, 1990) Gold Dust shows the in-between as the pedestal of a cosmic structure where beings op-pose and complement each other between the visible and the invisible (Claudot-Hawad). Through the protagonist’s descent into hell between dream and wake, a cosmological study re-veals an ecology extending human territory through the spirit and animal domains, so as to make it reach the ‘‘unity of existence’’ which desert is the equation. The third and final chapter is de-voted to the analysis of Antoine Volodine's Le Port intérieur (1995) and post-exoticism in gen-eral, which describes the in-between as a transmigration medium. We aim to investigate how the apocalypse, constantly reactivated, lifts the veil on the horrific reality that the characters reimag-ine in an eternal transition between life and death, dream and wake. Finally, the echoing of these three works leads us to question the dream's ability to generate reality on the threshold of the future’s unknown, which literature invites us to redesign through a cosmological refoundation.
233

Par-delà le rêve et la veille : la fin du monde. Une approche cosmologique de l'entre-deux. S. Hedayat, I. al-Koni et A. Volodine

Khalsi, Khalil 10 1900 (has links)
No description available.
234

Vers une utilisation efficace des processeurs multi-coeurs dans des systèmes embarqués à criticités multiples / Towards an efficient use of multi-core processors in mixed criticality embedded systems

Blin, Antoine 30 January 2017 (has links)
Les systèmes embarqués dans les véhicules comportent un mélange d’applications temps réel et « best effort » déployées, pour des raisons d’isolation, sur des calculateurs séparés. L’ajout de nouvelles fonctionnalités dans les véhicules se traduit par un accroissement du nombre de calculateurs et ainsi par une augmentation des coûts, de la consommation électrique et de la dissipation thermique.L’émergence de nouvelles plate-formes multi-cœurs à bas coûts permet d’envisager le déploiement d’une nouvelle architecture dite « virtualisée » pour exécuter en parallèle sur un même calculateur les deux types d’applications. Néanmoins, la hiérarchie mémoire de tels calculateurs, reste partagée. Une application temps réel exécutée sur un cœur peut donc voir ses temps d’accès à la mémoire ralentis par les accès effectués par les applications « best effort » exécutées en parallèle entraînant ainsi la violation des échéances de la tâche temps réel.Dans cette thèse, nous proposons une nouvelle approche de gestion de la contention mémoire. Dans une première étape, hors ligne, nous générons un oracle capable d’estimer les ralentissements d’une tâche temps réel en fonction du trafic mémoire mesuré. Dans une deuxième étape, en ligne, les tâches temps réel sont exécutées en parallèle des applications « best effort ». Un mécanisme de régulation va surveiller la consommation mémoire et utiliser l’oracle généré précédemment pour estimer le ralentissement des tâches temps réel. Lorsque le ralentissement estimé est supérieur à celui fixé par le concepteur du système les applications « best effort » sont suspendues jusqu’à ce que l’application temps réel termine son activation. / Complex embedded systems today commonly involve a mix of real-time and best-effort applications integrated on separate microcontrollers thus ensuring fault isolation and error containment. However, this solution multiplies hardware costs, power consumption and thermal dissipation.The recent emergence of low-cost multi-core processors raises the possibility of running both kinds of applications on a single machine, with virtualization ensuring isolation. Nevertheless, the memory hierarchy on such processors is shared between all cores. Memory accesses done by a real time application running on one dedicated core can be slowed down by concurrent memory accesses initiated by best effort applications running in parallels. Therefore real time applications can miss their deadlines.In this thesis, we propose a run-time software-regulation approach that aims to maximize parallelism between real-time and best-effort applications running on a single low-cost multicore ECU. Our approach uses an overhead estimation derived from offline profiling of the real-time application to estimate the slow down on the real-time application caused by memory interferences. When the estimated overhead reaches a predefined threshold, our approach suspends the best-effort applications, allowing the real-time task to continue executing without interferences. Suspended best-effort applications are resumed when the real-time application ends its current activation.
235

Adaptability and reconfiguration of automotive embedded systems / Adaptabilité et reconfiguration des systémes embarqués automobiles

Belaggoun, Amel 10 October 2017 (has links)
Les véhicules modernes sont de plus en plus informatisés pour satisfaire les exigences de sureté les plus strictes et pour fournir de meilleures expériences de conduite. Par conséquent, le nombre d'unités de contrôle électronique (ECU) dans les véhicules modernes a augmenté de façon continue au cours des dernières années. En outre, les applications à calcul complexe offrent une demande de calcul plus élevée sur les ECU et ont des contraintes de temps-réel dures et souples, d'où le besoin d’une approche unifiée traitant les deux types de contraintes. Les architectures multi-cœur permettent d'intégrer plusieurs niveaux de criticité de sureté sur la même plate-forme. De telles applications ont été conçues à l'aide d'approches statiques; cependant, les approches dites statiques ne sont plus réalisables dans des environnements très dynamiques en raison de la complexité croissante et les contraintes de coûts strictes, d’où la nécessite des solutions plus souples. Cela signifie que, pour faire face aux environnements dynamiques, un système automobile doit être adaptatif; c'est-à-dire qu'il doit pouvoir adapter sa structure et / ou son comportement à l'exécution en réponse à des changements fréquents dans son environnement. Ces nouvelles exigences ne peuvent être confrontées aux approches actuelles des systèmes et logiciels automobiles. Ainsi, une nouvelle conception de l'architecture électrique / électronique (E / E) d'un véhicule doit être développé. Récemment, l'industrie automobile a convenu de changer la plate-forme AUTOSAR actuelle en "AUTOSAR Adaptive Platform". Cette plate-forme est développée par le consortium AUTOSAR en tant que couche supplémentaire de la plate-forme classique. Il s'agit d'une étude de faisabilité continue basée sur le système d'exploitation POSIX qui utilise une communication orientée service pour intégrer les applications dans le système à tout moment. L'idée principale de cette thèse est de développer de nouveaux concepts d'architecture basés sur l'adaptation pour répondre aux besoins d'une nouvelle architecture E / E pour les véhicules entièrement électriques (VEF) concernant la sureté, la fiabilité et la rentabilité, et les intégrer à AUTOSAR. Nous définissons l'architecture ASLA (Adaptive System Level in AUTOSAR), qui est un cadre qui fournit une solution adaptative pour AUTOSAR. ASLA intègre des fonctions de reconfiguration au niveau des tâches telles que l'addition, la suppression et la migration des tâches dans AUTOSAR. La principale différence entre ASLA et la plate-forme Adaptive AUTOSAR est que ASLA permet d'attribuer des fonctions à criticité mixtes sur le même ECU ainsi que des adaptations bornées temps-réel, tant dis que Adaptive AUTOSAR sépare les fonctions temps réel critiques (fonctionnant sur la plate-forme classique) des fonctions temps réel non critiques (fonctionnant sur la plate-forme adaptative). Pour évaluer la validité de notre architecture proposée, nous fournissons une implémentation prototype de notre architecture ASLA et nous évaluons sa performance à travers des expériences. / Modern vehicles have become increasingly computerized to satisfy the more strict safety requirements and to provide better driving experiences. Therefore, the number of electronic control units (ECUs) in modern vehicles has continuously increased in the last few decades. In addition, advanced applications put higher computational demand on ECUs and have both hard and soft timing constraints, hence a unified approach handling both constraints is required. Moreover, economic pressures and multi-core architectures are driving the integration of several levels of safety-criticality onto the same platform. Such applications have been traditionally designed using static approaches; however, static approaches are no longer feasible in highly dynamic environments due to increasing complexity and tight cost constraints, and more flexible solutions are required. This means that, to cope with dynamic environments, an automotive system must be adaptive; that is, it must be able to adapt its structure and/or behaviour at runtime in response to frequent changes in its environment. These new requirements cannot be faced by the current state-of-the-art approaches of automotive software systems. Instead, a new design of the overall Electric/Electronic (E/E) architecture of a vehicle needs to be developed. Recently, the automotive industry agreed upon changing the current AUTOSAR platform to the “AUTOSAR Adaptive Platform”. This platform is being developed by the AUTOSAR consortium as an additional product to the current AUTOSAR classic platform. This is an ongoing feasibility study based on the POSIX operating system and uses service-oriented communication to integrate applications into the system at any desired time. The main idea of this thesis is to develop novel architecture concepts based on adaptation to address the needs of a new E/E architecture for Fully Electric Vehicles (FEVs) regarding safety, reliability and cost-efficiency, and integrate these in AUTOSAR. We define the ASLA (Adaptive System Level in AUTOSAR) architecture, which is a framework that provides an adaptive solution for AUTOSAR. ASLA incorporates tasks-level reconfiguration features such as addition, deletion and migration of tasks in AUTOSAR. The main difference between ASLA and the Adaptive AUTOSAR platform is that ASLA enables the allocation of mixed critical functions on the same ECU as well as time-bound adaptations while adaptive AUTOSAR separates critical, hard real-time functions (running on the classic platform) from non-critical/soft-real-time functions (running on the adaptive platform). To assess the validity of our proposed architecture, we provide an early prototype implementation of ASLA and evaluate its performance through experiments.
236

Approches de parallélisation automatique et d'ordonnancement pour la co-simulation de modèles numériques sur processeurs multi-coeurs / Automatic parallelization and scheduling approaches for co-simulation of numerical models on multi-core processors

Saidi, Salah Eddine 18 April 2018 (has links)
Lors de la conception de systèmes cyber-physiques, des modèles issus de différents environnements de modélisation doivent être intégrés afin de simuler l'ensemble du système et estimer ses performances. Si certaines parties du système sont disponibles, il est possible de connecter ces parties à la simulation dans une approche Hardware-in-the-Loop (HiL). La simulation doit alors être effectuée en temps réel où les modèles réagissent périodiquement aux composants réels. En utilisant des modèles complexes, il devient difficile d'assurer une exécution rapide ou en temps réel sans utiliser des architectures multiprocesseurs. FMI (Functional Mocked-up Interface), un standard pour l'échange de modèles et la co-simulation, offre de nouvelles possibilités d'exécution multi-cœurs des modèles. L'un des objectifs de cette thèse est de permettre l'extraction du parallélisme potentiel dans une co-simulation multi-rate. Nous nous appuyons sur l'approche RCOSIM qui permet la parallélisation de modèles FMI. Des améliorations sont proposées dans le but de surmonter les limitations de RCOSIM. Nous proposons de nouveaux algorithmes pour permettre la prise en charge de modèles multi-rate. Les améliorations permettent de gérer des contraintes spécifiques telles que l'exclusion mutuelle et les contraintes temps réel. Nous proposons des algorithmes pour l'ordonnancement des co-simulations, en tenant compte de différentes contraintes. Ces algorithmes visent à accélérer la co-simulation ou assurer son exécution temps réel dans une approche HiL. Les solutions proposées sont testées sur des co-simulations synthétiques et validées sur un cas industriel. / When designing cyber-physical systems, engineers have to integrate models from different modeling environments in order to simulate the whole system and estimate its global performances. If some parts of the system are available, it is possible to connect these parts to the simulation in a Hardware-in-the-Loop (HiL) approach. In this case, the simulation has to be performed in real-time where models periodically react to the real components. The increase of requirements on the simulation accuracy and its validity domain requires more complex models. Using such models, it becomes hard to ensure fast or real-time execution without using multiprocessor architectures. FMI (Functional Mocked-up Interface), a standard for model exchange and co-simulation, offers new opportunities for multi-core execution of models. One goal of this thesis is the extraction of potential parallelism in a set of interconnected multi-rate models. We build on the RCOSIM approach which allows the parallelization of FMI models. In the first part of the thesis, improvements have been proposed to overcome the limitations of RCOSIM. We propose new algorithms in order to allow handling multi-rate models and schedule them on multi-core processors. The improvements allow handling specific constraints such as mutual exclusion and real-time constraints. Second, we propose algorithms for the allocation and scheduling of co-simulations, taking into account different constraints. These algorithms aim at accelerating the execution of the co-simulation or ensuring its real-time execution in a HiL approach. The proposed solutions have been tested on synthetic co-simulations and validated against an industrial use case.
237

Une approche efficace et polyvalente pour l'ordonnancement de systèmes à criticité mixte sur processeur multi-coeurs / Versatile and efficient mixed–criticality scheduling for multi-core processors

Gratia, Romain 06 January 2017 (has links)
Ce document présente nos contributions aux algorithmes d'ordonnancement à criticité mixte pour multi-processeurs. La correction de l'exécution des applications temps réel critiques est assurée par l'utilisation d'un ordonnancement vérifié à la conception. Dans ce contexte, le dimensionnement des plate-formes d'exécution vise à minimiser le nombre de processeurs nécessaires pour assurer un ordonnancement correct. Ce dimensionnement est affecté par les exigences de sûreté de fonctionnement. Ces exigences poussent à surestimer le temps nécessaire garantissant l'exécution correcte des applications. Il en découle un dimensionnement assez coûteux. Les méthodes d'ordonnancement des systèmes à criticité mixte proposent des compromis sur les garanties d'exécution des applications améliorant le dimensionnement. Différents compromis ont été proposés mais tous reposent sur la notion de mode d'exécution. Les modes sont ordonnés, et les tâches voient leur temps d'exécution requis croître avec les modes. Cependant, afin de diminuer le dimensionnement du système, seul l'ordonnancement des tâches les plus critiques est garanti. Ce modèle est appelé "discarding". La majorité des algorithmes proposés se limitent à deux modes d'exécutions par simplicité. De plus, les algorithmes les plus efficaces pour multi-processeurs exhibent un nombre élevé de préemptions, ce qui constitue un frein à leur adoption. Finalement, ces algorithmes sont rarement généralisables. Pourtant, la prise en compte de plus de deux modes, ou de tâches aux périodes élastiques permettrait une adoption plus large par le milieu industriel. L'approche proposée repose sur la séparation des préoccupations entre la prise en compte des modes de fonctionnement, et l'ordonnancement des tâches sur multi-processeurs. Cette méthode permet de concevoir une politique d'ordonnancement efficace et adaptable à différents modèles de systèmes à criticité mixte. Notre approche consiste à transformer un lot de tâches à criticité mixte en un lot de tâches qui n'est plus à criticité mixte. Ceci nous permet d'utiliser un algorithme d'ordonnancement temps réel optimal engendrant peu de préemptions et de migrations, à savoir RUN. Cette approche, appliquée en premier pour le modèle discarding avec deux modes d'exécution, rempli son objectif d'efficacité. Nous illustrons sa généricité en utilisant le même principe pour ordonnancer des systèmes discarding avec plus de deux modes d'exécution. Enfin, une démarche reposant sur la décomposition de tâche permet de généraliser l'approche au cas des tâches élastiques. / This thesis focuses on the scheduling of mixed-criticality scheduling algorithms for multi-processors. The correctness of the execution of the real-time applications is ensured by a scheduler and is checked during the design phase. The execution platform sizing aims at minimising the number of processors required to ensure this correct scheduling. This sizing is impacted by the safety requirements. Indeed, these requirements tend to overestimate the execution times of the applications to ensure their correct executions. Consequently, the resulting sizing is costly. The mixed-criticality scheduling theory aims at proposing compromises on the guarantees of the execution of the applications to reduce this over-sizing. Several models of mixed-criticality systems offering different compromises have been proposed but all are based on the use of execution modes. Modes are ordered and tasks have non decreasing execution times in each mode. Yet, to reduce the sizing of the execution platform, only the execution of the most critical tasks is ensured. This model is called the discarding model. For simplicity reasons, most of the mixed-criticality scheduling algorithms are limited to this model. Besides, the most efficient scheduling policies for multi-processors entail too many preemptions and migrations to be actually used. Finally, they are rarely generalised to handle different models of mixed-criticality systems. However, the handling of more than two execution modes or of tasks with elastic periods would make such solutions more attractive for the industry. The approach proposed in this thesis is based on the separation of concerns between handling the execution modes and the scheduling of the tasks on the multi-processors. With this approach, we achieve to design an efficient scheduling policy that schedules different models of mixed-criticality systems. It consists in performing the transformation of a mixed-criticality task set into a non mixed-criticality one. We then schedule this task set by using an optimal hard real-time scheduling algorithm that entails few preemptions and migrations: RUN. We first apply our approach on the discarding model with two execution modes. The results show the efficiency of our approach for such model. Then, we demonstrate the versatility of our approach by scheduling systems of the discarding model with more than two execution modes. Finally, by using a method based on the decomposition of task execution, our approach can schedule systems based on elastic tasks.
238

Formation électro-assistée de monocouches auto-assemblées sur or. Suivi in situ et effets du potentiel appliqué à l'électrode sur le mécanisme de formation / Electro-assisted formation of self-assembled monolayers on gold. In situ study and effects of the applied potential on the mechanism of formation.

Capitao, Dany 10 October 2016 (has links)
Créer des surfaces spécifiques apparaît comme un enjeu majeur de la chimie actuelle. La formation de monocouches auto-assemblées (SAMs) à partir de dérivés soufrés est l’une des stratégies pour modifier des surfaces d’or. A ce jour, le mécanisme de formation des SAMs sur or n’est toujours pas élucidé.Une nouvelle approche de formation de SAMs par voie électrochimique a récemment été développée, avec la possibilité de suivre in-situ en temps réel la chimisorption de dérivés soufrés, notamment avec un cycle dithiolane. Contrairement aux méthodes standards d’adsorption par simple immersion, cette approche par polarisation de l’électrode tend à faciliter la chimisorption (cinétique, reproductibilité …). L’excellente résolution temporelle du suivi cinétique conjuguée à une bonne reproductibilité met en évidence un mécanisme d’adsorption via un phénomène de nucléation-croissance. Déjà identifié pour la formation de SAMs en phase gazeuse, il n’a jamais été clairement établi en phase liquide. L’utilisation de cette méthode a également permis l'élaboration de monocouches mixtes binaires de manière contrôlée et prédictible. En se basant sur les constantes d’affinité, nous avons pu réaliser des SAMs dont les proportions en surface reflétaient celles en solution. Ce résultat majeur laisse entrevoir des applications en particulier pour l’étude de systèmes enzymatiques sur surface.Enfin, afin de mieux cerner les facteurs clés régissant le mécanisme de formation, une étude systématique en fonction de la nature du groupe d’ancrage a permis de souligner le rôle crucial de celui-ci concernant aussi bien la cinétique d’adsorption que la stabilité de la monocouche. / Create specific surfaces appears as a major issue in chemistry. The formation of self-assembled monolayers (SAMs) using sulfur derivatives is one of the most commonly used strategy to modify gold surfaces. Nowadays, the formation mechanism of self-assembled monolayers (SAMs) on gold is still investigated.A new electrochemical approach for SAMs formation has recently been developed allowing an in situ and real time monitoring of the chemisorption of various sulfur compounds including dithiolane derivatives. Unlike standard adsorption methods which consist in a simple immersion, this approach tends to facilitate the chemisorption by polarizing the electrode. The high temporal resolution coupled to this good reproducibility highlight an adsorption mechanism which proceeds by a nucleation-growth process. This type of mechanism, already identified for the SAMs formation in the gas phase, has never been reported in the liquid phase.In addition, this method allows the preparation of binary mixed monolayers in a controlled and predictable manner. Knowing the affinity constants, it is possible to produce SAMs whose surface proportions reflect those in solution.Finally, to better understand the key factors governing the SAMs formation mechanism, a systematic study depending on the nature of the anchoring group has highlighted a significant difference between the different anchoring groups for the kinetics as well as for the stability of the monolayer.
239

Etude et évaluation de politiques d'ordonnancement temps réel multiprocesseur / Study and evaluation of real-time multiprocessor scheduling policies

Cheramy, Maxime 11 December 2014 (has links)
De multiples algorithmes ont été proposés pour traiter de l’ordonnancement de tâchestemps réel dans un contexte multiprocesseur. Encore très récemment de nouvelles politiquesont été définies. Ainsi, sans garantie d’exhaustivité, nous en avons recensé plusd’une cinquantaine. Cette grande diversité rend difficile une analyse comparée de leurscomportements et performances. L’objectif de ce travail de thèse est de permettre l’étudeet l’évaluation des principales politiques d’ordonnancement existantes. La première contributionest SimSo, un nouvel outil de simulation dédié à l’évaluation des politiques. Grâceà cet outil, nous avons pu comparer les performances d’une vingtaine d’algorithmes. Laseconde contribution est la prise en compte, dans la simulation, des surcoûts temporelsliés à l’exécution du code de l’ordonnanceur et à l’influence des mémoires caches sur la duréed’exécution des travaux par l’introduction de modèles statistiques évaluant les échecsd’accès à ces mémoires / Numerous algorithms have been proposed to address the scheduling of real-time tasksfor multiprocessor architectures. Yet, new scheduling algorithms have been defined veryrecently. Therefore, and without any guarantee of completeness, we have identified morethan fifty of them. This large diversity makes the comparison of their behavior and performancedifficult. This research aims at allowing the study and the evaluation of keyscheduling algorithms. The first contribution is SimSo, a new simulation tool dedicatedto the evaluation of scheduling algorithms. Using this tool, we were able to compare theperformance of twenty algorithms. The second contribution is the consideration, in the simulation,of temporal overheads related to the execution of the scheduler and the impactof memory caches on the computation time of the jobs. This is done by the introductionof statistical models evaluating the cache miss ratios
240

Compilation de scénarios dans un environnement d'intégration

Ben Khedher, Dhafer January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.0275 seconds