• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 125
  • 80
  • 18
  • Tagged with
  • 225
  • 121
  • 92
  • 74
  • 74
  • 72
  • 46
  • 38
  • 31
  • 31
  • 30
  • 26
  • 23
  • 23
  • 22
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Towards hardware synthesis of a flexible radio from a high-level language / Synthèse matérielle d'une radio flexible et reconfigurable depuis un langage de haut niveau dédié aux couches physiques radio

Tran, Mai-Thanh 13 November 2018 (has links)
La radio logicielle est une technologie prometteuse pour répondre aux exigences de flexibilité des nouvelles générations de standards de communication. Elle peut être facilement reprogrammée au niveau logiciel pour implémenter différentes formes d'onde. En s'appuyant sur une technologie dite logicielle telle que les microprocesseurs, cette approche est particulièrement flexible et assez facile à mettre en œuvre. Cependant, ce type de technologie conduit généralement à une faible capacité de calcul et, par conséquent, à des débit faibles. Pour résoudre ce problème, la technologie FPGA s'avère être une bonne alternative pour la mise en œuvre de la radio logicielle. En effet, les FPGAs offrent une puissance de calcul élevée et peuvent être reconfigurés. Ainsi, inclure des FPGAs dans le concept de radio logicielle peut permettre de prendre en charge plus de formes d'onde avec des exigences plus strictes qu'une approche basée sur la technologie logicielle. Cependant, les principaux inconvénients d’une conception à base de FPGAs sont le niveau du langage de description d'entrée qui doit typiquement être le niveau matériel, et le temps de reconfiguration qui peut dépasser les exigences d'exécution si le FPGA est entièrement reconfiguré. Pour surmonter ces problèmes, cette thèse propose une méthodologie de conception qui exploite à la fois la synthèse de haut niveau et la reconfiguration dynamique. La méthodologie proposée donne un cadre pour construire une radio flexible pour la radio logicielle à base de FPGAs et qui peut être reconfigurée pendant l'exécution. / Software defined radio (SDR) is a promising technology to tackle flexibility requirements of new generations of communication standards. It can be easily reprogrammed at a software level to implement different waveforms. When relying on a software-based technology such as microprocessors, this approach is clearly flexible and quite easy to design. However, it usually provides low computing capability and therefore low throughput performance. To tackle this issue, FPGA technology turns out to be a good alternative for implementing SDRs. Indeed, FPGAs have both high computing power and reconfiguration capacity. Thus, including FPGAs into the SDR concept may allow to support more waveforms with more strict requirements than a processor-based approach. However, main drawbacks of FPGA design are the level of the input description language that basically needs to be the hardware level, and, the reconfiguration time that may exceed run-time requirements if the complete FPGA is reconfigured. To overcome these issues, this PhD thesis proposes a design methodology that leverages both high-level synthesis tools and dynamic reconfiguration. The proposed methodology is a guideline to completely build a flexible radio for FPGA-based SDR, which can be reconfigured at run-time.
92

Software-level analysis and optimization to mitigate the cost of write operations on non-volatile memories / Analyse logicielle et optimisation pour réduire le coût des opérations d'écriture sur les mémoires non volatiles

Bouziane, Rabab 07 December 2018 (has links)
La consommation énergétique est devenue un défi majeur dans les domaines de l'informatique embarquée et haute performance. Différentes approches ont été étudiées pour résoudre ce problème, entre autres, la gestion du système pendant son exécution, les systèmes multicœurs hétérogènes et la gestion de la consommation au niveau des périphériques. Cette étude cible les technologies de mémoire par le biais de mémoires non volatiles (NVMs) émergentes, qui présentent intrinsèquement une consommation statique quasi nulle. Cela permet de réduire la consommation énergétique statique, qui tend à devenir dominante dans les systèmes modernes. L'utilisation des NVMs dans la hiérarchie de la mémoire se fait cependant au prix d'opérations d'écriture coûteuses en termes de latence et d'énergie. Dans un premier temps, nous proposons une approche de compilation pour atténuer l'impact des opérations d'écriture lors de l'intégration de STT-RAM dans la mémoire cache. Une optimisation qui vise à réduire le nombre d'opérations d'écritures est implémentée en utilisant LLVM afin de réduire ce qu'on appelle les silent stores, c'est-à-dire les instances d'instructions d'écriture qui écrivent dans un emplacement mémoire une valeur qui s'y trouve déjà. Dans un second temps, nous proposons une approche qui s'appuie sur l'analyse des programmes pour estimer des pire temps d'exécution partiaux, dénommés δ-WCET. À partir de l'analyse des programmes, δ-WCETs sont déterminés et utilisés pour allouer en toute sécurité des données aux bancs de mémoire NVM avec des temps de rétention des données variables. L'analyse δ-WCET calcule le WCET entre deux endroits quelconques dans un programme, comme entre deux blocs de base ou deux instructions. Ensuite, les pires durées de vie des variables peuvent être déterminées et utilisées pour décider l'affectation des variables aux bancs de mémoire les plus appropriées. / Traditional memories such as SRAM, DRAM and Flash have faced during the last years, critical challenges related to what modern computing systems required: high performance, high storage density and low power. As the number of CMOS transistors is increasing, the leakage power consumption becomes a critical issue for energy-efficient systems. SRAM and DRAM consume too much energy and have low density and Flash memories have a limited write endurance. Therefore, these technologies can no longer ensure the needs in both embedded and high-performance computing domains. The future memory systems must respect the energy and performance requirements. Since Non Volatile Memories (NVMs) appeared, many studies have shown prominent features where such technologies can be a potential replacement of the conventional memories used on-chip and off-chip. NVMs have important qualities in storage density, scalability, leakage power, access performance and write endurance. Nevertheless, there are still some critical drawbacks of these new technologies. The main drawback is the cost of write operations in terms of latency and energy consumption. We propose a compiler-level optimization that reduces the number of write operations by elimination the execution of redundant stores, called silent stores. A store is silent if it’s writing in a memory address the same value that is already stored at this address. The LLVM-based optimization eliminates the identified silent stores in a program by not executing them. Furthermore, the cost of a write operation is highly dependent on the used NVM and its non-volatility called retention time; when the retention time is high then the latency and the energetic cost of a write operation are considerably high and vice versa. Based on that, we propose an approach applicable in a multi- bank NVM where each bank is designed with a specific retention time. We analysis a program and we compute the worst-case lifetime of a store instruction to allocate data to the most appropriate NVM bank.
93

Extraction d'une architecture logicielle à base de composants depuis un système orienté objet. Une aproche par exploration

Chardigny, Sylvain 23 October 2009 (has links) (PDF)
La modélisation et la représentation des architectures logicielles sont devenues une des phases principales du processus de développement des systèmes complexes. En effet, la représentation de l'architecture fournit de nombreux avantages pendant tout le cycle de vie du logiciel. Cependant, pour beaucoup de systèmes existants, aucune représentation fiable de leurs architectures n'est disponible. Afin de pallier cette absence, source de nombreuses difficultés principalement lors des phases de maintenance et d'évolution, nous proposons dans cette thèse une approche, appelée ROMANTIC, visant à extraire une architecture à base de composants à partir d'un système orienté objet existant. L'idée première de cette approche est de proposer un processus quasi-automatique d'identification d'architectures en formulant le problème comme un problème d'optimisation et en le résolvant au moyen de méta-heuristiques. Ces dernières explorent l'espace composé des architectures pouvant être abstraites du système en utilisant la sémantique et la qualité architecturale pour sélectionner les meilleures solutions. Le processus s'appuie également sur l'architecture intentionnelle du système, à travers l'utilisation de la documentation et des recommandations de l'architecte.
94

Infrastrucuture orientée service pour le développement d'applications ubiquitaires

Lancia, Julien 18 December 2008 (has links) (PDF)
Un grand nombre de périphériques actuels sont dotés de connexions réseaux qui permettent d'accéder à leurs fonctionnalités au travers d'un réseau informatique. Les applications ubiquitaires visent à structurer ces fonctionnalités pour les mettre au service de l'utilisateur.<br /><br />Les environnements ubiquitaires sont caracttérisés par une disponibilité dynamique des fonctionnalités et une hétérogénéité matérielle et logicielle des périphériques. De plus les applications doivent s'adapter en fonction du contexte des utilisateurs.
95

WISDOM : Méthode d'aide à la conception de sites web basée sur la réutilisation conceptuelle et logicielle

Cocquebert, Etienne 03 December 2008 (has links) (PDF)
La nature et les acteurs d'un site web ont considérablement évolués depuis leur apparition en 1996 : les premiers sites diffusaient de l'information statique et étaient réalisés de manière artisanale par peu d'acteurs, alors que désormais, ils sont devenus un vecteur privilégié d'informations dynamiques, de dialogue entre les utilisateurs et sont réalisés par des équipes projets faisant intervenir de multiples compétences. Cette évolution a conduit les concepteurs à faire face à un ensemble de critères de plus en plus contraignants pour répondre de manière toujours plus rapide à la mise en œuvre de fonctionnalités interactives évoluées, mais les nombreux travaux de l'ingénierie du web, de la réutilisation ou centrés sur les modèles ne répondent pas totalement aux attentes des concepteurs. Ce mémoire propose la méthode WISDOM, dont les objectifs sont de guider le concepteur dans le processus de conception d'un site web, de formaliser et de réutiliser une expérience de conception issue de l'analyse de sites web en production, de caractériser des composants logiciels par des informations fonctionnelles et non fonctionnelles pour aider à les choisir et de proposer une architecture logicielle d'accueil pour faciliter le développement du site lui-même. Implémentée au sein du WISDOM Tool, cette méthode a été utilisée pour concevoir la nouvelle version du site web du LAMIH, mais sa validation et celle de l'outil sont examinés par rapport aux nombreux sites web pour la conception desquels (et à partir desquels) la méthode a été conçue et utilisée.
96

Contribution à la conception logicielle de systèmes d'applications : la méthode MOSAIC dans le projet Aristote

Brissaud, Frédéric 12 May 1993 (has links) (PDF)
Les sgbd orientes objets integrent les concepts des langages a objets et les mécanismes des sgbd. Ces propriétés les rendent bien adaptes au développement de systèmes d'applications regroupant plusieurs applications interactives opérant sur des données persistantes partagées (si, agl...). L'état de l'art développe porte sur la programmation, les bases de données et les interfaces homme-machine et montre qu'il existe différentes techniques spécifiques adaptées au développement de certaines parties de ces applications. Cependant, aucune methode de conception actuelle ne prend en compte la conception complète et détaillée d'un système d'applications et le concepteur est insuffisamment guide pour programmer une application a l'aide d'un sgbdoo. Notre methode mosaic permet de développer un système d'applications programme a l'aide d'un sgbdoo. Notre approche consiste a privilégier une décomposition dirigée par les objets au détriment de l'habituelle séparation entre la base de données et les programmes d'application. Ainsi une application comporte deux composants principaux. Le corps de l'application est constitue d'objets applicatifs, modèles du domaine d'application, et le gestionnaire de dialogue de l'application est compose d'objets interactifs, modèles du dialogue. Les objets applicatifs, persistants ou temporaires, sont a la fois des modules logiciels et des conteneurs de données potentiellement persistantes ou temporaires. Les objets interactifs regroupent les informations et les actions présentées a l'utilisateur et assurent leur cohérence. Un système d'applications est compose d'une base d'objets applicatifs persistants et d'applications. Le modelé mosaic permet d'étudier les dimensions structurelles, fonctionnelles et dynamiques des objets et du système d'applications dans sa globalité. Des langages textuels et graphiques, un outil, une démarche et des regles de traduction de mosaic vers le langage peplom et vers le sgbdoo o2 complètent ce modèle. Nos propositions sont illustrées par un exemple d'application programme a l'aide d'o2
97

Evaluation de la sûreté de fonctionnement des réseaux de distribution par la simulation Monte Carlo : application à des stratégies de maintenance optimales

Ocnasu, Andreea Bianca 10 October 2008 (has links) (PDF)
Le secteur électrique est confronté aujourd'hui à de nouveaux défis imposés par la dérégulation du marché d'électricité, la volonté de réduire les émissions de gaz à effet de serre, le développement des nouvelles technologies. Nous assistons à un besoin croissant en terme d'analyse de sûreté de fonctionnement des réseaux de distribution, qui se manifeste par une migration des méthodes utilisées auparavant dans les réseaux de transport vers le niveau de la distribution. Dans une thèse précédente, une méthode de calcul basée sur une simulation Monte Carlo séquentielle a été développée. Une première partie de la présente thèse concerne l'étude des méthodes d'accélération de calculs. Les meilleurs résultats ont été obtenus pour une hybridation des méthodes des Variables Antithétiques et de Stratification. Nous avons abordé ensuite l'étude de faisabilité d'une méthode d'optimisation basée sur des critères de sûreté. L'application choisie a été l'optimisation des stratégies de maintenance préventive des équipements du réseau. Nous avons cherché, pour tous les équipements du système, le nombre optimal de maintenances préventives et la valeur du taux de défaillance maximal quand la maintenance est réalisée, en minimisant le coût total (coût de la maintenance préventive, maintenance corrective et coût d'interruption des clients). Au final, un ensemble de réflexions liées au développement futur d'un outil d'analyse de sûreté a été présenté. Une structure modulaire de l'outil est proposée pour faciliter son utilisation, ainsi que des possibilités de parallélisation des calculs pour une meilleure efficacité.
98

Proposition d'un processus de réification d'abstraction de communication comme un connecteur associé à des générateurs

Matougui, Selma 12 December 2005 (has links) (PDF)
Les approches de conception et de programmation à base de composants et les architectures logicielles séparent les composants de leurs interconnexions. Ces dernières, souvent appelées connecteurs, possèdent des définitions diverses et contradictoires dans la communauté. Le but de cette thèse est de clarifier le concept de connecteur et de proposer un processus pour son implémentation sous la forme d'un ensemble de générateurs. Ainsi, nous définissons un connecteur comme un élément d'architecture qui évolue et se concrétise durant son cycle de vie. Nous discutons en détails les différents concepts relatifs à ce cycle de vie, et nous les illustrons au travers de la mise en œuvre et l'évaluation d'un connecteur d'équilibrage de charge. Pour finir, nous dressons une classification entre les deux types d'abstraction de communication : les connecteurs et les composants de communication. Ainsi, nous mettons en avant les différences et les principaux critères de choix entre ces deux entités.
99

Prototypage de systèmes Haut Débit combinant Étalement de spectre, Multi-porteuses et Multi-antennes

Massiani, Arnaud 07 January 2006 (has links) (PDF)
Afin de répondre aux besoins permanents de mobilité et de débit, l'émergence de la future quatrième génération de systèmes de radiocommunications repose autant sur le développement de nouvelles techniques de transmissions que sur la mise au point d'architectures matérielles performantes. Dans la recherche de modulations adaptées pour la couche physique de ces futurs réseaux, une approche pertinente repose sur la technique MC-CDMA, associant les techniques de modulations à porteuses multiples et l'étalement de spectre. L'extension de cette technique mono-antenne aux systèmes alliant un réseau d'antennes à l'émission et à la réception ou MIMO, est également très séduisante. Les techniques MIMO réalisées par des modulations codées en blocs ou en treillis offrent un regain de débit ou de robustesse. Ainsi, la combinaison de la technique MC-CDMA avec des techniques MIMO offre un panel de solutions répondant aux contraintes de mobilité et de débit. Les travaux de recherche présentés dans cette thèse ont pour buts l'étude et la mise en oeuvre pratique de systèmes de communications utilisant ces techniques innovantes. Notre travail a par ailleurs porté sur la définition et l'optimisation des méthodes de conception de tels systèmes vers des cibles architecturales hétérogènes. Ce travail fait partie intégrante du projet européen MATRICE et du projet région Bretagne PALMYRE.<br /><br />Après une présentation générale du contexte applicatif et des principes afférents aux systèmes MC-CDMA et aux techniques MIMO, une étude de la complexité et de l'intégration au sein d'une plate-forme de prototypage associant des composants DSP et FPGA est réalisée. Afin de proposer une démarche de conception efficace, nous envisageons l'application de la méthodologie MCSE pour le développement des systèmes étudiés. Ainsi, son flot complet de conception sera détaillé. L'intérêt de cette méthode pour l'optimisation de systèmes de transmissions reposant sur les techniques MC-CDMA et MIMO est ainsi démontré.
100

Conception et réalisation logicielles pour les collecticiels centrées sur l'activité de groupe : le modèle et la plate-forme Clover

Laurillau, Yann 10 September 2002 (has links) (PDF)
Mes travaux appartiennent au domaine de l'Interaction Homme-Machine et contribuent à l'ingénierie des systèmes interactifs multi-utilisateurs ou collecticiels. La conception et la réalisation logicielles d'un collecticiel soulèvent des problèmes propres à ce type de systèmes interactifs, plus complexes que les systèmes mono-utilisateur. Par exemple, il convient de gérer des sources d'événements différentes impliquant un phénomène de concurrence, de prendre en compte des nouvelles contraintes technologiques induites par les réseaux informatiques et de vérifier des nouvelles propriétés ergonomiques telles que le protection de la vie privée. Face à la complexité de réalisation logicielle, il est donc crucial de disposer d'outils telles que des modèles d'architecture logicielle et des plates-formes de développement. Dans ce contexte, les contributions de ma thèse sont un modèle d'architecture pour les collecticiels et une infrastructure générique, la plate-forme Clover, pour le développement des collecticiels centré sur l'humain. Le modèle du trèfle, décrivant la couverture fonctionnelle d'un collecticiel (production, communication et coordination), a été retenu comme guide conceptuel pour l'élaboration de ce modèle d'architecture et de cette infrastructure. Une large majorité des travaux se sont concentrés sur la résolution de problèmes techniques tels que la fusion de données. L'approche retenue est complémentaire puisque centrée sur l'activité de groupe. Les requis retenus sont : offrir un niveau d'abstraction centré sur l'activité de groupe, opposé à centré sur la technique, et offrir une couverture fonctionnelle générique, couvrant tous les espaces du modèle du trèfle. L'étude d'un ensemble d'outils de développement a permis de montrer que les plates-formes de haut niveau d'abstraction n'offraient que des services de coordination, dont j'ai montré les limitations. Le système CoVitesse, logiciel de navigation collaborative sur le WWW, et un système de tableau blanc partagé ont été développés pour illustrer cette infrastructure.

Page generated in 0.0367 seconds