• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 134
  • 120
  • 119
  • 12
  • 10
  • 10
  • 6
  • 6
  • 6
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 504
  • 93
  • 87
  • 87
  • 85
  • 75
  • 75
  • 70
  • 69
  • 60
  • 52
  • 50
  • 50
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
171

Vers la reconfiguration dynamique dans les systèmes embarqués: de la modélisation à l'implémentation

Meftali, Samy 06 July 2010 (has links) (PDF)
Ce manuscrit résume mes travaux de recherche depuis ma thèse soutenue en septembre 2002. Certains de mes travaux présentés sont achevés à l'heure actuelle, d'autres sont en cours d'avancement ou encore à un stade exploratoire. Tout au long de ces années, mes travaux se sont inscrit dans le contexte de la conception conjointe logicielle/matérielle de SoCs dédiés aux applications de traitement de signal intensif. La complexité des systèmes ciblant ce domaine d'application ne cesse de s'accroitre lors des dernières années. En effet, les besoins grandissants, en terme de puissance de calcul et stockage mémoire des applicatifs du traitement de signal intensif, rendent la conception des Soc les implémentant très fastidieuse et nécessitant un temps et des efforts considérables. Ainsi, la ligne directrice de mes travaux a toujours été de fournir des méthodes et outils d'aide à la conception de tels SoC, permettant un maximum d'automatisation, une augmentation de la productivité des concepteurs et une réduction des temps de mise sur le marché des systèmes conçus. Je me suis donc concentré principalement sur trois aspects : la modélisation de haut niveau en fournissant des méta-modèles et profils respectant le standard MARTE ; les plateformes de simulation distribuées, supportant l'interopérabilité entre plusieurs niveaux d'abstraction tout en permettant une bonne estimation de la consommation d'énergie ; et finalement la production d'outils de conception basés sur les transformations automatiques modèle à modèle de l'approche IDM. Etant convaincu du grand potentiel des FPGAs partiellement et dynamiquement reconfigurables, j'oriente de plus en plus mes travaux pour cibler de telles architectures. Ainsi, mes travaux futurs iront certainement dans le même sens, dans le cadre notamment du projet ANR FAMOUS que je dirige. Ainsi, les grandes orientations de mes recherches concerneront notamment : la modélisation (basée sur MARTE) de la reconfiguration dynamique sous toutes ses facettes (architecture, application, association, déploiement; et partitionnement); la simulation des FPGAs et l'estimation de leur consommation (pour piloter l'exploration d'architectures) ; et enfin l'intégration dans des outils de conception basés sur les standards (tels que MARTE et IDM).
172

Mémoire partagée distribuée pour systèmes dynamiques à grande échelle

Gramoli, Vincent 22 November 2007 (has links) (PDF)
Cette thèse étudie les nouveaux défis du contexte du partage de donnée liés au récent changement d'échelle des systèmes répartis. De nos jours les systèmes répartis deviennent très grands. Cet accroissement concerne non seulement le nombre de personnes qui communiquent dans le monde via leur ordinateur mais aussi le nombre d'entités informatiques personnelles connectées. De tels grands systèmes sont sujets au dynamisme du fait du comportement imprévisible de leurs entités. Ce dynamisme empêche l'adoption de solutions classiques et plus simplement affecte la communication entre des entités distinctes. Cette thèse étudie les solutions existantes et propose des suggestions de recherche pour la résolution du problème fondamental de mémoire partagée distribuée dans un tel contexte dynamique et à grande échelle.
173

Tolérance aux fautes et reconfiguration dynamique pour les applications distribuées à grande échelle

Besseron, Xavier 28 April 2010 (has links) (PDF)
Ce travail se place dans le cadre du calcul haute performance sur des plateformes d'exécution de grande taille telles que les grilles de calcul. Les grilles de calcul sont notamment caractérisées par (1) des changements fréquents des conditions d'exécution et, en particulier, par (2) une probabilité importante de défaillance due au grand nombre de composants. Pour exécuter une application efficacement dans un tel environnement, il est nécessaire de prendre en compte ces paramètres. Nos travaux de recherche reposent sur la représentation abstraite de l'application sous forme d'un graphe de flot de données de l'environnement de programmation parallèle et distribuée Athapascan/Kaapi. Nous utilisons cette représentation abstraite pour apporter des solutions aux problèmes (1) de reconfiguration dynamique et (2) de tolérance aux fautes. - Tout d'abord, nous proposons un mécanisme de reconfiguration dynamique qui gère, de manière transparente pour le programmeur de la reconfiguration, les problèmes d'accès concurrents sur l'état de l'application et la cohérence mutuelle des états en cas de reconfiguration distribuée. - Ensuite, nous présentons un protocole de tolérance aux fautes original qui permet d'effectuer une reprise partielle de l'application en cas de panne. Pour cela, il détermine l'ensemble des tâches de calcul strictement nécessaires à la reprise de l'application. Ces contributions sont évaluées en utilisant les logiciels Kaapi et X-Kaapi sur la plateforme de calcul Grid'5000.
174

Distribution Network Reconfiguration For Loss Reduction By Multi-branch Exchange Method

Galymov, Birzhan 01 September 2012 (has links) (PDF)
As structure and size of electric power distribution systems are getting more complex, distribution automation schemes become more attractive. One of the features that is desirable in an automated system is feeder reconfiguration for loss reduction. Loss reduction can make considerable savings for a utility and results in released system capacity. There is also improved voltage regulation in the system as a result of reduced feeder voltage drop. In this thesis, multi branch exchange algorithm is introduced to solve the network reconfiguration for loss reduction problem. The proposed technique is based on heuristic techniques applied to constraint satisfaction optimization problems. A critical review of earlier methods related with feeder reconfiguration is presented. A computer program was developed using Matlab to simulate this algorithm and results of simulations demonstrate its advantages over single branch exchange method. Moreover, the results show that the final configuration is independent of the initial configuration and give assurance that any solution offered will have a radial configuration with all loads connected.
175

Untersuchungen zur Kostenoptimierung für Hardware Emulatoren durch Anwendung von Methoden der partiellen Laufzeitrekonfiguration / Investigations of cost optimizations for hardware emulation by using methods of partial dynamic reconfiguration

Beckert, René 13 June 2013 (has links) (PDF)
Der vorliegende Band der wissenschaftlichen Schriftenreihe Eingebettete Selbstorganisierende Systeme widmet sich der Optimierung von Hardware Emulatoren durch die Anwendung von Methoden der partiellen Laufzeitrekonfiguration. An aktuelle Schaltkreis- und Systementwürfe werden zunehmend divergente Anforderungen gestellt. Einer sehr kurzen Entwicklungszeit für eine schnelle Markteinführung steht, um teure und aufwändige Re-Desings zu verhindern, eine möglichst umfangreiche Testabdeckung des Entwurfs gegenüber. Um die Zeit für die Tests zu reduzieren, kommen überwiegend FPGA-basierte HW-Emulatoren zum Einsatz. Durch den Einfluss der steigenden Komplexität aktueller Entwürfe auf die Emulator-Plattform reduziert sich jedoch signifikant die Performance der Emulatoren. Die in Emulatoren eingesetzten FPGAs sind aber zunehmend partiell zur Laufzeit rekonfigurierbar. Der in der vorliegenden Arbeit umgesetzte Ansatz behandelt die Anwendung von Methoden der Laufzeitrekonfiguration auf dem Gebiet der Hardware-Emulation. Dafür ist zunächst eine Partitionierung des zu testenden Entwurfs in möglichst funktional unabhängige Systemteile notwendig. Für eine optimierte und ressourceneffiziente Platzierung der einzelnen HW-Module während der Emulation, ist ein ebenfalls auf dem FPGA platziertes Kommunikationsnetzwerk implementiert. Der vorgestellte Ansatz wird an verschiedenen Beispielen anschaulich illustriert. So kann der Leser die Mächtigkeit der entwickelten Methodik nachvollziehen und wird motiviert, das Verfahren auch auf weitere Anwendungsfälle zu übertragen. / Current circuit and system designs consist a lot of gate numbers and divergent requirements. In contrast to a short development and time to market schedule, the needs for perfect test coverage and quality are rising. One approach to cover this problem is the FPGA based functional test of electronic circuits. State of the art FPGA platforms doesn't consist enough gates to support fully custom designs. The thesis catches this problem and gives some approaches to use partial dynamic reconfiguration to solve the size problem. A fully automated design flow demonstrates partial partitioning of designs, modifications to use dynamic reconfiguration and its schedule. At the end of the work, some examples demonstrates the power of the approach.
176

Le code source informatique comme artefact dans les reconfigurations d'Internet

Couture, Stéphane 12 1900 (has links) (PDF)
Cette thèse en communication porte sur le code source informatique. Le code source est l'objet de la programmation informatique et peut être défini comme un ensemble de commandes informatiques humainement lisibles, « écrites » dans un langage de programmation de haut niveau (Krysia et Grzesiek, 2008). Depuis quelques années, le code source fait l'objet d'une signification sociale et politique grandissante. Le mouvement du logiciel libre place par exemple au cœur de sa politique le libre accès au code source. Ce mouvement a d'ailleurs permis l'émergence de nombreux collectifs articulés autour de la fabrication collective du code source. Si plusieurs études se sont attardées aux différents aspects de ces collectifs et aux usages des technologies numériques en général, force est toutefois de constater que le code source reste un objet remarquablement négligé dans les études en communication. L'objectif principal de cette thèse est donc d'aborder frontalement l'artefact code source, en répondant à cette question centrale de recherche : qu'est-ce que le code source et comment cet artefact agit-il dans les reconfigurations d'Internet? Notre problématique s'articule selon trois axes. D'abord, le constat de la signification sociale et politique grandissante du code source, qui s'exprime notamment dans un discours faisant du code source une forme d'expression. Ensuite, la manière dont, pour certains auteurs, le code informatique agit à la manière d'une loi en prescrivant ou limitant certains comportements. Finalement, un dernier axe concerne les rapports d'autorité et le travail invisible dans la fabrication du code source. Sur le plan théorique, notre étude se situe à l'intersection du champ « Science, technologie et société » (STS) et de celui des études en communication. Elle s'appuie largement sur les travaux récents de Lucy Suchman (2007) qui cherchent à poser le regard sur des dynamiques de reconfigurations mutuelles et permanentes des relations entre humains et machines. Notre étude mobilise également certains travaux français se situant en continuité de la théorie de l'acteur-réseau, et s'attardant au travail nécessaire à la stabilité et la performativité des artefacts. D'un point de vue méthodologique, notre étude prend comme terrain SPIP et symfony, deux logiciels qui ont en commun d'être utilisés comme infrastructures dans le fonctionnement de nombreux sites web interactifs, souvent désignés sous l'appellation « web 2.0 ». Les deux logiciels sont originaires de France et continuent de mobiliser un nombre significatif d'acteurs français. Ces projets se distinguent par les valeurs mises de l'avant, plus militantes et non commerciales dans le cas de SPIP, plus professionnelles et commerciales dans le cas de symfony. La langue utilisée dans l'écriture du code source est également différente : français pour SPIP, anglais pour symfony. L'enquête combine l'analyse de documents et de traces en ligne, des entretiens semi-dirigés avec les acteurs des projets, de même que l'observation de différentes rencontres entre les acteurs. Notre étude fait tout d'abord clairement ressortir une certaine ambiguïté entourant la définition de la notion du « code source ». Alors que le code source est souvent appréhendé comme un « texte », « que l'on écrit », l'analyse des définitions plus formelles, ou encore de l'objet désigné par les acteurs par le terme de « code source », montre que cet objet renvoie souvent à différents types de médias, comme des images, et même des artefacts qui ne sont pas directement destinés au fonctionnement des ordinateurs. À l'instar des propos de certains acteurs, nous croyons que la définition de ce qui constitue le code source revêt même une dimension politique, dans ce sens qu'elle tend à valoriser certains types d'activités plutôt que d'autres. L'analyse du processus de fabrication collective du code source dans les deux projets montre également des différences importantes au niveau de l'organisation du code source, de même que dans la mise en œuvre des normes et des « autorisations » d'écriture dans chacun des projets. Ces différences s'articulent avec les valeurs des projets et participent d'une certaine configuration du type d'acteur destiné à interagir avec telle ou telle partie du code source. En conclusion, nous insistons sur le fait que le code source ne doit pas seulement être appréhendé comme étant le noyau des infrastructures d'information. Il doit aussi être appréhendé, dans une perspective communicationnelle et sociologique, comme un artefact à travers duquel des acteurs humains entrent en relation entre eux pour reconfigurer le monde socionumérique au sein duquel ils et elles sont engagés. Suivant l'approche de Suchman, nous proposons donc d'appréhender le code source comme une interface, ou une multiplicité d'interfaces, dans les reconfigurations d'Internet, en insistant sur la manière dont le design de ces interfaces entraîne certaines conséquences, en particulier en privilégiant la participation de certains acteurs plutôt que d'autres. ______________________________________________________________________________ MOTS-CLÉS DE L’AUTEUR : code source, logiciels libres, artefacts, études STS, reconfigurations humain-machine.
177

Reconfiguration dynamique et simulation fine modélisée au niveau de transaction dans les réseaux de capteurs sans fil hétérogènes matériellement-logiciellement

Galos, Mihai 15 October 2012 (has links) (PDF)
Cette thèse porte premièrement sur la reconfiguration dynamique et la simulation hétérogène dans les Réseaux des Capteurs sans Fil. Ces réseaux sont constitués d'une multitude de systèmes électroniques communicants par radio-fréquence, très contraints en énergie. La partie de communication radio entre ces nœuds est la plus consommatrice. C'est pourquoi la minimisation du temps effectif est désirée. On a implémenté une solution qui consiste à envoyer au nœud un fichier de reconfiguration codé utilisant un langage de programmation haut niveau (MinTax). Le nœud sera capable de compiler ce fichier et générer le code object associé à son architecture, in-situ. Grâce au caractère abstrait du MinTax, plusieurs architectures matérielles et systèmes d'exploitation sont visés. Dans un deuxième temps, ce travail de thèse est lié au simulateur de réseaux de capteurs IDEA1TLM.IDEA1TLM permet de prédire quels circuits et configurations sont les plus adéquats à une application sans fil donnée. Ce simulateur a été amélioré pour permettre la simulation rapide des systèmes électroniques matériellement différents dans le même réseau ainsi que le logiciel présent sur les noeuds. Mots clés : Reconfiguration dynamique, Compilation in-situ, MinTax, Hétérogénéité, IDEA1TLM.
178

An Intelligent, Knowledge-based Multiple Criteria Decision Making Advisor for Systems Design

Li, Yongchang 16 January 2007 (has links)
Aerospace systems are complex systems with interacting disciplines and technologies. As a result, the Decision Makers (DMs) dealing with such problems are involved in balancing the multiple, potentially conflicting attributes/criteria, transforming a large amount of customer supplied guidelines into a solidly defined set of requirement definitions. A variety of existing decision making methods are available to deal with this type of decision problems. The selection of a most appropriate decision making method is of particular importance since inappropriate decision methods are likely causes of misleading engineering design decisions. The research presented in this dissertation proposes a knowledge-based Multi-criteria Interactive Decision-making Advisor and Synthesis process (MIDAS), which can facilitate the selection of the most appropriate decision making method and which provides insight to the user for fulfilling different preferences. Once the most appropriate method is selected for the given problem, the advisor is also able to aid the DM to reach the final decision by following the rigorous problem solving procedure of the selected method. The MIDAS can also provide guidance as to the requirements needed to be fulfilled by a potentially new method for cases where no suitable method is found. In many other domains, such as complex system operation, decisions are often made in an environment with continuously changing situations. In addition, the decisions are usually completed based on uncertain or incomplete information due to the data availability and the environmental variation. This fact exacerbates the complexity of the decision making process because it results in the difficulties in perfectly and deterministically reasoning about the effects of the decisions and thus make it hard in determining the further decisions. In order to make proper decision and increase the system’s effectiveness, an advanced decision strategy is needed to capture the system’s dynamic characteristics and environmental uncertainty. An autonomous decision making advisor is developed to perform the real-time decision making under uncertainty. The development of the advisor system aims to solve a resource allocation problem to redistribute the limited resources to different agents under various scenarios and try to maximize the total rewards obtained from the resource allocation actions.
179

A dB-Linear Programmable Variable Gain Amplifier and A Voltage Peak Detector with Digital Calibration for FPW-based Allergy Antibody Sensing System

Hsiao, Wei-Chih 10 July 2012 (has links)
This thesis proposes a dB-linear programmable variable gain amplifier (VGA) and a voltage peak detector with digital calibration for FPW-based antibody sensing system. In the first topic, a dB-linear programmable variable gain amplifier is proposed. By using two source followers as the input terminals, input signals with very low DC offset could be received. The linear local-feedback transconductors are employed to be trans-condurctor-stage and load-stage. Besides, a reconfiguration method is used to reduce the layout area and improve the linearity of the gain to attain gain error less than 0.86 dB measured on silicon. In the second topic, a voltage peak detector with digital calibration is proposed. The voltage peak of the input sine-wave signal is sampled and held by using an integra-tor, a digital-to-analog converter, and a voltage comparator to generate a square-wave signal. Besides, the voltage error caused by the propagation delay could be calibrated by the proposed digital calibration method. The frequency of input signal is up to 20 MHz and the voltage error is justified to be less than 0.81 % by simulations.
180

Host and Derivative Product Modeling and Synthesis

Davis, Matthew Louis Turner 2010 August 1900 (has links)
In recent years, numerous methods to aid designers in conceptualizing new products have been developed. These methods intend to give structure to a process that was, at one time, considered to be a purely creative exercise. Resulting from the study, implementation, and refinement of design methodologies is the notion that both the structure of the development process and the structure of the developed product are key factors in creating value in a firm’s product line. With respect to the latter key factor, product architecture, but more specifically, modular product architecture has been the subject of much study. However, prior research in the area of modular product architecture has, with limited exception, focused on the construction of modules that are to be incorporated into a product before it becomes available to its end-users; that is, the modules are incorporated ‘pre-market.’ The research contained in this thesis is focused on two tasks: advancing the notion of a modular product architecture in which modules can be incorporated into a product ‘post-market,’ and creating a method that aids designers in synthesizing these post-market modules. Researchers have examined the idea of post-market modules; however, they do not fully formalize language used to describe these modules, and they also do not give the product space created by post-market modularization well-defined boundaries. Additionally, the prior work gives no method that can be used to create post-market modules. The research presented here addresses these shortcomings in the prior work by first, defining the terms ‘derivative product’ and ‘host product’ to describe the post-market module and the product that the module augments, respectively. Second, by establishing three guidelines that are used to assess the validity of potential derivative products, giving the newly termed host and derivative product space defined boundaries. And lastly, by developing a 7-step, biomimetic-based methodology that can be used to create derivative product concepts (post-market modules). This developed methodology is applied to four case studies in which it is used to create five derivative product concepts for a given host product. Thus, 20 derivative product concepts are developed in this study, demonstrating the qualitative effectiveness of the 7-step methodology.

Page generated in 0.1514 seconds