• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 710
  • 206
  • 120
  • 14
  • 2
  • 1
  • Tagged with
  • 1054
  • 990
  • 979
  • 979
  • 977
  • 974
  • 288
  • 252
  • 119
  • 95
  • 81
  • 69
  • 65
  • 64
  • 61
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Revisiting "upstream public engagement" in nanotechnologies : from the perspective of the public sphere / Revisiter "l'engagement public en amont" envers les nanotechnologies : ouvrir une perspective communicationnelle

Wang, Xi 20 October 2015 (has links)
Cette thèse contribue aux discussions sur la notion "d'engagement du public en amont", qui a été défendue par des chercheurs pour traiter des nanotechnologies au début du XXIème siècle. Cette notion a été critiquée pour l'absence de lien avec les décisions fonctionnelles. En utilisant l'outil théorique envisagé par Habermas, cette thèse tente d'étudier ce lien, avec une attention particulière portée sur la capacité des Organisations de la Société Civile à accueillir, condenser et répercuter sur la sphère publique les préoccupations sociétales tout en les amplifiant. Alors que la littérature antérieure est plus axée sur la réflexion théorique ou l'étude de cas isolés, la recherche soutenue par des observations sur le long terme est en grande partie absente. Sur la base de l'analyse du contenu et des entretiens, cette thèse mène un travail sur deux questions: si et dans quelle mesure "l'engagement public en amont" envers les nanos pourrait contribuer à un espace public plus vivace; et comment l'influence que les OSC ont acquis dans l'espace public pourrait se transformer en pouvoir communicationnel. La réponse à ces questions est double: d'une part, "l'engagement du public en amont" permet à la société civile d'être mieux informée et de lui permettre plus tôt de prendre part au débat. Si l'implication de la plupart des OSC prend la forme d'une coopération ou d'une argumentation parfois basée sur des rapports d'expertise. D'autre part, quelques OSC se sont retirées de ce domaine compte tenu de la faible portée de leurs propres actions sur les décisions fonctionnelles. / This dissertation contributes to the discussions of the notion 'upstream public engagement', which has been actively advocated by STS scholars in addressing nanotechnologies since the beginning of the twenty-first century. One of the major criticisms of 'upstream public engagement'is its lack of a link with the political system. Drawing on theoretical tools provided by Habermas, this dissertation seeks to examine such a 'link'with a specific focus on the capacity of civil society organizations (CSOs) to distill, raise and transmit societal concerns in an amplified form to the public spheres. Previous literature has mostly included theoretical reflection or one-off case studies, and research based on long-term observations is scant. Based on content analysis and semi-structured interviews with relevant actors, this dissertation investigates whether and how upstream public engagement could contribute to more vibrant public spheres and facilitate the formation of communicative power. The answer to these questions is twofold: on the one hand, moving public engagement 'upstream' enables CSOs to be better informed and to become part of the debates more quickly. Most CSOs employ cooperative, argumentative, and expertise-based forms of involvement. On the other hand,'upstream pubic engagement'has turned out to be unsuccessful in generating substantial and sustained interest, as some CSOs have quit this field in frustration at the tokenistic engagement.
2

Traitement de l'information en mode comptage appliqué aux détecteurs spectrométriques / Count-mode information processing applied to spectrometric detectors

Perenon, Rémi 08 October 2013 (has links)
La miniaturisation des composants électroniques conduit aujourd’hui au développement de capteurs ultra-sensibles. En particulier, les capteurs NEMS (systèmes électromécaniques nanométriques) ont maintenant une sensibilité suffisante pour détecter des molécules uniques. Ceci permet d’intégrer ces capteurs dans des dispositifs de spectrométrie de masse dont la particularité sera d’opérer en mode comptage de molécules uniques. Notre travail consiste à reconstruire le spectre de masse de la solution analysée à partir des signaux fréquentiels délivrés par les NEMS. Nous nous plaçons dans le cadre des approches problèmes inverses et des méthodes d’inférence bayésienne. Nous modélisons le système de mesure qui lie les inconnues aux signaux observés par un modèle graphique hiérarchique et nous introduisons un modèle de signal de type processus ponctuel marqué. Nous le comparons à un modèle de type processus à temps discret. Nous mettons en place un algorithme de déconvolution impulsionnelle intégrant une exploration de modèles qui réalise la détection des molécules analysées, l’estimation de leur masse et le comptage, afin de reconstruire le spectre de masse de la solution analysée. Nous présentons des résultats sur données simulées et sur des données expérimentales acquises au CEA/INAC sur des agrégats de Tantale en utilisant des capteurs NEMS développés au CEA-Leti/DCOS. Relativement aux méthodes de l’état de l’art, la méthode que nous proposons améliore le taux de comptage tout en gardant un taux de fausses détections suffisamment bas. Notre méthode délivre également les incertitudes sur les paramètres reconstruits. Enfin, nous développons le cas particulier de la reconstruction de spectres de masse discrets. / The miniaturization of electronic components drives the development of very sensitive sensors. In particular, NEMS (Nano ElectroMechanical Systems) are now sensitive enough to detect single molecules. This enables to use these sensors in order to design mass spectrometry devices, in an individual molecules counting mode. Our objective is to reconstruct the mass spectrum of the analyzed solution, based on the NEMS output signals. We use inverse problems approach and Bayesian framework. We model the acquisition system linking the unknown parameters to the observable signals with a hierarchical graphical model. We propose a marked-point process model of signal that we compare with discrete-time process one. We develop an impulse deconvolution algorithm which relies on a model exploration scheme. This enables us to detect the molecules, to quantify their mass and to count them in order to estimate the mass spectrum of the analyzed solution. We show results on simulated data and on experimental ones acquired in CEA/INAC using Tantalum nano-aggregates and devices developed in CEA-Leti/DCOS. Compared to state-of-the-art, our method offers high counting rate and keeps a low false detection rate. It also permits the computation of uncertainties on estimated values. Finally, we propose a derivation of the method to deal with the reconstruction of discrete mass spectra.
3

Fiabilité du signal des circuits logiques combinatoires sous fautes simultanées multiples

Teixeira Franco, Denis 19 November 2008 (has links) (PDF)
L'entrée de la technologie CMOS dans les dimensions nanométriques résulte de l'évolution prévue pour les circuits intégrés, déterminée par l'industrie des semi-conducteurs d'après les feuilles de route établies selon la loi de Moore. Pourtant, la production des circuits nanométriques présente des défis de plus en plus critiques, qui demandent des efforts considérables de la communauté scientifique. Ces défis sont liés à des limitations d'ordre physique, économique et technologique, et se traduisent en un changement du comportement des structures fortement intégrées et en une difficulté pour les fabriquer avec la précision nécessaire. La majorité des problèmes associés à la réduction des structures CMOS amène à une réduction du rendement de fabrication et de la fiabilité d'opération des circuits. Les technologies émergentes, conçues pour étendre, complémenter, voire substituer la technologie CMOS, seront très sensibles aux variations paramétriques des composants et aux défauts de fabrication. La fiabilité d'opération des circuits reste un problème critique, pour lequel les solutions proposées font appel aux techniques de tolérance aux pannes. Selon quelques études, la probabilité d'occurrence des fautes transitoires dans les systèmes nanométriques montera au fur et à mesure de l'augmentation de densité des composants intégrés, atteignant le même niveau observé dans les mémoires, où les fautes transitoires sont plus facilement traitées. Historiquement, les techniques de tolérance aux pannes étaient destinées aux circuits de mission critique, à cause des surcoûts matériels, de performance et de consommation d'énergie associés à son application. Son utilisation dans les circuits logiques non critiques dépendra directement de son rapport coût/bénéfice, ce qui n'est pas évident à déterminer, d'autant plus que l'occurrence de multiples fautes simultanées deviendra une réalité. L'estimation de la fiabilité des circuits logiques pendant les étapes initiales de projet est un pas fondamental pour la conception des circuits nanométriques. La réduction prévue pour la fiabilité des composants intégrés obligera les concepteurs à l'implémentation des méthodes de durcissement des circuits, mais avec un surcoût très limité. Pour permettre l'application de ces méthodes d'une façon adaptée aux contraintes de projet, l'estimation de la fiabilité doit être intégrée dans le flot de conception. Plusieurs méthodes ont été proposées dans la littérature pour l'estimation de la fiabilité, mais étant donnée la complexité de l'analyse, chaque méthode a des limitations d'application, comme la restriction à une seule faute, la restriction à une seule sortie, la restriction à un seul chemin logique ou la restriction à un sous-ensemble des entrées. Le présent travail a proposé deux méthodes d'estimation de la fiabilité "flexifles" dans le sens où elles permettent de jouer sur un compromis rapidité et précision. Cette flexibilité peut être utilisée de façon complémentaire tout au long de la conception. Ces méthodes prennent en compte l'occurrence de fautes multiples et sont alors adéquates pour l'étude des circuits nanométriques, plus susceptibles à ce type d'événement.
4

Photonic micromachined devices : design, fabrication and experiment / Composants photoniques micro-usinés : conception, fabrication et expérimentation

Zhu, Weiming 14 December 2010 (has links)
Dans cette thèse, trois approches différentes ont été étudiées pour des dispositifs photoniques accordables basés sur la technologie MEMS. Premièrement, la structure à double barrière optique a été étudiée numériquement et expérimentalement, sous forme de commutateur thermo-optique, polariseur commutable et de jonctions tunnel optiques intégrées en tant que système WDM reconfigurable. Le dispositif est fabriqué sur substrat silicium SOI utilisant le procédé de gravure profonde. Les dispositifs optiques tunnel sont contrôlés électro-thermiquement, le temps de commutation mesuré correspondant est de plusieurs microsecondes. Deuxièmement, des structures de propagation de lumière lente à base de méta matériaux constitués de cellules unitaires sous forme d’anneaux fendus couplés, sont numériquement analysés. Les résultats des simulations montrent que la conception de SRRs (Split Ring Resonator) couplés améliore l'accordabilité de la permittivité et de la perméabilité effectives de 70 et 200 fois, respectivement. On peut trouver des applications potentielles dans le stockage de données, des circuits photoniques, les communications optiques et les biocapteurs. Enfin, un méta matériau accordable magnétique est démontré en utilisant la technologie MEMS. Il démontre une approche unique pour contrôler les propriétés optiques des méta matériaux par l'évolution des dimensions géométriques et les formes des cellules unitaires / In this PhD project, three different approaches have been studied for tunable photonic devices based on MEMS technology. First, the optical double barrier structure has been numerically studied and experimentally demonstrated as the thermo-optical switch, switchable polarizer and optical tunneling junctions integrated as reconfigurable WDM system. Second, the slow light structure using metamaterial with coupled split ring unit cells is numerically analyzed. Finally, a tunable magnetic metamaterial is demonstrated using MEMS technology. The first major work is to use the optical tunneling effects to design MEMS based photonic devices. Three different tunable photonic devices has been demonstrated using thermo-optical tuning. a thermo-optic switch is realized using MEMS technology. The device is fabricated on silicon-on-isolator wafer using deep etching process. The transmission of the optical switch is controlled by the optical length of the central rib which is thermally controlled by the external pumping current. In experiment, it measures a switching speed of 1 us and an extinction ratio of 30 dB. A switchable polarizer is demonstrated using the double optical barrier structure which transmit the light with one polarization state and filter out the others. In experiment it measures a PER of lager than 23 dB when the pumping current is above 60mA. The switching time is shorter than 125 us which is limited by the polarization analyzer used in the experiment. A MEMS reconfigurable add-drop multiplexer is realized by applied the optical tunneling structure to the ribbed waveguide. The tunable add-drop multiplexer is based on Y-shape optical double barriers tunneling junction which are realized by MEMS technology
5

Conception et réalisation d'un système de développement, exécutable sur mini-ordinateur Nord-10, pour un microprocesseur spécialisé

Huot, Gérard 06 December 1978 (has links) (PDF)
sans
6

Apport des processeurs microprogrammables au système d'acquisition et au contrôle en ligne de l'expérience NA10

Klein, Philippe 16 November 1982 (has links) (PDF)
Un système microprogramable multiprocesseur de filtrage en ligne des dimuons de hautes masses a été développé comme trigger de second niveau dans le cadre de l'expérience NA10 au SPS du CERN. Cette thèse présente le matériel et décrit en détails le logiciel et les performances du filtrage.
7

Conception et modélisation d'un système de contrôle d'applications de télécommunication avec une architecture de réseau sur puce (NoC)

Lemaire, R. 11 October 2006 (has links) (PDF)
L'évolution des technologies d'intégration sur silicium permet de réaliser des systèmes sur puce (SoC) implémentant un nombre croissant d'unités de traitement. Les structures de communication sur puce deviennent un lélément essentiel pour la conception d'un SoC. dans ce contexte, le LETI propose une plateforme implémentant les fonctionnalités de la couche physique pour des systèmes de télécommunication sans-fil haut-débit en utilisant une architecture de réseaux sur puces (NoC). Les contributions de cette thèse portent d'abord sur la modélisation des NoC. L'environnement de modélisation proposé est basé sur l'outil de simulation NS-2. Ensuite, les travaux abordent les problèmatiques de la gestion des communications et du contrôle des traitements avec un système distribué sur un NoC. La solution présentée utilise une architecture d'interface réseau reconfigurable associée à chaque unité de traitement. L'ensemble de cette approche a été modélisé et simulé dans un environnement mixte VHDL et SystemC.
8

Aide à la conception de systèmes sur puce hétérogènes par l'exploration paramétrable des solutions au niveau système

Le Moullec, Yannick 10 April 2003 (has links) (PDF)
Les travaux présentés dans ce document concernent la conception conjointe matériel/logiciel (Hardware/Software Co-design) d'applications orientées multimédia (essentiellement de type "enfouies" ou embedded) à un niveau d'abstraction dit système. Ces travaux sont menés au sein du L.E.S.T.E.R dans le groupe de recherche Adéquation Architecture Systèmes (AAS).<br />Les systèmes enfouis sont de plus en plus présents dans la vie quotidienne, que ce soit pour un usage professionnel ou personnel. On peut citer par exemple les téléphones mobiles, les assistants personnels (PDA), les consoles de jeux vidéos portables, les lecteurs multimédias portables (MP3 et consorts). On trouve aussi de plus en plus de systèmes enfouis dans les automobiles, les appareils domestiques "intelligents" etc. Les fonctions qui peuvent être intégrées dans ce type de système peuvent être, par exemple, de type traitement de signal numérique (filtrage, compression/décompression audio-vidéo,...), de type télécommunication (protocole réseau,...) ou bien encore contrôle/commande (domotique...).<br />La complexité grandissante des applications fait qu'il est nécessaire de pouvoir aborder leurs conceptions à des niveaux d'abstractions élevés. En effet, il est très intéressant de travailler à ces niveaux (par exemple au niveau système) car les gains (en surface/temps/consomation/coût) qu'il est possible d'obtenir par diverses transformations (tant algorithmiques qu'architecturales) sont proportionnels au niveau d'abstraction auquel on se situe. De plus, les décisions prises au niveau système peuvent avoir un impact très important en terme de développement industriel.<br />En effet, une mauvaise adéquation application/architecture (architecture sur/sous-dimensionnée ou mal adaptée aux caractéristiques de l'application) peut imposer, soit de mettre sur le marché un produit trop cher ou peu performant, soit de relancer un cycle de conception entraînant des délais pouvant être rédhibitoires. L'ensemble de ces décisions à prendre peut être vu comme un espace de solutions potentielles à parcourir. Celui-ci étant très vaste pour une application (ensemble des couples algorithmes / architectures), il est nécessaire de l'explorer et d'effectuer des choix afin de le réduire. On conçoit aisément que cette exploration, lorsqu'elle est effectuée au niveau système, doit présenter un bon compromis vitesse (espace des solutions très vaste) Vs. précision (les choix faits sont lourds en conséquence pour la suite du flot de conception).<br />Les outils de conception actuels, pour de tels systèmes, sont connus sous le nom d'outils de codesign et se situent à des niveaux d'abstractions relativement faibles.<br />En outre, la plupart de ces outils partent d'une architecture cible figée (matériel et logiciel, par exemple un processeur et un ASIC) pour laquelle est choisie l'implantation soit matérielle (sur ASIC ou FPGA), soit logicielle de telle ou telle fonction pré-caractérisée. Ces outils ne permettent donc pas d'explorer les architectures propres aux différentes fonctions (estimation statique Vs. estimation dynamique). Il y a donc un nouveau pas à franchir, celui de l'exploration système comme moyen de choisir l'architecture cible ou bien encore de fixer les paramètres pour une architecture cible figée mais générique.<br />La méthode proposée dans cette thèse vise à réduire progressivement l'espace des solutions en permettant au concepteur d'effectuer des compromis entre plusieurs solutions, et ce à chaque niveau d'abstraction en s'appuyant sur un découpage fonctionnel et hiérarchique de l'application qui spécifie progressivement les aspects contrôles, traitements et transferts de données. La méthode est composée des éléments suivant : i) spécification de l'application dans un langage de haut niveau ; ii) caractérisation de l'application par un ensemble de métriques définissant l'orientation transfert mémoire, traitement ou contrôle ainsi que le parallélisme potentiel de ses sous-fonctions ; iii) estimation système dynamique des performances par l'exploration et l'exploitation du parallélisme ; iv) sélection des solutions prometteuses en vue de phases de projections architecturale et logicielle.
9

Gestion des unités de mémorisation pour la synthèse d'architecture

Corre, Gwenolé 20 June 2005 (has links) (PDF)
L'évolution des techniques et des capacités d'intégration entraîne une forte augmentation du volume d'information à manipuler, spécialement dans le domaine du traitement du signal et de l'image. La mémorisation des données doit donc faire l'objet d'une attention particulière lors de la conception de systèmes. La gestion des données en mémoire peut être traitée un haut niveau d'abstraction car il offre des opportunités d'optimisation plus importantes.Dans cette thèse, nous proposons une méthodologie de gestion des unités de mémorisation par la synthèse de haut niveau. Une analyse des données manipulées dans les applications TDSI a permis de définir un nouveau mécanisme de placement des données et de génération d'adresses et de mettre en œuvre une gestion d'anticipation des accès mémoire basée sur des modèles utilisés en gestion de production. Le travail réalisé a été intégré dans l'outil de synthèse d'architecture GAUT.
10

Méthode de validation globale pour les systèmes monopuces

Husinger, F. 06 March 2006 (has links) (PDF)
Les technologies actuelles permettent l'intégration de nombreux composants sur une seule puce. Ces systèmes appelés systèmes monopuce (SoC) sont un assemblage hétérogène de composants logiciels et matériels. La pression pour la qualité et les délais de mise sur le marché font de la validation de ces systèmes un point clé (70% du temps de conception). La vérification de l'intégration des SoCs, réalisée par simulation, consiste à valider les fonctionnalités des composants et leurs interconnexions dans le système. Elle est couramment effectuée par l'exécution de programmes logiciels sur les processeurs embarqués. Ces programmes sont généralement conçus à bas niveau (assembleur, C) ce qui rend difficile la réalisation de scénarii de test complexes nécessitant des mécanismes de synchronisation sophistiqués. De plus, leur utilisation n'est pas suffisante pour effectuer la validation complète d'un système. Ainsi, les contributions permettant d'accélérer la validation sont : (1) la définition d'une méthodologie de validation utilisant plusieurs techniques de vérification adressant les problèmes spécifiques aux SoCs ; (2) la définition d'une nouvelle méthode de vérification de l'intégration s'appuyant sur des programmes de test logiciel de haut niveau reposant sur un système d'exploitation. Cette méthode a été validée sur un système monopuce industriel destiné aux applications de télévision numérique haute définition.

Page generated in 0.0607 seconds