• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 182
  • 45
  • 12
  • 3
  • Tagged with
  • 256
  • 86
  • 71
  • 42
  • 42
  • 34
  • 29
  • 27
  • 26
  • 24
  • 24
  • 23
  • 21
  • 20
  • 20
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Visualisation de données volumiques massives : application aux données sismiques / Visualization of massive data volumes : applications to seismic data

Castanié, Laurent 24 November 2006 (has links)
Les données de sismique réflexion sont une source d'information essentielle pour la modélisation tridimensionnelle des structures du sous-sol dans l'exploration-production des hydrocarbures. Ce travail vise à fournir des outils de visualisation pour leur interprétation. Les défis à relever sont à la fois d'ordre qualitatif et quantitatif. Il s'agit en effet de considérer (1) la nature particulière des données et la démarche d'interprétation (2) la taille des données. Notre travail s'est donc axé sur ces deux aspects : 1) Du point de vue qualitatif, nous mettons tout d'abord en évidence les principales caractéristiques des données sismiques, ce qui nous permet d'implanter une technique de visualisation volumique adaptée. Nous abordons ensuite l'aspect multimodal de l'interprétation qui consiste à combiner plusieurs sources d'information (sismique et structurale). Selon la nature de ces sources (strictement volumique ou volumique et surfacique), nous proposons deux systèmes de visualisation différents. 2) Du point de vue quantitatif, nous définissons tout d'abord les principales contraintes matérielles intervenant dans l'interprétation, ce qui nous permet d'implanter un système générique de gestion de la mémoire. Initialement destiné au couplage de la visualisation et des calculs sur des données volumiques massives, il est ensuite amélioré et spécialisé pour aboutir à un système dynamique de gestion distribuée de la mémoire sur cluster de PCs. Cette dernière version, dédiée à la visualisation, permet de manipuler des données sismiques à échelle régionale (100-200 Go) en temps réel. Les problématiques sont abordées à la fois dans le contexte scientifique de la visualisation et dans le contexte d'application des géosciences et de l'interprétation sismique / Seismic reflection data are a valuable source of information for the three-dimensional modeling of subsurface structures in the exploration-production of hydrocarbons. This work focuses on the implementation of visualization techniques for their interpretation. We face both qualitative and quantitative challenges. It is indeed necessary to consider (1) the particular nature of seismic data and the interpretation process (2) the size of data. Our work focuses on these two distinct aspects : 1) From the qualitative point of view, we first highlight the main characteristics of seismic data. Based on this analysis, we implement a volume visualization technique adapted to the specificity of the data. We then focus on the multimodal aspect of interpretation which consists in combining several sources of information (seismic and structural). Depending on the nature of these sources (strictly volumes or both volumes and surfaces), we propose two different visualization systems. 2) From the quantitative point of view, we first define the main hardware constraints involved in seismic interpretation. Focused on these constraints, we implement a generic memory management system. Initially able to couple visualization and data processing on massive data volumes, it is then improved and specialised to build a dynamic system for distributed memory management on PC clusters. This later version, dedicated to visualization, allows to manipulate regional scale seismic data (100-200 GB) in real-time. The main aspects of this work are both studied in the scientific context of visualization and in the application context of geosciences and seismic interpretation
212

Noisy and haptic interventions in the feminist codex : daring refusals by H. D., Lisa Robertson, Rachel Zolf, and Erín Moure

MacEachern, Jessica N. 12 1900 (has links)
No description available.
213

A design flow to automatically Generate on chip monitors during high-level synthesis of Hardware accelarators / Un flot de conception pour générer automatiquement des moniteurs sur puce pendant la synthèse de haut niveau d'accélérateurs matériels

Ben Hammouda, Mohamed 11 December 2014 (has links)
Les systèmes embarqués sont de plus en plus utilisés dans des domaines divers tels que le transport, l’automatisation industrielle, les télécommunications ou la santé pour exécuter des applications critiques et manipuler des données sensibles. Ces systèmes impliquent souvent des intérêts financiers et industriels, mais aussi des vies humaines ce qui impose des contraintes fortes de sûreté. Par conséquent, un élément clé réside dans la capacité de tels systèmes à répondre correctement quand des erreurs se produisent durant l’exécution et ainsi empêcher des comportements induits inacceptables. Les erreurs peuvent être d’origines naturelles telles que des impacts de particules, du bruit interne (problème d’intégrité), etc. ou provenir d’attaques malveillantes. Les architectures de systèmes embarqués comprennent généralement un ou plusieurs processeurs, des mémoires, des contrôleurs d’entrées/sorties ainsi que des accélérateurs matériels utilisés pour améliorer l’efficacité énergétique et les performances. Avec l’évolution des applications, le cycle de conception d’accélérateurs matériels devient de plus en plus complexe. Cette complexité est due en partie aux spécifications des accélérateurs matériels qui reposent traditionnellement sur l’écriture manuelle de fichiers en langage de description matérielle (HDL).Cependant, la synthèse de haut niveau (HLS) qui favorise la génération automatique ou semi-automatique d’accélérateurs matériels à partir de spécifications logicielles, comme du code C, permet de réduire cette complexité.Le travail proposé dans ce manuscrit cible l’intégration d’un support de vérification dans les outils de HLS pour générer des moniteurs sur puce au cours de la synthèse de haut niveau des accélérateurs matériels. Trois contributions distinctes ont été proposées. La première contribution consiste à contrôler les erreurs de comportement temporel des entrées/sorties (impactant la synchronisation avec le reste du système) ainsi que les erreurs du flot de contrôle (sauts illégaux ou problèmes de boucles infinies). La synthèse des moniteurs est automatique sans qu’aucune modification de la spécification utilisée en entrée de la HLS ne soit nécessaire. La deuxième contribution vise la synthèse des propriétés de haut niveau (ANSI-C asserts) qui ont été ajoutées dans la spécification logicielle de l’accélérateur matériel. Des options de synthèse ont été proposées pour arbitrer le compromis entre le surcout matériel, la dégradation de la performance et le niveau de protection. La troisième contribution améliore la détection des corruptions des données qui peuvent modifier les valeurs stockées, et/ou modifier les transferts de données, sans violer les assertions (propriétés) ni provoquer de sauts illégaux. Ces erreurs sont détectées en dupliquant un sous-ensemble des données du programme, limité aux variables les plus critiques. En outre, les propriétés sur l’évolution des variables d’induction des boucles ont été automatiquement extraites de la description algorithmique de l’accélérateur matériel. Il faut noter que l’ensemble des approches proposées dans ce manuscrit, ne s’intéresse qu’à la détection d’erreurs lors de l’exécution. La contreréaction c.à.d. la manière dont le moniteur réagit si une erreur est détectée n’est pas abordée dans ce document. / Embedded systems are increasingly used in various fields like transportation, industrial automation, telecommunication or healthcare to execute critical applications and manipulate sensitive data. These systems often involve financial and industrial interests but also human lives which imposes strong safety constraints.Hence, a key issue lies in the ability of such systems to respond safely when errors occur at runtime and prevent unacceptable behaviors. Errors can be due to natural causes such as particle hits as well as internal noise, integrity problems, but also due to malicious attacks. Embedded system architecture typically includes processor (s), memories, Input / Output interface, bus controller and hardware accelerators that are used to improve both energy efficiency and performance. With the evolution of applications, the design cycle of hardware accelerators becomes more and more complex. This complexity is partly due to the specification of hardware accelerators traditionally based on handwritten Hardware Description Language (HDL) files. However, High-Level Synthesis (HLS) that promotes automatic or semi-automatic generation of hardware accelerators according to software specification, like C code, allows reducing this complexity.The work proposed in this document targets the integration of verification support in HLS tools to generate On-Chip Monitors (OCMs) during the high-level synthesis of hardware accelerators (HWaccs). Three distinct contributions are proposed. The first one consists in checking the Input / Output timing behavior errors (synchronization with the whole system) as well as the control flow errors (illegal jumps or infinite loops). On-Chip Monitors are automatically synthesized and require no modification in their high-level specification. The second contribution targets the synthesis of high-level properties (ANSI-C asserts) that are added into the software specification of HWacc. Synthesis options are proposed to trade-off area overhead, performance impact and protection level. The third contribution improves the detection of data corruptions that can alter the stored values or/and modify the data transfers without causing assertions violations or producing illegal jumps. Those errors are detected by duplicating a subset of program’s data limited to the most critical variables. In addition, the properties over the evolution of loops induction variables are automatically extracted from the algorithmic description of HWacc. It should be noticed that all the proposed approaches, in this document, allow only detecting errors at runtime. The counter reaction i.e. the way how the HWacc reacts if an error is detected is out of scope of this work.
214

Temporal and spatial characteristics of laser-induced plasma on organic materials and quantitative analysis of the contained inorganic elements / Caractéristiques temporelles et spatiales de plasma induit par laser sur des marériaux organiques et analyse quantitative des éléments minéraux contenus

Lei, Wenqi 06 July 2012 (has links)
Ce travail de thèse a été consacré à la compréhension du plasma induit par laser sur des matériaux organiqueset à l’application de la technique de laser-induced breakdown spectroscopy (LIBS) à l’analyse quantitative deces matériaux. L’ensemble des travaux contribue donc à approfondir notre connaissance sur les mécanismesphysiques impliqués dans l’interaction laser-matière, dans la génération du plasma et dans l’évolution decelui-ci au cours de son expansion dans le gaz ambiant avec la spécificité de s’adresser à des plasmas induitssur des cibles organiques. Ces travaux visent également à améliorer la performance de la LIBS pour l’analysede matériaux organiques. La spécificité concernant la cible organique répond au besoin actuel de lacommunauté internationale travaillant sur le développement de la LIBS, de mieux maîtriser le plasma induitsur ce genre de matériau qui présente des propriétés optiques bien spécifiques par rapport à des matériauxmieux connus pour l’ablation laser tels que des métaux. Elle répond également au besoin grandissant d’utiliserla technique LIBS aux matériaux organiques pour des applications dans les domaines environnementaux,agroalimentaires, ou encore biomédicaux. Ce mémoire de thèse a été rédigé selon l’organisation suivante. Après l’Introduction Générale qui préciseles contextes scientifiques et technologiques, le Chapitre I rappelle les principes de base nécessaires à lacompréhension du phénomène de génération de plasma par ablation laser, et de l’évolution de celui-ci dans ungaz ambiant. L’accent a été mis sur l’ablation des matériaux organiques. Les procédures et les techniques dediagnostic du plasma induit par laser sont ensuite présentées en insistant sur la nature transitoire etinhomogène d’un plasma en expansion. Le chapitre II s’intéresse à la génération et l’évolution du plasmainduit sur la peau d’une pomme de terre, un échantillon typique de produit agroalimentaire. La caractéristiquedu plasma induit sur une cible organique molle et humide, comme une pomme de terre fraîche était quelquechose d’inconnu au démarrage de la thèse et constituait une base nécessaire à l’analyse quantitative deséléments métalliques en traces et ultra-traces contenus dans un tel échantillon. A l’issue de cettecaractérisation, les données analytiques semi-quantitatives ont été extraites des spectres LIBS correspondant àla peau d’une pomme de terre. Le Chapitre III se situe dans la continuité du Chapitre II pour l’application de laLIBS à des matériaux organiques. Une étude comparative d’analyse de la poudre de lait par la LIBS et parl’ICP-AES permet une évaluation de la performance d’analyse quantitative de la LIBS pour des échantillonsorganiques, et une validation de la procédure CF-LIBS. A la différence des Chapitres II et III où les élémentsde traces métalliques étaient au centre de notre attention, le Chapitre IV étudie le comportement des élémentsmajeurs qui composent la matrice d’un matériau organique, qui sont les 4 éléments organiques, H, C, O, N. Ala décomposition d’un matériau organique par ablation laser, ces éléments peuvent se présenter sous la formede fragments moléculaires, ou encore se recombiner en des espèces moléculaires. Nous étudions alors dans ceChapitre l’évolution de ces espèces en fonction des paramètres du laser utilisé, et notamment la longueurd’onde. Le mémoire se termine par une conclusion générale et des perspectives. / This PhD work was devoted to the understanding of the laser-induced plasma on organic materials and theapplication of laser-induced breakdown spectroscopy (LIBS) to quantitative analysis of these materials. Itcontributes to deepen our knowledge on the physical mechanisms involved in laser-matter interaction, plasmageneration, evolution and expansion of the plasma into the ambient gas, with emphasis on plasmas induced onorganic targets. It also intends to improve the performance of LIBS for the analysis of organic materials. Thespecificity for organic targets fits the current focus of the international community working on LIBS, toimprove the control of the plasma induced on this kind of material which has a distinguished optical prosperitywith respect to that of metals, better known for laser ablation. It addresses also the growing need to apply theLIBS technique to organic materials for different applications in the environmental, food, or biomedicaldomains. The works in this thesis were therefore presented in this thesis document according to the followingorganization.After the General Introduction which introduces the scientific and technological contexts, Chapter Irecalls the basic theoretical elements necessary to understand the phenomenon of plasma generation by laserablation, and its evolution in the background gas. Ablation of organic material is emphasized. Procedures andtechniques of diagnostics of laser-induced plasma were then presented with a focus on the transient andinhomogeneous nature of the expanding plasma. Chapter II focuses on the generation and the evolution of theplasma induced on the skin of a potato, a typical sample of agricultural product. The characteristics of plasmainduced on a soft and wet organic target, such as a fresh potato, was something unknown when the thesis workstarted. These characteristics provide the necessary basis for the quantitative analysis of the trace andultra-trace metallic elements in these samples. Following this characterization, semi-quantitative analyticalresults were extracted from LIBS spectra corresponding to potato skin. Chapter III is presented in thecontinuity of Chapter II for the application of LIBS to the quantitative analysis of organic materials. Acomparative study on the analytical results with LIBS and ICP-AES for milk powders allows an assessment ofthe performances of quantitative analysis by LIBS for organic materials, and a validation of the CF-LIBSprocedure that we have developed. Different from Chapters II and III where attention was paid to trace metalelements, Chapter IV studies the behavior of the major elements that make up the matrix of organic material,which are 4 known organic elements: H, C, O, N. During the decomposition of organic material by laserablation, these elements can be found in the form of molecular fragments, or recombined into molecularspecies. We then study in this Chapter the evolution of these species as a function of the laser ablationparameters, the laser wavelength in particular. The thesis document ends with a general conclusion andoutlooks.
215

FIDEL : un langage de description et de simulation des circuits VLSI

El Tahawy, Hazem 23 November 1987 (has links) (PDF)
Cette thèse discute dans un premier temps des propriétés et des concepts des langages de description du matériel HDL. Ensuite, le langage FIDEL pour la description (fonctionnelle, structurelle) et la simulation de circuits intégrés VLSI est présenté, en insistant sur les différentes caractéristiques de ce langage qui sont adaptées à une simulation hiérarchique et multi-niveaux. Deux outils de simulation, logico-fonctionnelle et electrico-fonctionnelle, sont présentés. Ces deux outils présentent une avancée dans le domaine de la simulation dans le but de garder la précision tout en diminuant le cout de simulation des circuits VLSI. Une évaluation des différents langages de description selon leurs domaines d'application et propriétés est présentée. Au vu de cette évaluation, FIDEL s'insère en bonne place, tant au niveau des concepts que de l'utilisation pratique
216

Étude et optimisation de l'interaction processeurs architectures reconfigurables dynamiquement

Ben Abdallah, Faten 20 October 2009 (has links) (PDF)
Les applications de télécommunications mobiles et de multimédia, notamment dans le domaine de l'embarqué, deviennent de plus en plus complexes au niveau calculatoire et consomment de plus en plus d'énergie. Afin de palier aux besoins calculatoires et énergétiques de ces applications, les concepteurs se sont orientés vers les architectures hybrides, associant des systèmes de nature et paradigme différents. Ces architectures ont retenu l'attention des concepteurs parce qu'elles présentent un bon compromis coût/performances calculatoires d'autant plus qu'elles possèdent des propriétés énergétiques intéressantes. En outre, l'émergence dans la dernière décade des architectures reconfigurables dynamiquement associant haute performance et encore plus de flexibilité, a fait que les dernières générations des architectures hybrides associent un ou plusieurs processeurs à une ou plusieurs architectures reconfigurables dynamiquement (ARD). Cette thèse s'inscrit dans cette thématique et a ainsi pour objectif d'apporter une modélisation précise de ces architectures ainsi que des méthodologies permettant d'exploiter leurs potentiels de performances. Une modélisation des mécanismes d'échange d'informations entre un processeur couplé à une ressource reconfigurable est d'abord proposée ce qui a permis une identification précise de modèles de performances. En utilisant ces modèles de performances, une méthodologie d'adéquation algorithme architecture permettant suivant les paramètres de l'application de déterminer le couplage CPU/ARD adéquat est présentée. Nous introduisons ces modèles de performances dans le flot de développement logiciel de ces architectures afin de permettre un partitionnement temporel automatique basé sur la détermination de la surface (en nombre d'unités fonctionnelles) de l'ARD nécessaire pour avoir des performances optimales et ce en trouvant le facteur de déroulage de boucle qui assure le maximum de performances pour l'architecture hybride. Le dernier aspect de ce travail concerne la validation de ces méthodologies et leur mise en oeuvre. Nous présentons pour cela les mécanismes d'implémentation d'un démodulateur multimode DVB-T/H et d'un récepteur WCDMA dynamique sur une architecture hybride reconfigurable dynamiquement.
217

Partitionnement en ligne d'applications flots de données pour des architectures temps réel auto-adaptatives

Ghaffari, Fakhreddine 30 November 2006 (has links) (PDF)
Les défis actuels du développement des systèmes embarqués<br />complexes tels que les systèmes intégrés de traitement d'image,<br />consistent à réaliser avec succès des produits fiables,<br />performants, efficaces quelles que soient les conditions d'utilisation et peu<br />coûteux. Relever ces défis passe par un bon choix d'architecture, de méthodes<br />et outils adaptés aux applications visées et aux technologies cibles. Pour de<br />nombreuses applications, en particulier en télécommunication et multimédia,<br />des réalisations temps réel souple sont souvent suffisantes, c'est-à-dire des<br />implémentations visant à obtenir une qualité de service adaptée aux besoins.<br />Au lieu de s'appuyer sur des temps d'exécutions pire cas ou des séquences de<br />test souvent peu représentatives pour concevoir ces systèmes, notre approche<br />vise une plate-forme auto-adaptative capable de s'auto-configurer au cours de<br />l'exécution de l'application (donc en ligne). On peut citer comme exemples<br />d'applications le cas d'une caméra fixe de télésurveillance qui adapte ses<br />traitements en fonction de la nature des images acquises ou un terminal mobile<br />multimodal qui change de norme de transmission si la qualité du canal de<br />communication l'exige.<br />Les composants reconfigurables ont des niveaux de performances et une<br />flexibilité qui les rendent très attractifs dans un nombre croissant de<br />développements. La reconfiguration dynamique (partielle ou complète) offre la<br />possibilité de réutiliser les mêmes ressources matérielles pour une succession<br />de traitements, et ce de façon analogue à une réalisation logicielle. Nous<br />proposons une approche permettant d'allouer et d'ordonnancer dynamiquement<br />les tâches d'une application flot de données en fonction d'une estimation de<br />leurs temps d'exécution afin de respecter au mieux les contraintes de temps.<br />Cette reconfiguration en ligne nécessite des recherches de compromis<br />complexité/efficacité de l'allocation et de l'ordonnancement afin d'optimiser la<br />qualité de service et de réduire leurs coûts de réalisation.
218

Architectures des Accélérateurs de Traitement Flexibles pour les Systèmes sur Puce

Benoit, Pascal 11 October 2004 (has links) (PDF)
Les systèmes sur puce intègrent sur un même substrat de silicium l'ensemble des organes nécessaires à la prise en charge des différentes fonctionnalités du système. Pour la partie dédiée aux traitements numériques, le microprocesseur central est souvent déchargé des applications critiques (traitement du signal et des images en général) par un accélérateur de traitement. C'est par rapport à l'architecture du coprocesseur que se pose la problématique de cette thèse. En effet, de nombreuses approches sont possibles pour ce dernier, et vouloir les comparer s'avère être une tâche complexe. Après avoir fait un état de l'art des différentes solutions architecturales de traitement flexibles, nous proposons un ensemble de métriques dans une optique de caractérisation. Nous illustrons alors notre méthode par la caractérisation et la comparaison d'architectures représentatives de l'état de l'art. Nous montrons que c'est par une exploitation efficace du parallélisme que les coprocesseurs peuvent améliorer significativement leurs performances. Or, malgré de réelles aptitudes, les accélérateurs ne sont pas toujours capables de tirer parti de ce potentiel. C'est pour cela que nous proposons une méthode générale de multiplexage matériel, qui permet d'améliorer les performances par l'exploitation du parallélisme dynamique (boucle et tâches). Par son application à un cas concret, un système baptisé Saturne, nous prouvons que par l'adjonction d'un contrôleur dédié au multiplexage matériel, les performances de l'accélérateur sont quasiment doublées, et ce avec un faible surcoût matériel.
219

Making their mark, Canadian snipers and the Great War, 1914-1918

Mepham, Leslie P. January 1997 (has links) (PDF)
No description available.
220

De l’influence du type de substance injectée sur le comportement du partage du matériel d’injection

Caron, Jean-Bruno 08 1900 (has links)
No description available.

Page generated in 0.0402 seconds