• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 143
  • 26
  • 10
  • 1
  • Tagged with
  • 187
  • 78
  • 56
  • 43
  • 31
  • 28
  • 27
  • 22
  • 19
  • 18
  • 17
  • 16
  • 16
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Le pouvoir des anneaux : essais sur la parure digitale du haut Moyen Âge : approche archéologique des objets du sud-ouest de la Gaule / The power of the rings : essay on the finger ornaments during the early Middle Ages : archaeological approach of the objects from southwestern Gaul.

Renou, Julie 14 December 2018 (has links)
Le sujet porte sur les bagues et les anneaux découverts dans les contextes archéologiques datés du Ve au IXe siècle, dans une zone géographique allant de la Loire aux Pyrénées, et de la façade atlantique à l’ouest du Rhône. La période chronologique, assez large, permet d’aborder la question de l’héritage antique du Ve siècle, particulièrement important dans des régions romanisées. Le IXe siècle correspond quant à lui à une forte diminution des dépôts funéraires qui constituent les principaux contextes de découverte des objets de parure. Les études portant sur les bagues et les anneaux ont jusqu’alors essentiellement consisté en l’élaboration d’une typochronologie, que ce soit pour la Gaule romaine ou pour les royaumes mérovingiens septentrionaux. Pour ce travail doctoral un catalogue a été élaboré, il comprend plus de 300 artefacts pour lesquels un classement a été proposé. La singularité de ce travail repose sur l’analyse des pratiques sociales menée à partir des artefacts du Sud-Ouest. En tant qu’objets précieux, le port des bagues et des anneaux reste l’apanage des élites ; elles constituent un marqueur important des identités sociales, de la mémoire familiale et des échanges économiques. Afin d’aborder pleinement cette thématique, l’étude est articulée en quatre parties. Les deux premières sont dévolues à la mise en place de la méthodologie, en portant une attention particulière à l’héritage historiographique dans laquelle l’étude se place. Les deux dernières parties sont consacrées à l’inscription de ces bijoux dans l’espace social du haut Moyen Âge. De leur fabrication à leur réception et à leur transmission, il s’agit de documenter les manipulations dont ils ont fait l’objet et qui leur ont conféré leur valeur, jusqu’à leur dépôt en sépulture. / The subject-matter is the finger ornaments discovered in archaeological contexts, dating from the 5th to the 9th century. The geographical area ranges from the Loire to the Pyrenees, and from the Atlantic coast to the west of the Rhône. The chronological period, which is quite broad, makes it possible to approach the question of the ancient heritage of the fifth century, which is particularly important in romanised regions. The 9th century corresponds to a sharp decrease in funeral deposits, which are the main contexts for the discovery of ornaments. Studies on rings have so far essentially consisted in the development of a typochronology, whether for Roman Gaul or for the northern Merovingian kingdoms. For this doctoral study a catalogue has been elaborated, it includes more than 300 artifacts for which a classification has been proposed. The uniqueness of this work is based on the analysis of social practices using artifacts from the Southwest. As precious objects, the wearing of rings remains the prerogative of the elite; they are an important marker of social identities, family memory and economic exchanges. In order to fully address this theme, the study is divided into four parts. The first two are devoted to the implementation of the methodology, paying particular attention to the historiographical heritage in which the study is placed. The last two parts are devoted to the inscription of these jewels in the social space of the early Middle Ages. From their manufacture to their reception and transmission, it is a question of documenting the manipulations to which they have been subjected and which have given them their value, up to their burial.
72

Hardware and software co-design toward flexible terabits per second traffic processing / Co-conception matérielle et logicielle pour du traitement de trafic flexible au-delà du terabit par seconde

Cornevaux-Juignet, Franck 04 July 2018 (has links)
La fiabilité et la sécurité des réseaux de communication nécessitent des composants efficaces pour analyser finement le trafic de données. La diversification des services ainsi que l'augmentation des débits obligent les systèmes d'analyse à être plus performants pour gérer des débits de plusieurs centaines, voire milliers de Gigabits par seconde. Les solutions logicielles communément utilisées offrent une flexibilité et une accessibilité bienvenues pour les opérateurs du réseau mais ne suffisent plus pour répondre à ces fortes contraintes dans de nombreux cas critiques.Cette thèse étudie des solutions architecturales reposant sur des puces programmables de type Field-Programmable Gate Array (FPGA) qui allient puissance de calcul et flexibilité de traitement. Des cartes équipées de telles puces sont intégrées dans un flot de traitement commun logiciel/matériel afin de compenser les lacunes de chaque élément. Les composants du réseau développés avec cette approche innovante garantissent un traitement exhaustif des paquets circulant sur les liens physiques tout en conservant la flexibilité des solutions logicielles conventionnelles, ce qui est unique dans l'état de l'art.Cette approche est validée par la conception et l'implémentation d'une architecture de traitement de paquets flexible sur FPGA. Celle-ci peut traiter n'importe quel type de paquet au coût d'un faible surplus de consommation de ressources. Elle est de plus complètement paramétrable à partir du logiciel. La solution proposée permet ainsi un usage transparent de la puissance d'un accélérateur matériel par un ingénieur réseau sans nécessiter de compétence préalable en conception de circuits numériques. / The reliability and the security of communication networks require efficient components to finely analyze the traffic of data. Service diversification and through put increase force network operators to constantly improve analysis systems in order to handle through puts of hundreds,even thousands of Gigabits per second. Commonly used solutions are software oriented solutions that offer a flexibility and an accessibility welcome for network operators, but they can no more answer these strong constraints in many critical cases.This thesis studies architectural solutions based on programmable chips like Field-Programmable Gate Arrays (FPGAs) combining computation power and processing flexibility. Boards equipped with such chips are integrated into a common software/hardware processing flow in order to balance short comings of each element. Network components developed with this innovative approach ensure an exhaustive processing of packets transmitted on physical links while keeping the flexibility of usual software solutions, which was never encountered in the previous state of theart.This approach is validated by the design and the implementation of a flexible packet processing architecture on FPGA. It is able to process any packet type at the cost of slight resources over consumption. It is moreover fully customizable from the software part. With the proposed solution, network engineers can transparently use the processing power of an hardware accelerator without the need of prior knowledge in digital circuit design.
73

Méthodologie d'identification et d'évitement des cycles de gel du processeur pour l'optimisation de la performance du logiciel sur le matériel / Avoidance and identification methodology of processor stall cycles for software-on-hardware performance optimization

Njoyah ntafam, Perrin 20 April 2018 (has links)
L’un des objectifs de la microélectronique est de concevoir et fabriquer des SoCs de petites tailles, à moindre coût et visant des marchés tel que l’internet des objets. À matériel fixe sur lequel l’on ne dispose d’aucune marge de manœuvre, l’un des challenges pour un développeur de logiciels embarqués est d’écrire son programme de manière à ce qu’à l’exécution, le logiciel développé puisse utiliser au mieux les capacités de ces SoCs. Cependant, ces programmes n’utilisent pas toujours correctement les capacités de traitement disponibles sur le SoC. L’estimation et l’optimisation de la performance du logiciel devient donc une activité cruciale. A l’exécution, ces programmes sont très souvent victimes de l’apparition de cycles de gel de processeur dus à l’absence de données en mémoire cache. Il existe plusieurs approches permettant d’éviter ces cycles de gel de processeur. Par l’exemple l’utilisation des options de compilation adéquates pour la génération du meilleur code exécutable possible. Cependant les compilateurs n’ont qu’une idée abstraite (sous forme de formules analytiques) de l’architecture du matériel sur lequel le logiciel s’exécutera. Une alternative est l’utilisation des processeurs « Out–Of–Order ». Mais ces processeurs sont très couteux en terme de coût de fabrication car nécessites une surface de silicium importante pour l’implantation de ces mécanismes. Dans cette thèse, nous proposons une méthode itérative basée sur les plateformes virtuelles précises au niveau du cycle qui permet d’identifier les instructions du programme à optimiser responsables à l’exécution, de l’apparition des cycles de gel de processeur dus à l’absence de données dans le cache L1. L’objectif est de fournir au développeur des indices sur les emplacements du code source de son programme en langage de haut niveau (C/C++ typiquement) qui sont responsables de ces gels. Pour chacune de ces instructions, nous fournissons leur contribution au rallongement du temps d’exécution totale du programme. Finalement nous estimons le gain potentiel maximal qu’il est possible d’obtenir si tous les cycles de gel identifiés sont évités en insérant manuellement dans le code source du programme à optimiser, des instructions de pré–chargement de données dirigé par le logiciel. / One of microelectronics purposes is to design and manufacture small-sized, low-cost SoCs targeting markets such as the Internet of Things. With fixed hardware on which there is no possible flexibility, one of the challenges for an embedded software developer is to write his program so that, at runtime, the software developed can make the best use of these SoC capabilities. However, these programs do not always properly use the available SoC processing capabilities. Software performance estimation and optimization is then a crucial activity. At runtime, these programs are very often victims of processor data stall cycles. There are several approaches to avoiding these processor data stall cycles. For example, using the appropriate compilation options to generate the best executable code. However, the compilers have only an abstract knowledge (as analytical formulas) of the hardware architecture on which the software will be executed. Another way of solving this issue is to use Out-Of- Order processors. But these processors are very expensive in terms of manufacturing cost because they require a large silicon surface for the implementation of the Out-Of-Order mechanism. In this thesis, we propose an iterative methodology based on cycle accurate virtual platforms, which helps identifying precisely instructions of the program which are responsible of the generation of processor data stall cycles. The goal is to provide the developer with clues on the source code lignes of his program’s in high level language (C/C++ typically) which are responsible of these stalls. For each instructions, we provide their contribution to lengthening of the total program execution time. Finally, we estimate the maximum potential gain that can be achieved if all identified stall cycles are avoided by manually inserting software preloading instructions into the source code of the program to optimize.
74

Modélisations des glissements de terrain comme un problème de bifurcation

Huynh, Dat Vu Khoa 02 November 2005 (has links) (PDF)
Les catastrophes naturelles sont de plus en plus fréquentes et sont à l'origine de conséquences socio-économiques souvent graves et coûteuses. La prévision de ces risques, notamment en ce qui concerne les glissements de terrain, est dès lors indispensable. Dans cette problématique, la modélisation numérique doit être pertinente et prédictive. Actuellement, les glissements sous une faible pente (inférieure à 14°) voire très faible (inférieure à 8°), où la rupture est souvent de type diffuse, ne peuvent être expliqués ni par les méthodes empiriques classiques ni par l'analyse limite traditionnelle (théorie de plasticité). De nouvelles approches sont donc nécessaires pour rendre compte de ces mécanismes de glissement. La condition suffisante de stabilité de Hill (1958) basée sur le signe du travail du second ordre pourrait être un critère pertinent pour analyser ces modes de rupture diffus.<br /><br />Ce travail de thèse porte d'une part sur l'analyse et l'implémentation du critère de stabilité de Hill dans deux codes de calculs par éléments finis (LAGAMINE et PLAXIS) et d'autre part sur leur application, dans le cadre des modélisations numériques de problèmes aux limites non linéaires, aux glissements de terrain.<br /><br />L'étude du travail du second ordre, menée sur des modèles de comportement incrémentaux non linéaires, montre que certains sols exhibent de larges domaines potentiellement instables à l'intérieur strict du critère limite de plasticité. Ces analyses sont corroborées par les résultats expérimentaux.<br /><br />Nous montrons, dans ces travaux, par des approches analytique et numérique dans le cadre de la théorie de l'élasto-plasticité, que le critère de Hill est toujours vérifié avant la condition limite de plasticité (critère de Mohr-Coulomb) et le critère de localisation de déformation (critère de Rice).<br /><br />L'utilisation du critère de Hill nous permet d'analyser le glissement de la côtière de Trévoux après une période de fortes précipitations en 1983. Ces travaux de modélisations ont été menés dans le cadre d'un couplage hydromécanique en milieu non saturé.<br /><br />La même démarche a été menée pour l'analyse du glissement catastrophique du versant de Las Colinas (El Salvador) provoqué par un séisme en 2001. La définition du chargement considéré est basée sur une méthode de type pseudo-statique.
75

Mouvement de données et placement des tâches pour les communications haute performance sur machines hiérarchiques

Moreaud, Stéphanie 12 October 2011 (has links) (PDF)
Les architectures des machines de calcul sont de plus en plus complexes et hiérarchiques, avec des processeurs multicœurs, des bancs mémoire distribués, et de multiples bus d'entrées-sorties. Dans le cadre du calcul haute performance, l'efficacité de l'exécution des applications parallèles dépend du coût de communication entre les tâches participantes qui est impacté par l'organisation des ressources, en particulier par les effets NUMA ou de cache. Les travaux de cette thèse visent à l'étude et à l'optimisation des communications haute performance sur les architectures hiérarchiques modernes. Ils consistent tout d'abord en l'évaluation de l'impact de la topologie matérielle sur les performances des mouvements de données, internes aux calculateurs ou au travers de réseaux rapides, et pour différentes stratégies de transfert, types de matériel et plateformes. Dans une optique d'amélioration et de portabilité des performances, nous proposons ensuite de prendre en compte les affinités entre les communications et le matériel au sein des bibliothèques de communication. Ces recherches s'articulent autour de l'adaptation du placement des tâches en fonction des schémas de transfert et de la topologie des calculateurs, ou au contraire autour de l'adaptation des stratégies de mouvement de données à une répartition définie des tâches. Ce travail, intégré aux principales bibliothèques MPI, permet de réduire de façon significative le coût des communications et d'améliorer ainsi les performances applicatives. Les résultats obtenus témoignent de la nécessité de prendre en compte les caractéristiques matérielles des machines modernes pour en exploiter la quintessence.
76

Modélisation numérique des phénomènes d'amortissement par dissipation d'énergie matérielle dans les structures de type portique en béton armé sous séisme.

Jehel, Pierre 10 December 2009 (has links) (PDF)
Des méthodes de dimensionnement parasismique récentes reposent sur la prédiction de quantités locales dans les analyses sismiques non-linéaires. Dans ce contexte la modélisation de l'amortissement avec un modèle visqueux est un point faible. Cette thèse porte sur le développement d'une représentation physique des sources d'amortissement matérielles dans les éléments structuraux des portiques en béton armé (BA). Nous avons formulé et implanté dans un code de calculs par éléments finis (EF) un nouvel élément de poutre multifibre basé sur une cinématique de Euler-Bernoulli enrichie par des sauts de déplacement, et une nouvelle loi de béton robuste capable de représenter les principales sources de dissipation matérielles. Le modèle de matériau a été développé dans le cadre donné par la thermodynamique avec variables internes et une méthode des EF mixte a été retenue pour l'implantation numérique. Les simulations numériques faites avec cet élément multifibre montrent que des sources de dissipation autres que matérielles devraient être ajoutées dans les modèles et que ce nouvel élément est capable de simuler l'évolution non-linéaire d'un portique en BA en un temps de calcul satisfaisant.
77

Interopérabilité en émulation et prototypage matériel

Blampey, A. 06 December 2006 (has links) (PDF)
Ce travail de thèse introduit un nouveau concept dans la vérification des circuits au niveau RTL : l'interopérabilité entre simulateurs HDL, émulateurs matériel et plateformes de prototypage. Cela permet de bénéficier, à la fois de l'excellente vitesse d'exécution des plateformes de prototypage et des capacités de déboguage, d'observabilité et contrôlabilité offertes par les émulateurs matériel et simulateurs HDL. L'idée principale de l'interopérabilité consiste en la réalisation des tests sur une plateforme de prototypage rapide tout en réalisant périodiquement des sauvegardes de l'état du circuit. Lorsqu'une erreur apparait, le déboguage est réalisé, soit un émulateur rapide, soit un simulateur HDL économique : le test est alors rejoué à partir de la dernière sauvegarde d'état réalisée avant l'instant d'apparition du problème. Enfin, cette thèse présente un flot de prototypage, validé sur un circuit industriel STM HLS25, permettant d'intégrer l'interopérabilité comme une fonctionnalité du circuit
78

Utilisation des progiciels - identification d'obstacles et stratégies de formation.

André, Bernard 04 December 2006 (has links) (PDF)
La finalité du système constituéd'un utilisateur et d'un système de traitement de texte est de produire des documents visibles et lisibles pour un lecteur humain. L'analyse de l'évolution des progiciels de traitement de texte révèle une complexité fortement croissante. Contrairement à l'idée répandue de leur facilité d'usage, nous constatons qu'ils posent des problèmes récurrents aux utilisateurs (éditeurs ou lecteurs) attestés par une étude informatisée des traces laissées dans un ensemble contrasté de fichiers : les objets abstraits sont peu utilisés et le plus souvent indépendamment de leur fonction de structuration hiérarchique ou sémantique. La mise en perspective des facteurs métier, économique et technique dans la genèse de ce système montre la nécessité de passer de l'étude du traitement DE texte à celle du traitement DU texte .Cette approche nouvelle conduit à proposer d'autres orientations de recherche dans l'élaboration de curriculums.
79

Vivre et survivre dans une Aire d'Environnement Protégé : le cas d'une petite paysannerie de l'APA (Area de Protecao Ambiental) de Guaraquecaba, Parana, Brésil

Dumora, Catherine 04 December 2006 (has links) (PDF)
Cette thèse s'inscrit dans un programme de recherche interdisciplinaire du Doctorat Environnement et Développement de l'Université Fédérale du Paraná, sur le thème du développement durable et de la préservation de la nature: Permanence et changement dans les domaines sociaux et naturels, le cas l'aire protégée APA (Aréa de Proteção Ambiental) de Guaraqueçaba, au Paraná. Une attention toute particulière est donnée à l'étude de l'agriculture familiale.<br />Le cas étudié constitue en quelque sorte un condensé des problèmes qui peuvent se poser lors de l'apparition d'enjeux de protection environnementale dans un espace occupé de longue date par une population de petits agriculteurs. Le Municipe abrite un des derniers lambeaux qui subsiste de la Mata Atlântica. Du fait de la valeur patrimoniale qui lui est attribuée à l'échelle nationale et internationale, le territoire dont la population locale a tiré pendant plusieurs générations les moyens de sa subsistance fait l'objet désormais de sévères restrictions d'usage. Des pratiques anciennes d'exploitation des ressources naturelles - agriculture sur défriche-brûlis, chasse, collecte - qui constituaient les piliers de son système de production sont prohibées. C'est une mutation profonde qui est exigée de sa part, à laquelle elle est peu préparée, peu aidée, et qu'elle vit comme une menace sur sa capacité actuelle et future à se reproduire matériellement et socialement.<br />Le programme interdisciplinaire conduit une interrogation générale sur les dynamiques écologiques, économiques, sociales dont ce cas d'école offre l'illustration, dynamiques qui conduisent à poser sur des bases concrètes la question des contradictions constitutives de la notion de développement durable : tension entre « durabilité » environnementale et « durabilité » sociale. Cette thèse, dans son objet plus spécifique, analyse le vécu quotidien des populations de petits agriculteurs familiaux qui sont directement aux prises avec cette contradiction. Par une approche anthropologique, c'est une vision de l'intérieur qu'elle s'efforce de donner à partager, centrée sur les stratégies concrètes mises en œuvre par cette population pour continuer à vivre et à garder l'espoir d'un avenir dans un contexte où elle a le sentiment qu'on ne lui fait plus de place.<br />Les premiers chapitres sont consacrés à l'histoire spécifique, complexe et mouvementée qui a caractérisé les relations de la population rurale à son milieu dans cette région. Ils retracent également les circonstances sociales et politiques particulières qui ont conduit à la création de l'APA.<br />L'étude anthropologique consacrée aux hameaux de la vallée du Rio Guaraqueçaba et plus particulièrement à celui de Batuva, porte d'abord sur les relations sociales qui se mobilisent dans l'utilisation des ressources : la parenté, les trajectoires familiales, l'organisation sociale du travail. On étudie ensuite l'usage, l'exploitation des ressources naturelles dans l'aspect technique au travers des pratiques de production, des techniques de transformation. On identifie les connaissances sur les ressources naturelles, et les modes de représentations qui sont derrière ces savoirs, distinguant ainsi les savoirs opérationnels et les représentations. <br />Enfin, les observations se concentrent sur la reproduction matérielle et sociale : les stratégies de résolution des problèmes quotidiens à différents niveaux (individu, famille, localité, famille à l'extérieur...) que les personnes développent pour permettre de se reproduire socialement et physiquement (construire une maison, s'habiller, s'alimenter, l'origine du revenu de la famille, la santé, l'importance des relations familiales internes et externes à la communauté pour répondre à ces nécessités). Cette recherche analyse ainsi la capacité de la famille, et plus largement de la population du hameau, à se reproduire dans son territoire local par diverses activités dont certaines reposent sur une exploitation des ressources naturelles environnantes et d'autres, font appel à des revenus qui ne trouvent pas leur origine localement. Ce sont des stratégies diversifiées de pluriactivité qui sont à l'œuvre.<br />Sur ces bases empiriques, cette recherche tente d'apporter une réflexion sur les notions de communauté rurale, population traditionnelle, agriculture familiale, conciliation ou contradiction entre préservation de l'environnement et développement durable.<br />Ce travail montre au travers d'une étude de cas illustrative la contradiction entre la protection de l'environnement et le développement durable, dans le sens de la permanence de la population locale. Les petits agriculteurs familiaux sont, dans cette situation, largement repoussés dans la clandestinité, qui devient un outil incontournable pour leur survie. On assiste à la normalisation de la clandestinité face à une polarisation du développement durable privilégiant presque exclusivement la protection de l'environnement. L'étude montre le divorce entre deux visions de la notion de développement durable : celle de la population locale qui pense la durabilité en terme de sa subsistance et celle des institutions faisant appliquer la législation donnant la priorité à la préservation environnementale.<br />RESUME COURT<br /><br />Cette thèse analyse le vécu quotidien des populations qui sont directement aux prises avec la question des contradictions constitutives de la notion de développement durable qui génèrent une tension entre «durabilité» environnementale et «durabilité» sociale. Une approche anthropologique - centrée sur les stratégies concrètes mises en œuvre par les petits agriculteurs familiaux de la région de Guaraqueçaba pour continuer à vivre et à garder l'espoir d'un avenir dans un contexte où ils ont le sentiment qu'on ne leur fait plus de place - met en évidence qu'ils sont, dans cette situation, largement repoussés dans la clandestinité, situation incontournable pour leur survie. L'étude montre le divorce entre deux visions de la notion de développement durable : celle de la population locale qui pense la durabilité en terme de sa subsistance et celle des institutions faisant appliquer la législation donnant la priorité à la préservation environnementale.
80

Réflexions autour de la vulnérabilité métropolitaine : la métropole parisienne face au risque de crue centennale.

Reghezza, Magali 05 December 2006 (has links) (PDF)
La métropole parisienne est exposée à un risque de crue centennale, considéré<br />par les gestionnaires comme le risque naturel principal pour l'agglomération. À<br />partir du scénario catastrophe envisagé par les pouvoirs publics, complété par<br />des entretiens auprès des acteurs concernés, cette étude cherche à dégager la<br />vulnérabilité spécifique à une métropole. Elle développe une démarche<br />synthétique, qui examine à la fois le potentiel d'endommagement et la capacité à<br />faire face de la société, et propose une nouvelle grille de lecture de la vulnérabilité.<br />Elle met en évidence l'impact de la dynamique spatiale métropolitaine sur le risque.<br />Enfin, une approche territoriale permet d'appréhender les difficultés propres à la<br />gestion du risque métropolitain et d'envisager des solutions plus adaptées. Au<br />total, ce travail met en exergue la dimension spatiale de la vulnérabilité et insiste<br />sur le concept d'"espace géographique" et de "territoire" comme clé de<br />compréhension du risque.

Page generated in 0.0401 seconds