• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 31
  • 23
  • 12
  • Tagged with
  • 67
  • 34
  • 33
  • 31
  • 31
  • 30
  • 28
  • 28
  • 17
  • 14
  • 11
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Écrire l'idée [Xie Yi] : entre l'écriture idéographique et l'écriture architecturale

Bāo, Chén 05 July 2012 (has links) (PDF)
Un bâtiment ne parle pas, mais il communique d'une autre manière des messages qui sont le reflet des idées des architectes. Si l'architecture est un langage, si elle est une " écriture d'idées ", alors comment rendre l'idée visible ? Comment peut-on, dans un sens métaphorique, faire parler un bâtiment ? Nous proposons alors une hypothèse analogique : " Si le bâtiment parlait alors il parlerait chinois ". Cette hypothèse oriente nos recherches vers l'étude des rapports entre langage architectural et langage naturel. À l'intérieur de ce champ interdisciplinaire, l'écriture graphique et idéographique chinoise devient notre objet référentiel. Les caractères chinois unifient la forme et le sens en même temps, ils proposent une figuration des idées fondée sur le système idéographique. De par sa logique combinatoire et ses procédés rhétoriques, le processus de figuration des caractères chinois est un processus de transformation de formes simples vers des formes complexes, passant de significations limitées à des significations riches. Ce processus de conception de caractères montre également une série de schèmes idéographiques qui pourrait constituer un système méthodologique de sémantisation pour la représentation architecturale. Ainsi, l'écriture idéographique et l'écriture architecturale, pris comme deux processus de figuration peuvent parallèlement se comparer, et l'écriture idéographique pourrait proposer un outil conceptuel pour l'écriture architecturale. Il s'agit d'examiner un nouveau modèle linguistique qui pourrait être utile pour la conception de l'architecture contemporaine.
12

Contributions à la conception d'architectures matérielles dédiées

Derrien, Steven 13 December 2011 (has links) (PDF)
Le thème de recherche abordé dans cette HDR porte sur la conception d'architectures matérielles spécialisées, et sur leur utilisation dans le domaine des systèmes embarqués (par exemple les réseaux de capteurs) et du calcul haute performance (bioinformatique, recherche dans les flux multimédias). Ce thème de recherche est développé sur trois axes interdépendants, brièvement décrits ci-dessous. Tout d'abord la conception de plateformes matérielles de type " systèmes de stockage intelligents " basées sur des technologies de logique programmable. L'objectif est de proposer des systèmes capables de traiter les données à la volée directement en sortie du support de stockage (disque magnétique, mémoire Flash), en utilisant des filtres mis en œuvre sous la forme de coprocesseurs spécialisés. Ce travail à donné lieu à la réalisation de deux prototypes de machines (RDISK et REMIX) ainsi qu'à leur validation sur plusieurs cas d'études. Ensuite, la conception d'accélérateurs matériels spécialisés et massivement parallèles, pour des applications de calcul intensif issues de la bioinformatique et du traitement de données multimédia. Nous nous sommes en particulier intéressés à des algorithmes de recherche de similarités entre séquences, basés sur la notion de profil de Markov (logiciel HMMER), ainsi qu'à des algorithmes de recherche d'images par le contenu. Enfin, les outils d'aide à la conception d'architectures spécialisées à partir de spécifications de haut niveau. Dans ce contexte, nous avons proposé un flot de conception complet pour la conception de nœuds de réseau de capteurs ultra faible consommation. Nous nous sommes également intéressés aux problèmes de génération automatique d'accélérateurs pour nids de boucles, notamment au travers d'un flot de transformation source à source de boucles ciblant en sortie des outils de synthèse de haut niveau " C to hardware ".
13

Modèle analytique de performance orienté débit d'évaluation de performance des accélérateurs programmables

Lai, Junjie 15 February 2013 (has links) (PDF)
L'ère du multi-cœur est arrivée. Les fournisseurs continuent d'ajouter des cœurs aux puces et avec davantage de cœurs, les consommateurs sont persuadés de transformer leurs ordinateurs en plateformes. Cependant, très peu d'applications sont optimisées pour les systèmes multi-cœurs. Il reste difficile de développer efficacement et de façon rentable des applications parallèles. Ces dernières années, de plus en plus de chercheurs dans le domaine de la HPS ont commencé à utiliser les GPU (Graphics Processing Unit, unité de traitement graphique) pour accélérer les applications parallèles. Une GPU est composée de nombreux cœurs plus petits et plus simples que les processeurs de CPU multi-cœurs des ordinateurs de bureau. Il n'est pas difficile d'adapter une application en série à une plateforme GPU. Bien que peu d'efforts soient nécessaires pour adapter de manière fonctionnelle les applications aux GPU, les programmeurs doivent encore passer beaucoup de temps à optimiser leurs applications pour de meilleures performances. Afin de mieux comprendre le résultat des performances et de mieux optimiser les applications de GPU, la communauté GPGPU travaille sur plusieurs thématiques intéressantes. Des modèles de performance analytique sont créés pour aider les développeurs à comprendre le résultat de performance et localiser le goulot d'étranglement. Certains outils de réglage automatique sont conçus pour transformer le modèle d'accès aux données, l'agencement du code, ou explorer automatiquement l'espace de conception. Quelques simulateurs pour applications de GPU sont également lancés. La difficulté évidente pour l'analyse de performance des applications de GPGPU réside dans le fait que l'architecture sous- jacente de la GPU est très peu documentée. La plupart des approches développées jusqu'à présent n'étant pas assez bonnes pour une optimisation efficace des applications du monde réel, et l'architecture des GPU évoluant très rapidement, la communauté a encore besoin de perfectionner les modèles et de développer de nouvelles approches qui permettront aux développeurs de mieux optimiser les applications de GPU. Dans ce travail de thèse, nous avons principalement travaillé sur deux aspects de l'analyse de performance des GPU. En premier lieu, nous avons étudié comment mieux estimer les performances des GPU à travers une approche analytique. Nous souhaitons élaborer une approche suffisamment simple pour être utilisée par les développeurs, et permettant de mieux visualiser les résultats de performance. En second lieu, nous tentons d'élaborer une approche permettant d'estimer la limite de performance supérieure d'une application dans certaines architectures de GPU, et d'orienter l'optimisation des performances.
14

La qualité des normes : étude des théories et de la pratique / The quality of laws

Shahrbabaki, Azadeh Abdollahzadeh 11 December 2017 (has links)
Dans le cadre du travail de recherche réalisé dans cette thèse, la réflexion porte sur les caractéristiques qualitatives des normes juridiques sous des dimensions à la fois théorique, pratique et comparée. L’intérêt majeur de ce travail est de s’interroger sur l’appréhension de la notion de qualité, qui intéresse beaucoup la doctrine, et est devenue une préoccupation croissante de nombreux systèmes juridiques alors même que les contours, et même le contenu, de la notion de qualité des normes restent flou. Le souci d’améliorer la qualité de la législation (au sens large du terme) répond à deux problèmes principaux dans la pratique et la théorie : sur le plan pratique, les défauts formels et substantiels de certaines normes les rendent inaptes à l’accomplissement de leur fonction principale, soit la régulation des relations sociales ; sur le plan théorique, l’exigence de bonne qualité des normes est une condition essentielle dans un état de droit qui permet aux citoyens de savoir à quoi s’attendre de leur gouvernement et à faire des investissements en conséquence (principes de prévisibilité et de sécurité juridique). En dehors de ces caractéristiques formelles ont été examinées les caractéristiques matérielles qui jouent un rôle important quant à l’acceptation des normes juridiques par les citoyens. La démarche adoptée dans le présent travail de recherche ne se limite pas à l’étude de l’élaboration d’une norme juridique, mais porte également sur l’exécution, l’interprétation et l’attitude des juges face aux normes. Toutefois, nous avons dépassé les études déjà réalisées, et nous avons examiné aussi la constitution et les actes administratifs / As part of the research work carried out in this thesis, reflection focuses on the qualitative characteristics of legal norms in terms of theoretical, practical and comparative dimensions. The main interest of this work is to question the apprehension of the notion of quality, which is of great interest to doctrine, and has become a growing preoccupation of many legal systems, even though, the contours, and even the content, the notion of quality standards remain unclear. The concern to improve the quality of legislation (in the broad sense of the term) addresses two main problems in practice and theory: in practice, the formal and substantive defects of certain norms render them unfit for the accomplishment of their main function,namely the regulation of social relations; on the theoretical level, the requirement of good quality of laws is an essential condition of the rule of law that allows citizens to know what to expect from their government and to make investments accordingly (principles of predictability and certainty). Apart from these formal characteristics were examined the material characteristics that play an important role in the acceptance of legal norms by the citizens. This implies the requirement of "rationality" and the "justice" in laws. The approach adopted in this research is not limited to the study of the development of a legal norm but also to the execution, interpretation and attitudes of judges in dealing with the legal norms. However, we have gone beyond the studies already carried out, and we have also examined the constitution and the administrative acts
15

La Convention de Vienne du 11 avril 1980 et la méthode conflictualiste / The Vienna Convention of April 11th 1980 and the conflict of law

Ngo Koy, Hermine Odette 17 July 2014 (has links)
L’élaboration d’un droit international à vocation mondiale n’est pas une entreprise aisée. Après l’échec des Conventions de la Haye de 1964, la Convention de Vienne du 11avril 1980 applicable à la vente internationale de marchandises érige un droit uniforme de la vente applicable à l’échelle mondiale et adapté aux besoins du commerce international. Œuvre de compromis, cette Convention apporte des améliorations aux lacunes des Conventions de la Haye dont elle s’inspire. Elle met en place un droit international de la vente basé sur la recherche du compromis, de la souplesse, de la clarté et de la justice contractuelle. Néanmoins, en dépit de ses améliorations, elle reste elle-même une œuvre lacunaire dont le succès est cependant indéniable. L’étude des rapports qu’elle entretient avec la méthode conflictualiste permet de comprendre les raisons de ce succès. Comportant des normes tout aussi bien issues de la pratique que des différentes traditions juridiques et économiques, notre étude met en lumière l’incomplétude de la CVIM et sa dépendance vis-à vis des règles du droit international privé. Elle met en relief la place de la règle de conflit de lois dans le comblement des lacunes tant internes qu’externes de la CVIM et apporte la confirmation qu’aucun droit international ne peut être effectif sans le concours des règles du droit international privé. Règles qui, sous la pression de la mondialisation et de la puissance de plus en plus croissante des pouvoirs privés économiques sont amenées à évoluer pour mieux correspondre aux besoins du commerce international. Il apparaît dans cette perspective que, le succès de la CVIM, loin d’être uniquement attribué à l’unification des règles matérielles qu’elle opère, est le fruit des évolutions de la méthode conflictualiste. Celles-ci passent par l’affaiblissement de la règle de conflit de droit commun à travers sa subordination à la volonté des parties et aux usages du commerce international. A cela s’ajoute la multiplication des conventions d’unification des règles de conflit à caractère substantiel, la règlementation des conflits de procédures, l’assouplissement des conditions de circulation des jugements étrangers et le développement d’un droit international privé communautaire. / On a world basis, the elaboration of an international law is not an easy task. After the failure of the HAGUE’s conventions on 1964, the Vienna’s Conventions of april 11th, 1980 applicable for the international sales of goods establishes a uniform law suitable for international sales and adapted to the needs of international trade. Born out of a compromise, this Convention brings out improvements to the lacunas within the Hague’s Conventions. The Conventions puts into place an international law of sales based on az quest for compromises, flexibility, clarity and contractual justice. Nevertheless, in spite of its improvements, it remains a lacuna’s work whose success is still undeniable. The study of reports undertaken with the conflicting methods allows us to understand the reasons of its success. Adapting of norms issued from practice as well as from legal and economic traditions, our study brings into light the incompleteness of the CISG and its dependence in regard to the private international laws. It demonstrate the place of the conflict of law in filling up the CISG’s internal and external lacunas and confirms that, no international law can be effective without the assistance of the private laws. Rules, that under the pressure of globalization and the increasing powers of the parties of international trade are brought to evolve to correspond better to the needs of international trade. It so appear that, the success of the CISG, far from solely attributed to its unification of material rules is the result of the evolution of the conflict of law. It passes through the weakening of the common conflict rule through its subordination to the will of parties and the use of international trade. One can add the multiplication of substantial’s conflict law, the regulation of procedure’s conflict, the softening of the recognition conditions of foreign judgments, and the development of communal international private law.
16

Les objets du quotidien : une négociation mémorielle : approche psychosociale de l’articulation des traces mémorielles et matérielles dans la transmission de l’expérience d’une inondation / Everyday objects : a memory negotiation : a psychosocial approach to the articulation of memory and material traces in the transmission of the experience of a flood

Levasseur, Elodie 24 September 2014 (has links)
Cette thèse interroge la transmission de l’expérience de l’inondation en rapport avec les contextes, situations et supports à partir desquels les souvenirs prennent forme et perdurent potentiellement. Sont questionnés plus spécifiquement les rôles des objets du quotidien et des artefacts mémoriels dans la construction et à la transmission de l’expérience de l’inondation. Pour répondre à cet objectif, cette thèse s’inscrit dans un champ conceptuel en psychologie sociale qui étudie la pensée sociale en contexte. Cette approche permet d’étudier l’élaboration des connaissances et leur transmission en étroite relation avec les contextes sociaux, temporels et spatiaux. Ce développement théorique permet de concevoir une approche dynamique et contextualisée des processus mémoriels. La théorie des représentations sociales est mobilisée puisqu’elle investigue la familiarisation comme un processus se réalisant en fonction des catégories signifiantes propres à la culture et à la mémoire des groupes. Afin de saisir l’objet de recherche à travers différents prismes et de confronter plusieurs points de vue sur l’expérience de l’inondation, deux méthodes sont utilisées. La combinaison d’entretiens de recherche avec des personnes ayant vécu une ou plusieurs inondations et d’une analyse de presse via la méthode Alceste, permet l’examen des savoirs mobilisés dans la représentation et dans la transmission de l’inondation, en tant qu’objet social et/ou expérience vécue. L’analyse des résultats montre que les objets sont les instruments d’une négociation de l’expérience, entre mémoire et oubli. Les artefacts mémoriels présents dans l’espace social résultent de cette négociation. Ils rappellent un événement tout en lui donnant une forme précise, contrôlée. L’événement est transformé que ce soit dans son récit ou dans son inscription spatiale pour revêtir une forme acceptable et conventionnelle. Ces objets peuvent soutenir la mémoire de l’événement et être au service de l’oubli des expériences. Tandis que cette objectivation graphique lisse la pluralité des expériences, les objets du quotidien offrent un interstice malléable entre l’oubli et la mémoire, un espace de négociation mémorielle. Ils servent de support à la narration tout autant qu’ils livrent une certaine représentation de l’événement. Leur sélection, sous-tendant des comparaisons ou des différenciations avec d’autres expériences d’inondation, permet de transmettre l’expérience vécue comme ancrée dans et selon des catégories existantes, tout en maintenant la singularité du vécu. Cette forme de transmission, articulant traces mémorielles et traces matérielles lors de la transmission d’une expérience correspond à un schéma admis et existant dans le contexte social et culturel. / This thesis investigates the transmission of flood experience in relation to the contexts, situations and entities based on which memories take shape and potentially persist. The role of everyday objects and memory artifacts in the construction and transmission of flood experience are specifically investigated. To meet this purpose, the present work falls within the conceptual field of social psychology, studying social thinking in context. This approach enables the study of the development of knowledge and its transmission in relation to social, temporal and spatial contexts. This theoretical development implements a dynamic and contextual approach to the study of memory process. Social representation theory is fundamental to this work because it investigates familiarization as a process based on creating significant categories depending on the culture and collective memory of the group. Two methods are used to capture different aspects of the object of research and compare multiple perspectives on flood experience. The combination of the research interviews of people who have experienced one or more floods and media analysis - using ALCESTE - allows the analysis of the knowledge used in the representation and transmission of the flood as a social object and/or an experience. The results show that objects are tools of the negotiation of the experience, between forgetfulness and memory. The memory artifacts in the social space are the result of this negotiation. They recall an event giving it a precise and controlled shape. The event is thus transformed into a story and its spatial inscription to have an acceptable and conventional form. These objects can support the memory of the event and serve the forgetfulness of experiences. While graphic objectivation attenuates the plurality of experiences, everyday objects provide a malleable gap between forgetfulness and memory, a space for memory negotiation. They serve as a support for the narration and, at the same time, offer a specific representation of the event. Their selection, underlying the comparison and differentiation with regards to other flood experiences, allows the transmission of past experience as if it was grounded into, and depending on, existing categories, maintaining at the same time the singularity of the experience. This way of transmission, linking together material and memory traces during the transmission of an experience, corresponds to an accepted and existing pattern well spread into the actual social and cultural context.
17

Vers une nouvelle génération de systèmes de test et de simulation avionique dynamiquement reconfigurables

Afonso, George 02 July 2013 (has links) (PDF)
L'objectif de cette thèse est la proposition de nouvelles solutions dans le domaine des systèmes de test et de simulation avioniques et ce, à plusieurs niveaux. Dans un premier temps, nous avons proposé un modèle d'exécution dynamique permettant d'unifier les métiers du test et de la simulation, de répondre aux contraintes imposées, d'apporter de nouvelles possibilités et ainsi d'accélérer le cycle de développement des futurs équipements embarqués. Ensuite, un support matériel basé sur une architecture hétérogène CPU-FPGA a été défini afin de répondre à la problématique proposée et aux contraintes imposées par le domaine d'application telles que le respect du temps-réel et la capacité de reconfiguration dynamique hétérogène. A ce support matériel, est venue s'ajouter une méthodologie de développement permettant une meilleure prise en charge du code "legacy" de l'industriel. Enfin, un environnement unifié temps réel mou pour le test et la simulation avionique a été mis en avant, permettant de diminuer les coûts liés à la maîtrise et à la maintenance d'un nouvel environnement. Finalement, une étude de cas a permis de mettre en avant les capacités de reconfiguration dynamique et les performances de l'environnement développé.
18

L'architecture du discours, du caractère au type : Quatremère de Quincy et l'inversion des valeurs de l'architecte à la fin de l'âge classique

Salom, Kerim 28 January 2014 (has links) (PDF)
L'étude examine les rapports entre théorie de l'architecture et réflexions sur l'art à la fin de l'âge classique. À travers l'analyse du discours sur l'architecture, en considérant l'architecte comme un auteur, la recherche envisage la question de l'expressivité de l'objet architectural. Elle porte sur l'esthétique des architectes, en tant que théorie de la sensation du beau. Deux mots sont ainsi étudiés dans leur discours : caractère et type. Deux concepts qui résument à eux seuls deux théories de l'art antagonistes, car ils renvoient à deux visions du monde distinctes : celui de Blondel, Boullée et Ledoux, qui se tient au plus près de la nature, et celui de Quatremère de Quincy, qui est déjà rentré dans l'Histoire. L'enquête s'arrête sur son rôle déterminant dans le paysage artistique de la France du 19ème siècle, et sur son application à y introduire une théorie de l'art idéaliste empruntée à la critique d'art allemande et écossaise. En forgeant le concept de type, Quatremère de Quincy a contribué à renverser durablement les valeurs des architectes, jusqu'au 20ème siècle, en imposant une conception universaliste et abstraite contre une appréhension empirique de la réalité, une représentation de l'imagination contre une réflexion par l'entendement discursif, une imitation idéale contre l'antique principe d'imitation de la nature. Le concept de type idéal a été forgé à l'appui des écrits des philosophes, des naturalistes et des philologues, qui eurent de tout temps une forte influence sur les théories artistiques. Aussi, l'étude se propose d'inscrire le discours de l'architecte dans un champ épistémologique plus général pour confronter sa parole à celles de ces savants et penseurs. À travers l'analyse comparée des notions d'imitation, de jugement de goût et de style, thèmes centraux des théories sur l'architecture, l'étude questionne la place de l'histoire dans le processus conceptuel, ainsi que le rôle de la mémoire et de l'habitude au moment de la réception de l'œuvre
19

On the Resistance of RSA Countermeasures at Algorithmic, Arithmetic and Hardware Levels Against Chosen-Message, Correlation and Single-Execution Side-Channel Attacks / Sur la résistance de contre-mesures RSA aux niveaux algorithmique, l'arithmétique et de matériel contre les attaques par canaux cachées par message choisi, de corrélation et de simple exécution

Perin, Guilherme 28 May 2014 (has links)
De nos jours, les concepteurs de dispositifs cryptographiques doivent non seulement mettre en œuvre des algorithmes robustes, mais ils doivent également s'assurer qu'il n'y ait pas de fuites d'informations à travers plusieurs canaux latéraux lors de l'exécution d'un algorithme. En effet, si ce n'est pas le cas, les implémentations cryptographiques, tant symétriques qu'asymétriques, seront vulnérables aux attaques par canaux auxiliaires. Pour les algorithmes à clé publique tels que le RSA, l'opération principale que doit être rendue robuste est l'exponentiation modulaire sur un anneau fini. Les principales solutions (contremesures) permettant de rendre robuste l'exponentiation modulaire à ces attaques par canaux auxiliaires sont basées sur la randomisation des données traitées. La randomisation de l'exposant et celle des messages sont en effet des techniques particulièrement efficaces pour contrecarrer les attaques par collision et par analyse des corrélations verticales. Toutefois, ces solutions éculées montrent leurs limites par rapport aux attaques dites horizontales qui n'exploitent qu'une exponentiation. Dans ce contexte, ce document relate le travail de conception, tant matériel que logiciel, d'un chiffreur RSA basé sur les systèmes modulaires de représentation des nombres (RNS). Ce chiffreur incorpore différentes contremesures définies à divers niveaux d'abstraction. L'évaluation de sa robustesse aux attaques par canaux cachés tant horizontales que verticales a démontré sa pertinence. / Not only designers of cryptographic devices have to implement the algorithmsefficiently, they also have to ensure that sensible information that leaks throughseveral side-channels (time, temperature, power consumption, electromagneticemanations, etc.) during the execution of an algorithm, remains unexploitedby an attacker. If not sufficiently protected, both symmetric and asymmetriccryptographic implementations are vulnerable to these so-called side-channelattacks (SCA). For public-key algorithms such as RSA, the main operation to bearmoured consists of a multi-digit exponentiation over a finite ring.Countermeasures to defeat most of side-channel attacks onexponentiations are based on randomization of processed data. The exponentand the message blinding are particular techniques to thwartsimple, collisions, differential and correlation analyses. Attacks based ona single (trace) execution of exponentiations, like horizontal correlationanalysis and profiled template attacks, have shown to be efficient againstmost of popular countermeasures.This work proposes a hardware and software implementations of RSA based on Residue Number System (RNS). Different countermeasures are implemented on different abstraction levels. Then, chosen-message and correlation attacks, based on both multi-trace and single-trace attacks are applied to evaluate the robustness of adopted countermeasures. Finally, we propose an improved single-execution attack based on unsupervised learning and multi-resolution analysis using the wavelet transform.
20

Partitionnement des services de communication en vue de la génération automatique des interfaces logicielles/matérielles

Paviot, Y. 01 July 2004 (has links) (PDF)
Les technologies actuelles permettent l'intégration de systèmes de plus en plus complexes sur une seule puce. L'augmentation de la complexité induit un accroissement du temps de conception alors que paradoxalement, le concurrence économique impose des temps de mise sur le marché de plus en plus courts. Pour tenter de limiter ce décalage et d'accroître la productivité, l'industrie fait de plus en plus appel à la réutilisation de composants logiciels et matériels pour concevoir leurs systèmes.<br />L'un des problèmes de ce type de conception est celui de la réalisation de la communication entre composants. Cette thèse traite de la communication entre processeurs réalisée par des interfaces mixtes logicielles/matérielles. Leur difficulté de conception et l'impact du choix de partitionnement entre parties logicielles et matérielles nécessitent le développement de méthodes de génération automatique d'interfaces logicielles/matérielles pour l'exploration du partitionnement des services de communication.<br />La contribution de cette thèse consiste en une formalisation des problèmes liés à l'implémentation mixte logicielle/matérielle des services de communication et une proposition de flot pour la génération automatique d'interfaces. Des expériences de réalisations de primitives MPI ont permis d'appréhender le problème et de proposer un flot de génération automatique.

Page generated in 0.0618 seconds