Spelling suggestions: "subject:"cohérence"" "subject:"cohérences""
81 |
Représentation dynamique de la liste des copies pour le passage à l'échelle des protocoles de cohérence de cache / Dynamic sharing set for scalable cache coherence protocolsDumas, Julie 13 December 2017 (has links)
Le problème du passage à l’échelle des protocoles de cohérence de cache qui se pose pour les machines parallèles se pose maintenant aussi sur puce, suite à l’émergence des architectures manycores. Il existe fondamentalement deux classes de protocoles : ceux basés sur l’espionnage et ceux utilisant un répertoire. Les protocoles basés sur l’espionnage, qui doivent transmettre à tous les caches les informations de cohérence, engendrent un nombre important de messages dont peu sont effectivement utiles. En revanche, les protocoles avec répertoires visent à n’envoyer des messages qu’aux caches qui en ont besoin. L’implémentation la plus évidente utilise un champ de bits complet dont la taille dépend uniquement du nombre de cœurs. Ce champ de bits représente la liste des copies. Pour passer à l’échelle, un protocole de cohérence doit émettre un nombre raisonnable de messages de cohérence et limiter le matériel utilisé pour la cohérence et en particulier pour la liste des copies. Afin d’évaluer et de comparer les différents protocoles et leurs représentations de la liste des copies, nous proposons tout d’abord une méthode de simulation basée sur l’injection de traces dans un modèle de cache à haut niveau. Cette méthode permet d’effectuer rapidement l’exploration architecturale des protocoles de cohérence de cache. Dans un second temps, nous proposons une nouvelle représentation dynamique de la liste des copies pour le passage à l’échelle des protocoles de cohérence de cache. Pour une architecture à 64 cœurs, 93% des lignes de cache sont partagées par au maximum 8 cœurs, sachant par ailleurs que le système d’exploitation chercher à placer les tâches communicantes proches les unes des autres. Notre représentation dynamique de la liste des copies tire parti de ces deux observations en utilisant un champ de bits pour un sous-ensemble des copies et une liste chaînée. Le champ de bits correspond à un rectangle à l’intérieur duquel la représentation de la liste des copies est exacte. La position et la forme de ce rectangle évoluent au cours de la durée de vie des applications. Plusieurs algorithmes pour le placement du rectangle cohérent sont proposés et évalués. Pour finir, nous effectuons une comparaison avec les représentations de la liste des copies de l’état de l’art. / Cache coherence protocol scalability problem for parallel architecture is also a problem for on chip architecture, following the emergence of manycores architectures. There are two protocol classes : snooping and directory-based.Protocols based on snooping, which send coherence information to all caches, generate a lot of messages whose few are useful.On the other hand, directory-based protocols send messages only to caches which need them. The most obvious implementation uses a full bit vector whose size depends only on the number of cores. This bit vector represents the sharing set. To scale, a coherence protocol must produce a reasonable number of messages and limit hardware ressources used by the coherence and in particular for the sharing set.To evaluate and compare protocols and their sharing set, we first propose a method based on trace injection in a high-level cache model. This method enables a very fast architectural exploration of cache coherence protocols.We also propose a new dynamic sharing set for cache coherence protocols, which is scalable. With 64 cores, 93% of cache blocks are shared by up to 8 cores.Futhermore, knowing that the operating system looks to place communicating tasks close to each other. Our dynamic sharing set takes advantage from these two observations by using a bit vector for a subset of copies and a linked list. The bit vector corresponds to a rectangle which stores the exact sharing set. The position and shape of this rectangle evolve over application's lifetime. Several algorithms for coherent rectangle placement are proposed and evaluated. Finally, we make a comparison with sharing sets from the state of the art.
|
82 |
Contribution a l'etude du pilotage de la modelisation des systemes d'informationAlvares, Luis Otavio Campos January 1988 (has links)
Ce travail se situe dans le cadre des outils de modélisation des systèmes d'information (SI) en informatique de gestion. La complexité croissante des logiciels d'application oblige en effet à créer de nouveaux outils de développement. La realisation d'outils de pilotage de la modélisation est rendue difficile à cause des définitions imprécises des méthodes de modélisation utilisées. Notre étude consiste à proposer une représentation formelle complète de ces méthodes dans le but de constituer une base de connaissances d'un système expert pour diriger des modélisations. Une architecture fonctionnelle d'un tel système de pilotage est proposé et expérimentée. Cette architecture intègre un sous-système de configuration pour permettre la définition précise dune méthode personnalisée. La description d'une méthode par des regroupements d'expressions formelles utilisées pour verifier la conformite des specifications vis a vis de cette méthode assure la cohérence entre la définition et la vérification.
|
83 |
Raisonnement à partir d'informations structurées et hiérarchisées : application à l'information archéologique / Reasoning from structured and hierarchized information : application to archeological informationSerayet, Mariette 06 May 2010 (has links)
La thèse s'inscrit dans le cadre du projet européen VENUS. Dans ce contexte, la photogrammétrie est utilisée pour produire des relevés 3D sur les objets. La connaissance sur ces objets provient à la fois de l'archéologie sous-marine et de la photogrammétrie. Les informations étant structurées, hiérarchisées et parfois incomparables, nous nous sommes intéressés aux bases de croyance partiellement préordonnées. Par ailleurs, l'acquisition des données peut conduire à l'apparition d'incohérence. Nous avons étendu l'approche des R-ensembles à la restauration de la cohérence. Nous avons également proposé un cadre de travail pour la révision de bases de croyance partiellement préordonnées et deux relations d'inférence lexicograhique. nous avons fourni pour ces approches une mise en oeuvre en utilisant la programmation logique avec ASP. Finalement, nous avons implanté notre méthode de restauration de la cohérence dans le contexte de VENUS et nous l'avons testé sur les relevés issus du projet. / This PHD has been performed within the European VENUS project. In this context, photogrammetry is used to produced 3D survey on objects and the knowledge on studied artefacts comes from both underwater archaeology and photogrammetry. This information being structured, hierachized and sometimes incomparable, we focused on partially preordered belief bases. Data acquisition possibly leads to inconsistency. We extended the Removed Set approach to inconsistency handling. To compare subsets of formulae to remove in order to restore consistency, we introduced the lexicographic comparator. Moreover, we proposed a new framework for the revision of partially preordered belief bases and two lexicographic inference relations. We proposed an implementation stemming from ASP. Finally, we implemented our inconsistency handling method in the VENUS context and we provided an experimental study on 3D surveys of the project.
|
84 |
Contribution a l'etude du pilotage de la modelisation des systemes d'informationAlvares, Luis Otavio Campos January 1988 (has links)
Ce travail se situe dans le cadre des outils de modélisation des systèmes d'information (SI) en informatique de gestion. La complexité croissante des logiciels d'application oblige en effet à créer de nouveaux outils de développement. La realisation d'outils de pilotage de la modélisation est rendue difficile à cause des définitions imprécises des méthodes de modélisation utilisées. Notre étude consiste à proposer une représentation formelle complète de ces méthodes dans le but de constituer une base de connaissances d'un système expert pour diriger des modélisations. Une architecture fonctionnelle d'un tel système de pilotage est proposé et expérimentée. Cette architecture intègre un sous-système de configuration pour permettre la définition précise dune méthode personnalisée. La description d'une méthode par des regroupements d'expressions formelles utilisées pour verifier la conformite des specifications vis a vis de cette méthode assure la cohérence entre la définition et la vérification.
|
85 |
Contribution a l'etude du pilotage de la modelisation des systemes d'informationAlvares, Luis Otavio Campos January 1988 (has links)
Ce travail se situe dans le cadre des outils de modélisation des systèmes d'information (SI) en informatique de gestion. La complexité croissante des logiciels d'application oblige en effet à créer de nouveaux outils de développement. La realisation d'outils de pilotage de la modélisation est rendue difficile à cause des définitions imprécises des méthodes de modélisation utilisées. Notre étude consiste à proposer une représentation formelle complète de ces méthodes dans le but de constituer une base de connaissances d'un système expert pour diriger des modélisations. Une architecture fonctionnelle d'un tel système de pilotage est proposé et expérimentée. Cette architecture intègre un sous-système de configuration pour permettre la définition précise dune méthode personnalisée. La description d'une méthode par des regroupements d'expressions formelles utilisées pour verifier la conformite des specifications vis a vis de cette méthode assure la cohérence entre la définition et la vérification.
|
86 |
Optique quantique électronique / Electronic quantum opticsGrenier, Charles 30 June 2011 (has links)
Les progrès des techniques de nanofabrication des dix dernières années ont permis la mise en place de protocoles visant à manipuler les charges uniques dans les nanostructures. Ces nouvelles techniques permettent d'envisager la réalisation d'expériences d'optique quantique avec des électrons. Cette thèse s'inscrit dans ce contexte. Le but de ce travail a été la construction d'un formalisme adapté à la description de telles expériences. Ce formalisme, construit en analogie avec la théorie de la cohérence quantique du champ électromagnétique de Glauber, souligne les similitudes et différences entre les photons se propageant dans le vide, et le transport électronique dans des conducteurs balistiques unidimensionnels. En particulier, il rend compte de la décohérence et de la relaxation en énergie des excitations électroniques en présence d'interactions. Un autre aspect de cette thèse a été la proposition de protocoles permettant de mesurer des quantités directement reliées aux propriétés de cohérence décrites par le formalisme de l'optique quantique électronique. En particulier, un protocole de tomographie quantique reposant sur l'effet Hanbury Brown et Twiss a été proposé pour reconstruire la cohérence à un corps d'une source monoélectronique. Ce protocole peut aussi être envisagé pour obtenir des informations sur les mécanismes de décohérence. / The last ten years saw tremendous progress in nanofabrication techniques. These progresses allowed the realization of experimental protocols aiming at the manipulation of single electrons in nanostructures. Thus, the advent of these technologies permit to envision the realization of electronic analogues of quantum optics experiments. This thesis is devoted to the theoretical study of quantum optics with electrons propagating in quantum Hall edge channels, in analogy with Glauber's theory for the quantum coherence of the electromagnetic field. The proposed formalism underlines the analogies and differences between photons propagating in the vacuum and electrons in ballistic conductors. In particular, it takes into account the decoherence and relaxation of electronic excitations under the influence of a linear electromagnetic environment. All along this thesis, efforts have been made to propose protocols aiming at accessing experimental quantities related to the coherence properties described by the electron quantum optics formalism. A particular example is a single electron quantum tomography protocol which reconstructs the single particle coherence from current noise measurements. This protocol can also be envisioned to probe decoherence mechanisms.
|
87 |
La Weltanschauung thomasienne : une tentative de réévaluation / Aquinas’ Weltanschauung : A ReappraisalLaporte, Pierre-Aymeric 30 January 2015 (has links)
Extraite du milieu naturel dans lequel elle se déploie, la pensée de Thomas d’Aquin a été souvent déformée. Persuadé que le Réel –et, en particulier le Réel par excellence qu’est Dieu– n’est qu’imparfaitement embrassé par l’esprit humain, l’Aquinate multiplie les perspectives et les types de discours. La dialectique et la rhétorique s’adjoignent au discours proprement scientifique pour en combler les lacunes et tenter une impossible, sinon difficile synthèse entre les quatre sources auxquelles s’alimente sa pensée, à savoir: le muthos de la foi, le logos la philosophia perennis et les perceptions du sens commun. Confronté à la complexité du Réel et à des objets de foi qui s’écartent des normes du logos, l’utilisation de ce triplex modus dicurrendi s’avère une nécessité spéculative pour accumuler le plus possible de certitudes sur des objets qui se dérobent pour partie à la saisie d’un esprit fini. Rien d’étonnant à ce que l’Ousia, l’Unitas, la Forma et le schème néoplatonicien monè-proodos-epistrophè occupent une place tout aussi importante dans la synthèse thomasienne que la notion-clé d’Esse. / The thought of Thomas Aquinas is often misinterpreted. Its complexity, especially the plurality of modes of discourse, is neglected by the commentators. This plurality permits to resolve, although imperfectly, the tensions between the muthos of faith, the logos, the philosophy and the common sense. Thomas also uses a plurality of key concepts in the domain of metaphysics. Thus, he describes better the complexity of the Real. Ousia, Forma, Unitas and Neoplatonic’s scheme monè-proodos-epistrophè are structural notions as important as Esse in the Aquinas’ synthesis. The scientific discourse doesn’t exclude the others, but imperfect, modalities that are dialectic and rhetoric. It’s a requirement of the science itself. For Reality comprehends under its extension the particulars and paradoxical objects of faith.
|
88 |
Etude et modélisation des effets d'incursion à très haute température sur le comportement mécanique d'un superalliage monocristallin pour aubes de turbine / Experimental analysis and modeling of the effects of high temperature incursions on the mechanical behavior of a single crystal superalloy for turbines bladesLe Graverend, Jean-Briac 13 February 2013 (has links)
Ce travail s'inscrit dans le contexte de la modélisation et de la prévision de la durée de vie des aubes de turbine haute pression des turbines à gaz. Ces pièces sont réalisées en superalliage monocristallin base nickel tel que le MC2, matériau principal de l'étude. En service, ces dernières sont soumises à des conditions extrêmes de température et de contrainte. Des régimes d'urgence, dits O.E.I. (.One Engine Inoperative.), peuvent aussi survenir sur un hélicoptère bi-moteur : un des deux moteurs s'arrête ce qui provoque une augmentation de la température en sortie de chambre de combustion pour le moteur restant en fonctionnement. Dans le cadre de ce travail, le comportement anisotherme en fluage et en fatigue/fluage du superalliage monocristallin a été étudié afin de déterminer les répercussions des surchauffes à 1200. sur le comportement mécanique ultérieur à 1050. Il a pu être déterminé que le temps de pré-endommagement avant la surchauffe joue un rôle capital vis-à-vis de la durée de vie post-surchauffe. Cette influence est très dépendante de l'état microstructural du matériau sur lequel est réalisée la surchauffe (morphologie des précipités γ ', contraintes de cohérence entre les phases γ et γ '). Du point de vue des mécanismes d'endommagement, il a aussi été constaté que le niveau de température a une importance majeure en modifiant les contraintes de cohérence entre les deux phases γ et γ '. L'état microstructural jouant un rôle majeur sur la durée de vie lors des essais isothermes et anisothermes, une étude de l'évolution de la microstructure γ /γ' autour des particules de phase intermétallique μ a été faite, ainsi qu'une mesure expérimentale de l'évolution de la porosité, mesurée par des analyses tomographiques grâce à des essais de fluage multi-interrompus à haute température. Ceci a permis d'aboutir à un paramètre de dommage, à la frontière entre métallurgie et mécanique, prenant en compte les évolutions microstructurales. La coalescence orientée se déroulant à haute température, connue sous le nom de mise en radeaux, a une forte influence sur le comportement et l'endommagement des superalliages monocristallins. Ainsi, un nouveau modèle de mise en radeaux, prenant en compte la vitesse de sollicitation, a été implémenté dans le modèle de plasticité cristalline couplé comportement/endommagement Polystar. Ceci a permis d'améliorer la modélisation des essais longs. D'autres modifications ont été effectuées afin d'améliorer la modélisation lors des essais cycliques et de relaxation. Ce nouveau modèle a été testé et validé sur une éprouvette bi-entaillée générant des champs mécaniques multiaxiaux pendant un essai de fluage complexe anisotherme / This work is in the context of modeling and predicting the life of high pressure turbine blades of gas turbines. These components are made of nickel base single crystal superalloy such as the studied material MC2. Under operating conditions, they can be submitted to extreme stress and temperature conditions such as O.E.I. (.One Engine Inoperative.) which can also occur on a twin-engine helicopter : one engine stops which causes an increase in the outlet temperature of the combustion chamber for the remaining engine. In this work, the non-isothermal creep and creep/fatigue behaviors of single crystal superalloy have been studied to determine the impact of overheating at 1200. on the subsequent mechanical behavior at 1050 .. It has been determined that the prior thermomechanical degradation before an overheating plays an important role on the remaining life fraction. This influence is very dependent on the microstructural state of the material on which is performed the overheating (precipitate morphology of γ', coherency stress between the γ and γ' phases). From the damagemechanisms point of view, it was also found that the temperature level has a major importance in changing the coherency stresses between these two phases. The microstructural state plays a major role on the isothermal and non-isothermal life. Thus, the evolutions of the /' microstructure around the intermetallic μ phase particles have been studied as the porosity (determined by tomographic analysis through multi-interrupted creep tests at high temperature) which has led to a damage parameter taking into account microstructural evolutions and at the borderline between metallurgy and mechanics. Since the γ' directional coarsening is known to have an impact on the mechanical behavior at high temperature, a new model taking into account the γ' rafting has been designed. It takes into account the strain rate sensitivity of the γ' rafting and it was implemented in the coupled behavior/damage model of crystal plasticity named Polystar model. This has improved the modeling of long tests. Other changes were made to improve the cyclic and relaxation behaviors. This new model has been tested and validated on a notched specimen generating multiaxial mechanical fields during a non-isothermal complex creep test.
|
89 |
Modèles et protocoles de cohérence de données, décision et optimisation à la compilation pour des architectures massivement parallèles. / Data Consistency Models and Protocols, Decision and Optimization at Compile Time for Massively Parallel ArchitecturesDahmani, Safae 14 December 2015 (has links)
Le développement des systèmes massivement parallèles de type manycores permet d'obtenir une très grande puissance de calcul à bas coût énergétique. Cependant, l'exploitation des performances de ces architectures dépend de l'efficacité de programmation des applications. Parmi les différents paradigmes de programmation existants, celui à mémoire partagée est caractérisé par une approche intuitive dans laquelle tous les acteurs disposent d'un accès à un espace d'adressage global. Ce modèle repose sur l'efficacité du système à gérer les accès aux données partagées. Le système définit les règles de gestion des synchronisations et de stockage de données qui sont prises en charge par les protocoles de cohérence. Dans le cadre de cette thèse nous avons montré qu'il n'y a pas un unique protocole adapté aux différents contextes d'application et d'exécution. Nous considérons que le choix d'un protocole adapté doit prendre en compte les caractéristiques de l'application ainsi que des objectifs donnés pour une exécution. Nous nous intéressons dans ces travaux de thèse au choix des protocoles de cohérence en vue d'améliorer les performances du système. Nous proposons une plate-forme de compilation pour le choix et le paramétrage d'une combinaison de protocoles de cohérence pour une même application. Cette plate- forme est constituée de plusieurs briques. La principale brique développée dans cette thèse offre un moteur d'optimisation pour la configuration des protocoles de cohérence. Le moteur d'optimisation, inspiré d'une approche évolutionniste multi-objectifs (i.e. Fast Pareto Genetic Algorithm), permet d'instancier les protocoles de cohérence affectés à une application. L'avantage de cette technique est un coût de configuration faible permettant d'adopter une granularité très fine de gestion de la cohérence, qui peut aller jusqu'à associer un protocole par accès. La prise de décision sur les protocoles adaptés à une application est orientée par le mode de performance choisi par l'utilisateur (par exemple, l'économie d'énergie). Le modèle de décision proposé est basé sur la caractérisation des accès aux données partagées selon différentes métriques (par exemple: la fréquence d'accès, les motifs d'accès à la mémoire, etc). Les travaux de thèse traitent également des techniques de gestion de données dans la mémoire sur puce. Nous proposons deux protocoles basés sur le principe de coopération entre les caches répartis du système: Un protocole de glissement des données ainsi qu'un protocole inspiré du modèle physique du masse-ressort. / Manycores architectures consist of hundreds to thousands of embedded cores, distributed memories and a dedicated network on a single chip. In this context, and because of the scale of the processor, providing a shared memory system has to rely on efficient hardware and software mechanisms and data consistency protocols. Numerous works explored consistency mechanisms designed for highly parallel architectures. They lead to the conclusion that there won't exist one protocol that fits to all applications and hardware contexts. In order to deal with consistency issues for this kind of architectures, we propose in this work a multi-protocol compilation toolchain, in which shared data of the application can be managed by different protocols. Protocols are chosen and configured at compile time, following the application behaviour and the targeted architecture specifications. The application behaviour is characterized with a static analysis process that helps to guide the protocols assignment to each data access. The platform offers a protocol library where each protocol is characterized by one or more parameters. The range of possible values of each parameter depends on some constraints mainly related to the targeted platform. The protocols configuration relies on a genetic-based engine that allows to instantiate each protocol with appropriate parameters values according to multiple performance objectives. In order to evaluate the quality of each proposed solution, we use different evaluation models. We first use a traffic analytical model which gives some NoC communication statistics but no timing information. Therefore, we propose two cycle- based evaluation models that provide more accurate performance metrics while taking into account contention effect due to the consistency protocols communications.We also propose a cooperative cache consistency protocol improving the cache miss rate by sliding data to less stressed neighbours. An extension of this protocol is proposed in order to dynamically define the sliding radius assigned to each data migration. This extension is based on the mass-spring physical model. Experimental validation of different contributions uses the sliding based protocols versus a four-state directory-based protocol.
|
90 |
Manipulation optique de condensats de polaritons dans des microstructures semiconductrices / Optical manipulation of polariton condensates in semiconductor microstructuresMarsault, Félix 16 December 2016 (has links)
Ce travail de thèse porte sur l’étude expérimentale des polaritons de microcavité dans des microstructures de semiconducteurs III-V. Il présente un volet fondamental sur les propriétés de cohérence et de polarisation des lasers à polaritons, et un volet plus applicatif dédié à la démonstration de principe de nouveaux dispositifs tout optique à polaritons.Dans la première partie, nous utilisons une caméra streak en mode « single shot » pour mesurer des corrélations de photons du second ordre avec une résolution à la picoseconde. Cette technique nous permet de mesurer la statistique d’émission de lasers à polaritons. Nous analysons ainsi la dynamique à l’échelle picoseconde de l’établissement de la cohérence spontanée et de la polarisation du mode, à l’allumage du laser. Nous mettons en évidence une initialisation stochastique de la polarisation, suivie d’une précession autour d’un champ magnétique effectif présent dans la cavité. Le rôle de la dimensionnalité de la cavité est discuté, et un modèle théorique permet une meilleure compréhension de ces mesures. La deuxième partie est dédiée à la réalisation de dispositifs à polaritons, dont le contrôle est tout optique. Ces dispositifs sont essentiellement constitués d’un résonateur 0D couplés à des guides 1D d’entrée et de sortie. Nous démontrons le fonctionnement d’un « router » à polaritons, et observons une bistabilité optique du résonateur 0D pilotée à distance. Ce dernier effet est l’ingrédient de base d’une mémoire optique, et nous montrons des résultats préliminaires concernant l’implémentation de portes logiques tout optiques AND, OR et XOR. / This PhD thesis is dedicated to the experimental study of microcavity polaritons in III-V semiconductor microstructures. It consists in a fundamental part focusing on the coherence and polarization properties of polariton lasers, and in a more applied second part which concerns the proof of principle of new all-optical polariton devices.In the first part, we use a streak camera in the single shot regime to measure second order photon correlations with a picosecond resolution. This technique allows measuring the emission statistics of polariton lasers and analyzing at the picosecond scale the dynamics of the establishment of the spontaneous coherence and polarization of the mode during the laser initialization. We show a stochastic initialization of the polarization followed by a precession around an effective magnetic field inside the cavity. The influence of the system dimension is discussed and a theoretical model allows us to better understand these measurements. The second part is dedicated to the realization of polariton devices with an all-optical control. These devices are constituted of a 0D resonator coupled to 1D input and output waveguides. We demonstrate the operation of a polariton router and a remotely controlled optical bistability. This last effect is the core ingredient of an optical memory and we show preliminary results on the implementation of all-optical AND, OR and XOR logic gates.
|
Page generated in 0.0312 seconds