Spelling suggestions: "subject:"réalisation""
171 |
Characterization and applications of quantum measurement invasiveness / Caractérisation et applications de l'invasivité de la mesure quantiqueMoreira, Saulo Vicente 31 May 2017 (has links)
L'invalidité de la mesure quantique est une propriété des phénomènes quantiques.Elle est reliée au fait que la mesure de systèmes quantiques peut les affecter d'une façon que ne peut pas être décrite au sein de la physique classique.Cette thèse étudie la question de l'invasivité des mesures quantiques à travers l'inégalité de Leggett-Garg et d'une autre inégalité basée sur la condition de non perturbation (\ non-disturbance condition "). La violation de ces inégalités témoigne de l'invasivité des mesures quantiques. Dans un premier temps, nous _étudierons un modèle pour la violation de l'inégalité de Leggett-Garg, qui permettra une caractérisation opérationnelle de l'invasivité de la mesure quantique à travers un paramètre appelé la mesurabilité du système physique. Ce paramètre contrôle la violation de l'inégalité de Leggett-Garg et peut être reliée à des tests expérimentaux de cette inégalité. De cette façon, ce paramètre permet la compréhension et l'interprétation de ces violations. Nous avons également étudie, via ce modèle, la relation entre l'invasivité et une définition particulière de la « macroscopicité", associée la »taille " de systèmes de spin. Nous avons ensuite étudie une application de l'invasivité de la mesure quantique dans le cadre des protocoles pour l'estimation de paramètres en métrologie quantique. Une relation générale entre l'information de Fisher et les corrélations quantiques temporelles a été établie, et permet la caractérisation de la robustesse au bruit de scenarios de métrologie. Cette relation sert de ligne directrice pour la connexion entre l'invasivité de la mesure quantique et des scenarios (quasi-)optimaux en métrologie. Nous avons également établi une relation entre l'invasivité de la mesure quantique et une définition de la cohérence macroscopique. Pour finir, nous avons proposé un protocole pour tester la non-invasivité de mesures, basé sur la condition de non perturbation, pour des systèmes de spin de taille arbitraire. Cette inégalité permet de s'assurer contre la possibilité que sa violation soit due à des perturbations classiques de la mesure. Nous avons montré que la valeur maximale pour la violation de l'inégalité correspond au nombre de particules qui constitue le système / Quantum measurement invasiveness is a feature of quantum phenomena, i.e. associated with the fact that measurements can affect quantum systems in a manner which cannot be described by classical physics. In this thesis we will investigate measurement invasiveness through the Leggett-Garg inequality and another inequality based on the non-disturbance condition, both of which, when violated, witness measurement invasiveness. First, we will study a model for the violation of the Leggett-Garg inequality, which will allow us to provide an operational characterization of measurement invasiveness through a parameter called the measurability of the physical system. This parameter controls Leggett-Garg inequality violation and can be associated with experimental tests of this inequality, helping one to understand and interpret them. We will also investigate, through this model, the relationship between measurement invasiveness and a specific definition of macroscopicity, related to the \size" of spin systems. We will then seek to study an application of measurement invasiveness in the context of protocols for parameter estimation or quantum metrology. A general relationship between the Fisher information and temporal quantum correlations will be established, allowing one to characterize the robustness of metrological scenarios against the presence of noise. This relationship will also serve as a guideline for a connection between measurement invasiveness and (nearly-) optimal metrological scenarios. We will also establish a relationship between measurement invasiveness and a definition of a measure of macroscopic coherence. Lastly, we will propose a protocol for testing measurement noninvasiness based on the non-disturbance condition for spin systems of arbitrary size. This inequality allows one to argue against the possibility of its violation being due to the classical disturbance of measurements. We will show that the maximum value for the violation of this inequality Corresponds to the number of particles which constitutes the system.
|
172 |
« Êtes-vous Monsieur Makhmalbaf? »: présence et réalisme du réalisateur-acteur Mohsen MakhmalbafHarvey, Maxime 12 1900 (has links)
No description available.
|
173 |
Le plain-pied du monde. Postures épistémologiques et pratiques d'écriture dans la géographie française au XXe siècle.Orain, Olivier 05 December 2003 (has links) (PDF)
À l'aide des outils de la poétique, ce travail d'épistémologie se propose d'abord d'expliquer comment le « réalisme » particulier des géographes du XXe siècle éclaire bon nombre de partis-pris épistémologiques du paradigme « postvidalien ». Ensuite il met en perspective le mouvement de rejet de la géographie traditionnelle survenu dans les années 1970, que l'on peut décrire sur le modèle des « révolutions scientifiques » de T. Kuhn. On montre que durant soixante-dix ans des manières d'écrire et de penser se sont imposées à l'« école française de géographie », appuyées sur une posture réaliste très largement intuitive mais utile pour normer les pratiques légitimes. Quelques-uns ont perçu dès les années 1940-1950 les fragilités de la posture classique génératrices, dans les années 1960, de « malaise » et d'entreprises de consolidation de l'orthodoxie. En revanche, la mise en crise ouverte de ce paradigme est survenue plus tard, dans le sillage d'une conflagration de plus vaste portée (Mai-1968), qui a beaucoup fait pour désinhiber la critique interne. Dans ce contexte de mise en question collective du réalisme, certains auteurs ont alors contribué à préciser une posture alternative, que l'on peut qualifier de « constructiviste ». Le modèle kuhnien, utile pour décrire la situation de la géographie classique, s'avère moins pertinent dès lors que la géographie s'insère pleinement parmi les sciences sociales.
|
174 |
Représentations d'arbres réalistes et efficaces pour la synthèse d'images de paysagesMeyer, Alexandre 10 December 2001 (has links) (PDF)
Cette thèse, située dans le cadre de la synthèse d'images de paysages, est consacrée à des représentations d'arbres adaptées soit au rendu de haute-qualité, soit au rendu temps réel. Les techniques de modélisation d'arbres donnent à ce jour de bons résultats en termes de diversité d'espèces et de formes représentables. Cependant, leur représentation géométrique nécessite une multitude de polygones représentant des détails fins, source d'un coût de calcul important et de gros problèmes d'aliassage lors du rendu de l'image. Pourtant, la construction de niveaux de détails par simplification de maillage ne peut s'appliquer à un arbre sans en modifier l'opacité et l'illumination globale, à cause du caractère disparate et non continu du feuillage. En suivant l'idée de représenter un ensemble de primitives (feuilles ou branches) par paquet intégrant les aspects géométriques et photométriques, nous avons conçu deux nouvelles représentations. La première, destinée au rendu haute-qualité, est basée sur le calcul analytique du modèle d'illumination global d'une géométrie représentant un rameau d'aiguilles de conifère. En nous servant des connaissances a priori concernant la distribution géométrique des aiguilles, nous avons mis au point une hiérarchie de trois shaders capables de représenter à une échelle donnée les effets cumulés des niveaux plus fins, sans avoir à les échantillonner, et en tenant compte de l'auto-ombrage et de la visibilité. Le caractère analytique de ces shaders permet à la fois d'accélérer considérablement les temps de calcul et d'obtenir des images de qualité, en particulier avec très peu d'aliassage. La deuxième, destinée au rendu temps réel, se compose d'une hiérarchie d'images correspondant à l'échantillonnage des directions de vue et de lumière, que nous affichons à l'aide de billboards en interpolant les images. Nous y associons une structure de visibilité pré-calculée, basée sur des cubes de visibilité, pour traiter l'auto-ombrage et l'ombrage en temps interactif. Notre implémentation permet l'affichage interactif d'une forêt de 1000 arbres avec illumination, auto-ombrage, ombrage, et avec possibilité de déplacer interactivement la source de lumière
|
175 |
The great war and post-modern memory : the first world war in contemporary british fiction (1985-2000)Renard, Virginie 05 January 2009 (has links)
The First World War has never completely disappeared from the British collective memory since the end of the conflict, but it has especially gained in importance again in the late 1980s and 1990s, both in academia and beyond. The last two decades of the last century indeed saw an explosion in historical writing about the First World War, but also in popular representations. There now exist in Great Britain two main distinct perceptions of the First World War, and their coexistence is seen by some military and political historians in terms of a war of representations that opposes two “Western Fronts”, that of literature and popular culture against that of history. While the latter strives to discover and transmit the “truth” about the past, the former are said to perpetuate what has been called the “myth” of the Great War, understood as an emotionally driven and “false” version of the war. This doctoral dissertation examines fourteen British novels and short stories that were published during the late-twentieth-century “war books boom,” and primarily aims at examining these severe claims of “mythicality,” “ahistoricity,” and lack of creative imagination. It seeks to establish in what forms, to what purposes, and with what effects the First World War has returned in contemporary British fiction.
The first part investigates the allegations laid against contemporary WWI fiction by military historians. Chapter 1 first defines the multifaceted term “myth” and looks at the special place it holds in human thought as a foundational story of origins; it also explains how the historical event of the First World War has become part of the British national mythology. Chapter 2 describes the four main elements of the mythical scenario of the Great War (viz. horror, death, futility, and incompetent generalship). It examines how they have shaped the works under scrutiny; it also shows how these writers have attempted to reach beyond the language and imagery handed down by the war poets by telling the “unspoken stories” of the war and rewriting women and the working class back into the postmodern memory of the conflict. Chapter 3 looks at the intertextual dialogue that contemporary WWI writers establish with their poetic forefathers.
The second and third parts focus on the recourse to, and conceptualization of, “memory” in contemporary re-imaginings of the First World War. Part Two looks at “shell shock” as the legacy of the war: memory is usually problematized as trauma, as an overwhelming, violent event that has been found impossible to deal with and that therefore lingers, unresolved, in individual and collective memory. Chapter 4 contextualizes the rise of shell shock as a fundamental element in the myth of the war and provides a theoretical framework to the close reading of five novels (i.e. Pat Barker’s Regeneration trilogy and Another World, as well as Robert Edric’s In Desolate Heaven) that follows in Chapters 5 and 6. These two chapters show how the five selected trauma narratives engage with the contemporary fears of the revenant quality of the past and the possibility of a contagious, transgenerational transmission of trauma. They also raise questions concerning the politics of memory, the adequacy of historical narrative, and the ethics of historical representation.
Part Three investigates the questions of remembrance and the duty of memory, which are problematized in all the works under scrutiny. Most contemporary WWI narratives have placed the war in the wider perspective of the century, demonstrating their awareness of their posthistorical situation. Chapter 7 examines the fear that the past is in danger and should be rescued from the work of time and history. Chapter 8 shows how this rescue of the past takes the form of a detective investigation, a metaphor of memory which brings to the fore the agency of memory as process and the inherent textuality of the past, and thus questions the possibility of ever knowing the war. Chapter 9 looks at “sites of memory,” the (textual) traces of the past that make this investigation (im)possible. / La Première guerre mondiale n’a jamais complètement disparu de la mémoire collective britannique, mais elle a à nouveau gagné en importance à la fin des années 80 et pendant les années 90, dans et au-delà du monde universitaire. Les deux dernières décennies du siècle dernier ont en effet été marquées par un foisonnement d’écrits historiques et de représentations populaires sur la Première guerre mondiale. Il existe à présent en Grande Bretagne deux visions de la guerre, et leur co-existence est perçue par certains historiens militaires et politiques en termes de guerre de représentations qui opposerait deux « Fronts de l’Ouest », à savoir le front de la littérature et de la culture populaire d’une part, et celui de l’histoire d’autre part. Alors que les partisans de l’histoire tentent de découvrir et transmettre la « vérité » sur le conflit, les autres perpétuent ce qu’on appelle le « mythe » de la Grande Guerre, c’est-à-dire une version erronée et émotive des événements. Cette dissertation doctorale examine quatorze des romans et nouvelles britanniques publiés pendant le « war books boom » de la fin du vingtième siècle et examine ces sévères reproches d’ahistoricité et manque d’imagination créative. Nous cherchons à établir sous quelles formes, dans quels buts et avec quels effets la Première guerre mondiale est revenue dans la fiction britannique contemporaine.
La première partie examine les sévères critiques tenues par les historiens militaires à l’encontre de la « WWI fiction » contemporaine. Le premier chapitre définit le terme « mythe » et la place spéciale qu’il occupe dans la pensée humaine en tant qu’histoire fondatrice ; il explique également comment l’événement historique de la Première guerre mondiale est entré dans la mythologie nationale britannique. Le deuxième chapitre décrit les quatre éléments fondamentaux du scénario mythique de la Grande Guerre (c’est-à-dire l’horreur, la mort, l’absurdité, et l’incompétence des généraux). Il montre comment ces derniers ont modelé les œuvres de notre corpus et comment les auteurs contemporains ont tenté de se distancier du langage et des images transmis par les poètes des tranchées en racontant les récits de guerre restés inexprimés et réinscrivant les femmes et la classe ouvrière dans la mémoire postmoderne du conflit. Le troisième chapitre examine le dialogue intertextuel que les auteurs contemporains établissent avec les écrivains des tranchées, leurs « ancêtres poétiques ».
Les deuxième et troisième parties se focalisent sur le concept de mémoire dans les réécritures contemporaines de la Première guerre mondiale. La deuxième partie examine le phénomène de « shell shock » en tant qu’héritage de guerre : la mémoire est en général problématisée comme trauma, comme un événement impossible à intégrer et qui subsiste et persiste comme un poids dans la mémoire individuelle et collective. Le quatrième chapitre explique comment le shell shock est devenu un élément central du mythe de la guerre et fournit un cadre théorique aux exercices de « close reading » qui suivent dans les chapitres cinq et six. Ces deux chapitres montrent comment cinq romans appartenant au genre de la « trauma fiction » (i.e. la trilogie Regeneration et Another World de Pat Barker, ainsi que In Desolate Heaven de Robert Edric) se confrontent à la peur contemporaine d’un possible retour du passé comme revenant et d’une transmission par contagion du trauma. Ces chapitres posent également les questions de la politique de la mémoire, de la pertinence de la narration historique, et de l’éthique de la représentation historique.
La troisième partie se penche sur les notions de commémoration et devoir de mémoire, problématisées dans toutes les œuvres du corpus. La plupart des romans contemporains de la Grande Guerre replacent le conflit dans une perspective plus large, celle de tout un siècle, reconnaissant ainsi leur position posthistorique. Le septième chapitre examine la crainte d’un passé mis en danger par l’oubli, les effets du temps et le travail de l’histoire. Le huitième chapitre montre que le sauvetage du passé prend souvent la forme d’une enquête, une métaphore qui met en évidence la double nature de la mémoire comme contenu et process ainsi que la textualité du passé, et remet donc en question la possibilité même de connaître le passé. Le neuvième et dernier chapitre examine les lieux de mémoire, les traces (textuelles) du passé qui rendent cette enquête (im)possible.
|
176 |
Bits quantiques supraconducteurs et résonateurs : test de l'intégralité de Legget-Garg et lecture en un coupPalacios-Laloy, Agustin 23 September 2010 (has links) (PDF)
Cette thèse présente un ensemble d'expériences de QED en circuit (cQED), dans lesquelles des atomes artificiels basés sur des circuits supraconducteurs sont couplés au champ électromagnétique d'un résonateur micro-ondes. Ce résonateur agit comme appareil de mesure pour l'atome, permettant d'illustrer des aspects fondamentaux de la physique quantique et de développer des briques de base pour un processeur quantique. Dans une première expérience nous suivons continuement l'évolution de l'atome tout en variant l'intensité de la mesure. Nous observons la transition du régime de mesure faible à celui de mesure forte, puis le gel de la dynamique du a l'effet Zénon quantique. Dans le régime de mesure faible nous testons si l'atome artificiel est en accord avec les hypothèses du réalisme macroscopique, à partir desquelles Leggett et Garg ont déduit une inégalité de Bell en temps. La violation de cette inégalité confirme que l'atome artificiel, bien que macroscopique, est un objet quantique. En ce qui concerne l'information quantique, nous avons enrichi l'architecture cQED en démontrant un système de lecture haute fidélité en un coup pour le qubit, un élément crucial pour un processeur quantique. Notre circuit utilise la transition dynamique d'un résonateur non-linéaire. Le système couplé formé par le qubit et le résonateur non linéaire permet en plus d'étudier l'interaction entre couplage fort et effets non linéaires -amplification paramétrique, sqeezing- ouvrant un nouveau sujet : le cQED non linéaire. Finalement, nous avons mis au point un circuit qui servirait d'intermédiaire pour que deux qubits arbitraires interagissent : un résonateur micro-ondes a fréquence accordable.
|
177 |
Dialectique et sécularisation chez Charles TaylorSt-Laurent, Guillaume 08 1900 (has links)
L’objectif central du présent mémoire consiste à interroger les implications générales de l’interprétation taylorienne de la sécularisation, telle que déployée dans ‘A Secular Age’ (2007), pour la philosophie de la religion. Nous soutenons que l’approche herméneutique de notre auteur, reposant sur son anthropologie philosophique, a pour effet d’arrimer de façon indissociable et originale le problème de la sécularisation avec le questionnement philosophique sur la religion. À cet effet, nous présentons la critique du naturalisme déployée par Taylor ainsi que les grandes lignes de sa ‘dialectique’ afin de clarifier l’orientation générale de sa démarche. Nous passons ensuite à une analyse de son interprétation de la sécularisation ainsi que des implications de cette dernière pour les questions constitutives de la philosophie de la religion, touchant notamment la nature de la religion, le statut épistémologique des croyances religieuses, les rapports entre foi et raison ainsi que la relation entre la religion et la science moderne. Nous terminons sur un ton plus critique en interrogeant le ‘réalisme métaéthique’ de notre auteur et en soutenant que sa position pourrait constituer la base d’un ‘récit soustractif’ plus robuste et pénétrant. / The central aim of this work is to assess the most general implications of the interpretation of secularization by Charles Taylor, as it is deployed in ‘A Secular Age’ (2007), for the domain of philosophy of religion. We argue that the hermeneutical approach of Taylor, resting on his philosophical anthropology, binds together in an original and indivisible fashion the problem of secularization and the philosophical reflection on religion. To this effect, I describe his critique of naturalism and the broad lines of his ‘dialectic’ in order to clarify the general orientation of his work. I then move to an analysis of his interpretation of secularization and its implications for the constitutive questions in philosophy of religion, notably regarding the nature of religion, the epistemological status of religious beliefs, the relations between faith and reason as well as between religion and modern science. I conclude on a more critical note with an examination of the ‘metaethical realism’ of our author and by showing that his position might best be understood as the basis for a deepened and reinforced ‘subtraction story’.
|
178 |
La connaissance comme norme de l'assertion selon Timothy WilliamsonLizotte, Vincent January 2012 (has links)
Ce mémoire a pour objectif de clarifier la position de Timothy Williamson dans la problématique de la norme de l’assertion. Le premier chapitre permet de circonscrire la perspective strictement épistémologique adoptée par Williamson. Le second chapitre met en relief trois thèses de Williamson qui portent sur la connaissance et permet de dégager les grandes lignes de l’explication épistémique qu’il propose pour l’assertion. La première de ces thèses fait de la connaissance la norme de l’assertion dans le sens où la connaissance est la seule règle constitutive de l’assertion. La seconde thèse examinée fait de la connaissance un état mental factif. Il s’agit d’un état mental particulier qui met en relation causale le monde et l’esprit. La dernière thèse mise en relief défend l’idée selon laquelle la connaissance est équivalente aux éléments probants de l’agent. Le mémoire a pour objectif de démontrer que ces thèses comprises ensembles impliquent que la position de Williamson est radicalement réaliste, invariantiste et externaliste. Le troisième et dernier chapitre cherche à contraster la position de Williamson avec celle de Keith DeRose dans le but de clarifier les conséquences conceptuelles de l’analyse de Williamson. Les principales conclusions à tirer du mémoire sont les suivantes : l’explication épistémique de l’assertion apportée par Williamson est à la fois robuste, informative et ne peut être importée que dans un cadre radicalement réaliste.
|
179 |
Modèle global et paramétrable, pour la gestion des foules d'agents en animation comportementaleSoussi, Hakim 06 December 2011 (has links) (PDF)
Le réalisme d'une application traitant de l'animation comportementale de foules est fondé d'une part sur le rendu graphique des scènes produites par l'application, mais aussi sur le réalisme du comportement lui-même. C'est ce dernier point qui est notre objet d'étude. Le réalisme du comportement d'une foule est avant tout global (réalisme macroscopique) : elle doit avoir des propriétés statistiques (densité, dispersion, vitesse moyenne,...) proches de celles d'une foule réelle. Il est aussi local (réalisme microscopique), c'est-à-dire que les agents ou groupes d'agents doivent idéalement avoir des comportements proches de ceux des humains ou groupes humains pris pour référence, tout au moins dans le domaine d'application restreint considéré. L'objet de cette thèse est de proposer un modèle générique pour effectuer des simulations comportementales de foules, pour pouvoir satisfaire simultanément les deux types de réalisme macroscopique et microscopique et rendre compte de la plupart des types de foules (foules homogènes, groupes, collection d'agents). Pour ce faire, nous avons dégagé quelques principes simples et peu coûteux en ressources. Nous introduirons la notion de contexte (global, localisé, et propagateur). Les contextes globaux et localisés appliqués à un groupe d'agents tendent à leur donner un même comportement et constituent ainsi un moyen de contrôle global de ces acteurs (réalisme macroscopique). Le contexte propagateur donne un moyen de propagation d'informations entre les agents de la foule (communication). Les agents eux-mêmes sont dotés de tendances qui, en les différenciant dans un même contexte, leur donne une variété de comportements qui concourt au réalisme microscopique.
|
180 |
Rendu réaliste de nuages en temps réelBouthors, Antoine 17 June 2008 (has links) (PDF)
Les jeux vidéos et les effets spéciaux ont un besoin constant d'images plus réalistes de scènes naturelles, ce qui inclut les nuages. Les méthodes traditionnelles de synthèse d'images impliquent des calculs coûteux, ce qui qui limite leur réalisme. Dans cette thèse, nous proposons de nouvelles approches pour le rendu de nuages à la fois réalistes et rapides. Ces objectifs sont atteints via une méthodologie s'appuyant sur des approches à la fois physiques et phénoménologiques. Dans la première partie de cette thèse, nous étudions les nuages du point de vue d'un observateur humain, ce qui nous permet d'identifier les éléments visuels importants caractérisant les nuages. Ces éléments visuels sont ceux que nous cherchons à reproduire dans un but de réalisme. Dans la deuxième partie nous conduisons une étude expérimentale du transport de la lumière dans une dalle de nuage en utilisant les lois du transfert radiatif. Cette étude nous permet de mieux comprendre le transport de la lumière dans les nuages à des échelles mésoscopiques et macroscopiques, de trouver l'origine de ces éléments visuels, et de déduire de nouveaux modèles de transport de la lumière phénoménologiques efficaces. Dans la troisième partie nous proposons deux nouvelles méthodes permettant le rendu de nuages réaliste en temps-réel basées sur les résultats de notre étude. Ces méthodes sont optimisées pour le matériel graphique. La qualité de nos résultats est débattue et nous esquissons des axes de recherche future permettant d'améliorer à la fois la vitesse et le réalisme de nos méthodes.
|
Page generated in 0.1931 seconds