• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 128
  • 31
  • 17
  • 14
  • 3
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 200
  • 70
  • 50
  • 37
  • 28
  • 28
  • 26
  • 26
  • 19
  • 19
  • 17
  • 16
  • 13
  • 13
  • 12
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Le cinéma d'animation : avènement d'une institution et naissance d'une industrie

Noujeim, Dominique 04 1900 (has links)
Les premiers comptes rendus de l’histoire du cinéma ont souvent considéré les premiers dessins animés, ou vues de dessins animés, comme des productions différentes des films en prise de vue réelle. Les dessins animés tirent en effet leurs sources d’inspiration d’une gamme relativement différente d’influences, dont les plus importantes sont la lanterne magique, les jouets optiques, la féérie, les récits en images et les comics. Le dessin animé n’en demeure pas moins fondamentalement cinématographique. Les vues de dessins animés de la décennie 1900 ne se distinguent ainsi guère des scènes à trucs sur le plan de la technique et du style. D’abord le fait de pionniers issus de l’illustration comique et du croquis vivant comme Émile Cohl, James Stuart Blackton et Winsor McCay, le dessin animé s’industrialise au cours de la décennie 1910 sous l’impulsion de créateurs venant du monde des comics, dont John Randolph Bray, Earl Hurd, Paul Terry et Max Fleisher. Le processus d’institutionnalisation par lequel le dessin animé en viendra à être considéré comme une catégorie de film à part entière dépend en grande partie de cette industrialisation. Les studios de dessins animés développent des techniques et pratiques managériales spécifiquement dédiées à la production à grande échelle de films d’animation. Le dessin animé se crée ainsi sa propre niche au sein d’une industrie cinématographique dont il dépend toutefois toujours entièrement. Ce phénomène d’individuation repose sur des formules narratives et des personnages récurrents conçus à partir de modèles issus des comics des années 1910. / This dissertation focuses on the institutionalization and industrialization of drawn animation. Animated cartoons are usually seen as being quite different from live action films. They were modelled on traditions found in the realm of magic lantern, opitcal toys, phantasmagoria and comics. Yet, cartoons were fundamentally filmic by nature. Technically and aesthetically, animated films were considered as a category of trick films. In the 1910s, after the pioneering work of Emile Cohl, James Stuart Blackton and Winsor McCay, who were also famous for their work as cartoonists and lightning sketch artists, the nascent industry of animated cartoons recruited talent from the comic strip and the illustration industries, including John Randolph Bray, Earl Hurd, Paul Terry and, later, Max Fleischer. The institutionalization of animated cartoons — that is, the process through which cartoons gained enough visibility so they could be legitimately considered a new category of films — is the result of their industrialization. Animated cartoons studios developed techniques and work management practices that were specific to their needs. While largely dependent on the moving picture industry, animated cartoons created their own niche. This phenomenon of individuation relied heavily on narrative formulas and recurring characters modelled after famous comics of the 1910s.
152

Les mondes du Lindy Hop : appropriation culturelle et politiques de la joie

Sékiné, Anaïs Leï 05 1900 (has links)
No description available.
153

Les nouvelles méthodes de navigation durant le Moyen Age / New navigational Methods during the Middle Ages

Com'Nougue, Michel 29 November 2012 (has links)
Les nouvelles méthodes de navigation durant le Moyen Age. Le navire de commerce à voile est propulsé par le vent et doit donc suivre cette direction générale. La navigation peut se définir selon un aspect d’abord stratégique comme le choix d’une route en tenant compte des contraintes imposées par le vent et un aspect tactique concernant le tracé et le contrôle, en cours d’exécution de cette route. 1-Dans un premier temps, la navigation antique ne se réfère qu’au seul vent qui est le moteur mais aussi le guide du navigateur pour suivre la route fixée par l’observation des traces qu’il imprime sur la mer. C’est la navigation à vue. La limite de la méthode est atteinte quand le vent devient changeant au large, ce qui oblige alors une vérification de la direction par l’observation des astres. 2- L’apparition de l’aiguille aimantée résout en partie ce problème. L’orientation géographique entraine la mise au point, à la fin du XIIIe siècle, d’une nouvelle méthode : l’estime. L’estime est la résolution graphique des problèmes que pose le contrôle de la route choisie. Cette résolution suppose, d’une part, l’usage de la boussole et d’une orientation géographique et, d’autre part, une analyse vectorielle sur un support la carte marine qui est donc indissociable de la méthode. Le plus gros défaut de l’estime est que les positions sont définies par projection dans le futur de paramètres, cap et distances parcourues actuels. Des différences sont donc à prévoir qui entrainent une zone d’incertitude sur le point estimé. 3- Lorsqu’au début du XVe siècle les navigateurs se lancent dans l’inconnu, obligés de suivre le vent qui décrit des boucles, les voyages s’allongent sans voir la terre pour une confrontation avec des positions avérées. La taille des zones d’incertitude obligent le navigateur a préciser sa position finale par d’autres méthodes basées sur des observations astronomiques. On peut distinguer deux méthodes : Tout d’abord, la méthode des hauteurs de polaire, de 1433 à 1480 environ, qui permet de finaliser la volta et d’effectuer un atterrissage selon une route Est-Ouest. L’analyse de la technique nautique de Colomb, qui utilise cette méthode, est très semblable à celle décrite par Ibn Majid dans son traité de navigation. Il est probable qu’il y a eu transmission sans pouvoir préciser les circonstances exactes.Mais dès que les navigateurs franchissent l’équateur la polaire devient indisponible, les navigateurs doivent observer le soleil. Cette deuxième méthode est plus délicate car les paramètres du soleil changent chaque jour. Ils obligent donc le navigateur à calculer la latitude, à partir de l’observation de la méridienne de soleil et par l’usage de tables des données solaire : os regimentos do sol. C’est cette méthode qui permet à Vasco da Gama de doubler le cap de Bonne Esperance, en 1498, ce qui marque la fin de la période étudiée. Pour conclure il faut remarquer que ces deux derniers méthodes sont le fruit d’une coopération entre les usagers et les scientifiques sous l’égide du pouvoir, décidé à atteindre le but fixé. C’est donc le fruit d’une véritable recherche scientifique. En second lieu, il faut également noter que les progrès de la navigation accompagnent des progrès parallèles en architecture navale, le gouvernail d’étambot, ainsi que de nouvelles procédures dans le commerce maritime. L’étude des interactions entre ces divers domaines reste à faire. / New navigational methods during the Middle Ages.A sailing vessel is pushed forwards by the wind in the general direction towards it is blowing. Navigation should comply with strategic goals: i.e. the choice of a route to a port of destination, taking into account this wind constraint. A tactical aspect is involved when following this route and checking, the entire voyage long, the good guidance of the ship. 1-In the first ages of navigation, the mariner is referring to the sole element at his disposal: the wind. It gives him elements for the direction to choose, if it is a convenient time for sailing and also it supplies the means of checking and controlling the course of the ship, by observation of the marks it is printing on the surface of the sea. Variable wind is the limit of this method. In this case, only sky observation can give an indication of the direction to follow.2- The finding of the magnetic needle solves this problem and from this new tool, a new navigation method is implemented, around the end of the XIII.th century. Dead reckoning is a way to determinate ship’s position at any moment, using a vector analysis for solving graphically the problems that checking the chosen course can induce. This graphical method is using the compass indications and needs necessarily using a marine chart. The main problem of dead reckoning is that, using present data to reckon future positions , any error in assessing these data supposes an uncertainty in this position. Correction of the route is necessary by verifying with actual land falls. Longer the voyage without such confrontation and bigger the uncertainty zone to be faced.3-In the beginning of the XV.th century, Portuguese mariners started to run the open ocean. They had to follow the wind which runs along a long loop across the ocean, la volta. Therefore running in the open seas, without any land to be seen, in order to check the actual position, obliged mariners to elaborate new methods based on astronomical observations in order to reduce the size of this uncertainty zone, when arriving to the landing point. A first method is based on the observation of the pole star depth; between the years 1433 to 1480. It is based on observation of the pole star depth. Analysis of C. Columbus nautical art shows similarities with the written work of Ibn Majid, his contemporaneous Arab nautical expert. Crossing the equator line made the polar star not available any more. Therefore, the method had to be changed and the second method involved sun observations. This is more complex as the sun data are changing every day. Therefore mariners had to reckon the latitude, using the observations of the meridian line and using of sun data tables: the so called regimentos do sol. Through this method Vasco da Gama was able to reach the Indian Ocean after passing the Cape of Good Hope. This closes the period of this study.The conclusion should take into account the fact that these astronomical methods were not entirely empiric but the result of a joint research of users, mariners and scientists. This endeavor was made possible because a central power, the Infant first , then King Joao II, were willing to proceed more south and gave their mariners the technical means to do so.A second conclusion observes that progress of navigation were accompanied by parallels progresses in naval construction and maritime new contracts and ways of handling commercial matters. There are surely interactions between these three domains, but we have still to put them into evidence.
154

Reconstruction de scène dynamique à partir de plusieurs vidéos mono- et multi-scopiques par hybridation de méthodes « silhouettes » et « multi-stéréovision » / 3D scene reconstruction by silhouette and multi-baseline stereovision

Ismael, Muhannad 12 July 2016 (has links)
La reconstruction précise d’une scène 3D à partir de plusieurs caméras offre un contenu synthétique 3D à destination de nombreuses applications telles que le divertissement, la télévision et la production cinématographique. Cette thèse propose une nouvelle approche pour la reconstruction 3D multi-vues basée sur l’enveloppe visuelle et la stéréovision multi-oculaire. Cette approche nécessite en entrée l’enveloppe visuelle et plusieurs jeux d’images rectifiées issues de différentes unités multiscopiques constituées chacune de plusieurs caméras alignées et équidistantes. Nos contributions se situent à différents niveaux. Le premier est notre méthode de stéréovision multi-oculaire qui est fondée sur un nouvel échantillonnage de l’espace scénique et fournit une carte de matérialité exprimant la probabilité pour chaque point d’échantillonnage 3D d’appartenir à la surface visible par l’unité multiscopique. Le second est l’hybridation de cette méthode avec les informations issues de l’enveloppe visuelle et le troisième est la chaîne de reconstruction basée sur la fusion des différentes enveloppes creusées tout en gérant les informations contradictoires qui peuvent exister. Les résultats confirment : i) l’efficacité de l’utilisation de la carte de matérialité pour traiter les problèmes qui se produisent souvent dans la stéréovision, en particulier pour les régions partiellementoccultées ; ii) l’avantage de la fusion des méthodes de l’enveloppe visuelle et de la stéréovision multi-oculaire pour générer un modèle 3D précis de la scène. / Accurate reconstruction of a 3D scene from multiple cameras offers 3D synthetic content tobe used in many applications such as entertainment, TV, and cinema production. This thesisis placed in the context of the RECOVER3D collaborative project, which aims is to provideefficient and quality innovative solutions to 3D acquisition of actors. The RECOVER3Dacquisition system is composed of several tens of synchronized cameras scattered aroundthe observed scene within a chromakey studio in order to build the visual hull, with severalgroups laid as multiscopic units dedicated to multi-baseline stereovision. A multiscopic unitis defined as a set of aligned and evenly distributed cameras. This thesis proposes a novelframework for multi-view 3D reconstruction relying on both multi-baseline stereovision andvisual hull. This method’s inputs are a visual hull and several sets of multi-baseline views.For each such view set, a multi-baseline stereovision method yields a surface which is usedto carve the visual hull. Carved visual hulls from different view sets are then fused iterativelyto deliver the intended 3D model. Furthermore, we propose a framework for multi-baselinestereo-vision which provides upon the Disparity Space (DS), a materiality map expressingthe probability for 3D sample points to lie on a visible surface. The results confirm i) theefficient of using the materiality map to deal with commonly occurring problems in multibaselinestereovision in particular for semi or partially occluded regions, ii) the benefit ofmerging visual hull and multi-baseline stereovision methods to produce 3D objects modelswith high precision.
155

Méthodologie d'estimation des métriques de test appliquée à une nouvelle technique de BIST de convertisseur SIGMA / DELTA / Methodology for test metrics estimation built-in design flow of hard-to-simulate analog/mixed-signal circuits

Dubois, Matthieu 23 June 2011 (has links)
L'expansion du marché des semi-conducteurs dans tous les secteurs d'activité résulte de la capacité de créer de nouvelles applications grâce à l'intégration de plus en plus de fonctionnalités sur une surface de plus en plus faible. Pour chaque entreprise, la compétitivité dépend du coût de fabrication mais aussi de la fiabilité du produit. Ainsi, la phase de test d'un circuit intégré, et plus particulièrement des circuits analogiques et mixtes, est le facteur prédominant dans les choix d'un compromis entre ces deux critères antagonistes, car son coût est désormais proche du coût de production. Cette tendance contraint les acteurs du marché à mettre en place de nouvelles solutions moins onéreuses. Parmi les recherches dans ce domaine, la conception en vue du test (DfT) consiste à intégrer pendant le développement de la puce, une circuiterie additionnelle susceptible d'en faciliter le test, voire d'effectuer un auto-test (BIST). Mais la sélection d'une de ces techniques nécessite une évaluation de leur capacité de différencier les circuits fonctionnels des circuits défaillants. Ces travaux de recherche introduisent une méthodologie d'estimation de la qualité d'une DfT ou d'un BIST dans le flot de conception de circuits analogiques et mixtes. Basée sur la génération d'un large échantillon prenant en compte l'impact des variations d'un procédé technologique sur les performances et les mesures de test du circuit, cette méthodologie calcule les métriques de test exprimant la capacité de chaque technique de détecter les circuits défaillants sans rejeter des circuits fonctionnels et d'accepter les circuits fonctionnels en rejetant les circuits défaillant. Ensuite, le fonctionnement d'un auto-test numérique adapté aux convertisseurs sigma-delta est présenté ainsi qu'une nouvelle méthode de génération et d'injection du stimulus de test. La qualité de ces techniques d'auto-test est démontrée en utilisant la méthodologie d'estimation des métriques de test. Enfin, un démonstrateur développé sur un circuit programmable démontre la possibilité d'employer une technique d'auto-test dans un système de calibrage intégré. / The pervasiveness of the semiconductor industry in an increasing range of applications that span human activity stems from our ability to integrate more and more functionalities onto a small silicon area. The competitiveness in this industry, apart from product originality, is mainly defined by the manufacturing cost, as well as the product reliability. Therefore, finding a trade-off between these two often contradictory objectives is a major concern and calls for efficient test solutions. The focus nowadays is mainly on Analog and Mixed-Signal (AMS) circuits since the associated testing cost can amount up to 70% of the overall manufacturing cost despite that AMS circuits typically occupy no more than 20% of the die area. To this end, there are intensified efforts by the industry to develop more economical test solutions without sacrificing product quality. Design-for-Test (DfT) is a promising alternative to the standard test techniques. It consists of integrating during the development phase of the chip extra on-chip circuitry aiming to facilitate testing or even enable a built-in self-test (BIST). However, the adoption of a DFT technique requires a prior evaluation of its capability to distinguish the functional circuits from the defective ones. In this thesis, we present a novel methodology for estimating the quality of a DfT technique that is readily incorporated in the design flow of AMS circuits. Based on the generation of a large synthetic sample of circuits that takes into account the impact of the process ariations on the performances and test measurements, this methodology computes test metrics that determine whether the DFT technique is capable of rejecting defective devices while passing functional devices. In addition, the thesis proposes a novel, purely digital BIST technique for Sigma-Delta analog-to-digital converters. The efficiency of the test metrics evaluation methodology is demonstrated on this novel BIST technique. Finally, a hardware prototype developed on an FPGA shows the possibility of adapting the BIST technique within a calibration system.
156

Bourdieu face à la littérature / Bourdieu and Literature

Youcef, Fatima 01 April 2010 (has links)
Dans Les Règles de l'art, Bourdieu propose une science des œuvres. A l'aide des concepts de champ, d'habitus, d’espace des possibles, il tente de faire le lien entre la littéraire et le social. Son approche récuse toute tentation psychologisante et ferme la porte à toute explication du processus créatif en termes de génie, de sensibilité ou d’inspiration. La littérature est d’abord au carrefour des faits sociaux. Les textes sont des faits sociaux, comme apparition mais aussi comme expression. Ils ne sont ni à sacraliser ni à désacraliser. Bourdieu tente de rendre intelligible l’espace littéraire des auteurs. Il veut mettre en lumière ce qui rend l’œuvre d’art nécessaire, c’est-à-dire sa formule informatrice, son principe générateur, sa raison d’être. Il affirme qu'au fond l'écrivain, quelle que soit son orientation, n'a pas d'autres choix que d'être traversé par la sociologie de son époque. Il suggère même que tout effort de distanciation formelle, supposant que l'œuvre soit un ailleurs du réel, est signe de cette connaissance intuitive du réel lui-même. L’Education Sentimentale de Flaubert se prête particulièrement bien à ce paradigme analytique. En s’arrêtant sur la deuxième moitié du XIXe siècle, Bourdieu décrit la genèse et le processus d’autonomisation de l’espace littéraire qui entérine le fonctionnement du champ. Il essaie alors de montrer comment les règles sont articulées par/dans une configuration sociale, politique, économique, culturelle et quelle place nouvelle occupe, dans cette modernité, l'artiste. / I have used Pierre Bourdieu’s sociological approach as a critical tool for the study of literary texts. As a sociologist, Bourdieu is not satisfied with the notion that the literary text would be isolated from the world and considers the writer as a product of economic, social, religious or political circumstances that may be recovered through analysis. According to Bourdieu, the development of literature as an independent field goes hand in hand with the expansion of a liberal politics, a connection critics refuse to recognize as they will believe in the myth of inspired creation. Bourdieu retraces to the nineteenth century the moment when literature became independent and describes how twentieth-century literature is but a perpetuation of nineteenth-century literary myths. I also look at the ways the specialists of Flaubert responded to the publication of Les Règles de l’art as the book provoked heated debates when it was issued. I have especially examined the arguments of critics hostile to Bourdieu in order to demonstrate how such an emblematic figure as Flaubert embodies what is at stake when one questions the notion of literature. How can Bourdieu fit in literary studies? One has to be careful interpreting the title of Bourdieu’s book. Les Règles de l’art is no prescriptive book : Bourdieu is not the one who sets the rule nor does he suggest that there were no rules before the advent of the modern age. He is simply trying to show how, from the start of this period, the literary world is determined by specific social, political, economic and cultural conditions and questions the particular role played by the artist in this new state of things.
157

Tensiones entre las narrativas de ficción y no ficción en la cinematografía contemporanea de Argentina, Chile y Colombia / Des tensions entre les narrations de fiction et de non-fiction dans la cinématographie contemporaine de l'Argentine, du Chili et de la Colombie / Tensions between Fiction and Nonfiction Narratives in Argentine, Chilean and Colombian Contemporary Cinema

López, Ana Maria 04 June 2014 (has links)
Le cinéma de l'Argentine, le Chili et la Colombie entre 1990 et 2005 a dû faire face à divers changements liés aux modèles politique, économique et culturel. En particulier, les lois relatives à la production du cinéma ont changées dans les années ci-dessous, ce qui a permet de configurer un cinéma hétérogène par rapport aux thèmes et moyens de raconter. Dans cette thèse, nous nous proposons d’étudier un phénomène particulier situé temporellement dans un moment de transition et envisagé à travers un corpus clairement sélectionné. Le dit phénomène se présente à travers la relation que le cinéma entretient avec la réalité, relation qui, à cette époque, se caractérise par une grande ambigüité. Il s’agit principalement d’un élargissement des frontières de classifications des productions en vertu de sa relation avec la réalité qui, traditionnellement fut séparée en deux grands groupes définis comme fiction et non fiction. Pour cette raison, nous avons développés un cadre théorique autour du réalisme comme une catégorie d'analyse du corpus. Aussi, nous avons fait une analyse basée sur les approches des Études Culturelles d'Amérique Latine, l’Analyse Critique du Discours et l'Analyse de Cinéma. Notre travail a été de systématiser et de mettre en relation les processus qui ont permis la consolidation du cinéma contemporain d'Amérique Latine. Également, nous avons confirmés le besoin de contextualiser et de nourrir l'analyse de film avec la connaissance de l'histoire sociale, politique et économique comme une condition pour 'interpréter et analyser le récit de l'Amérique Latine. / Argentine, Chilean and Colombian Cinema of the period between1990-2005 had to face several changes related to political, economic and cultural models. In particular, laws related to film production changed over the years, allowing the configuration of a heterogeneous cinematography regarding its topics and ways of narrating. The main problem of this research is studying the relationship between cinema and reality and how the strategies of construction of fiction and nonfiction narratives are put into tension during the period above mentioned. For this reason, we developed a theoretical framework around the realism as a category to get an approach to the corpus. Additionally, we carried out an analysis of our corpus based on the Latin American Cultural Studies, Critical Discourse Analysis and Film Analysis approaches. We systematized and correlated the processes that have allowed contemporary Latin American films to consolidate as a reference. In this project, we have been able to confirm the need to contextualize and nourish film analysis using knowledge of the social, political and economic history as a condition to interpret and study Latin American Narratives.
158

Algèbres de Clifford conformes et orbites de points de vue d'images / Conformal Clifford algebras and image viewpoints orbit

El Mir, Ghina 09 July 2014 (has links)
L'objectif de ce travail est de décrire des modélisations des points de vue et des changements de points de vue d'images d'un objet planaire dans les algèbres de Clifford conformes. Nous généralisons le modèle conforme de l'espace euclidien à travers une famille à deux paramètres d'horosphère, chacune d'entre elles étant plongée dans un espace vectoriel réel de dimension 4 muni d'une métrique équivalente à la métrique de Minkowski. Nous décrivons par la suite deux approches pour mettre en œuvre ces modèles conformes généralisés pour les représentations d'images. L'idée de base est d'encoder les distorsions perspectives de l'objet causées par la variation du paramètre de latitude de la caméra au travers des paramètres d'une horosphère. La première approche consiste à considérer les horosphères de l'espace de Minkowski de dimension 4 pour encoder les points de vue. Les changements de points de vue sont alors linéarisés à travers un groupe de transformations linéaires et conformes de cet espace. Cette approche est ensuite généralisée en décrivant les points de vue à travers les objets d'un groupoïde dont les morphismes sont des diagrammes commutatifs qui représentent les changements de points de vue. Ainsi, une image conforme est décrite par une application définie sur une horosphère à deux paramètres. L'action du groupoïde sur l'ensemble des images conformes nous conduit à associer à tout objet planaire l'orbite de toutes ses images conformes obtenues à partir de tous les points de vue. / Our purpose in this work is to introduce representations of image viewpoints and viewpoint changes of a planar object in conformal Clifford algebras. Our important preliminary contribution is a generalization of the conformal model of the Euclidean space through a two-parameter family of horospheres. Each one of these is embedded into a real vector space of dimension 4 equipped with a metric equivalent to the Minkowski metric. We describe two approaches that make use of these generalized conformal models for image representations. These are based on modelings of perspective distortions of the object caused by a variation of the latitude angle of the camera. First, we model the image viewpoints by the horospheres of the Minkowski space of dimension 4. In this setting, the viewpoint changes are linearized through a group of linear conformal transformations of this space. This approach is generalized by describing the viewpoints through the objects of a groupoid whose morphisms are commutative diagrams that model the viewpoint changes. A conformal image is then described as a map defined on a horosphere. The action of the groupoid on the set of conformal images leads us to associate with every planar object the orbit of its conformal images from all viewpoints.
159

Electronic strong coupling of molecular materials in the liquid phase / Couplage fort des transitions électronique de matériaux moléculaires en phase liquide

Bahsoun, Hadi 14 September 2017 (has links)
Cette thèse contribue à la compréhension fondamentale du phénomène de couplage fort de la lumière avec des molécules organiques en mettant en œuvre de nouveaux systèmes et de nouvelles techniques, afin d'étudier les modifications de propriétés de molécules couplées à des résonances photoniques. Nous présentons des techniques de nanofabrication avancées pour la création de grands réseaux de trous sur des métaux et de cavités de Fabry-Pérot (FP) nanofluidiques. Ces systèmes sont ensuite utilisés pour étudier, sous régime de couplage fort, les modifications des propriétés de surface et de volume de molécules organiques en phase solide et liquide. En particulier les transitions électroniques de molécules du colorant cyanine en solution liquide ont été couplées à des modes photoniques résonants de cavités FP nanofluidiques spécialement conçues. Leur couplage fort a conduit à une amélioration du rendement quantique d'émission, mettant en évidence la nature radiative des états polaritoniques. / This thesis contributes to the fundamental understanding of the phenomenon of strong coupling of light with organic molecules by implementing new systems and techniques in order to investigate property modifications of molecules coupled with photonic resonances. State-of-the-art nanofabrication techniques for the formation of large hole-array gratings in metals and nanofluidic Fabry-Perot (FP) cavities are presented. These systems were then invested to study, under strong coupling, surface and bulk properties modifications of organic molecules in the solid and liquid phase. In particular, electronic transitions of cyanine dye molecules in liquid solutions were coupled to resonant photonic modes of specially designed nanofluidic FP cavities. Their strong coupling has led to an enhancement of the emission quantum yield, highlighting the radiative nature of the associated polaritonic states.
160

Voir pour Savoir. La visualisation technique et scientifique de l’aventure spatiale dans le monde occidental entre 1840 et 1969 / See to Know. The technical and scientifical visualization of space adventure in the western World between 1840 and 1969

De Smet, Elsa 12 November 2016 (has links)
Entre la première photographie jamais prise de la Lune en 1840 par J.W. Draper et la première photographie prise depuis le sol de notre satellite en 1969 par la mission Apollo 11, l’aventure spatiale occidentale a donné lieu à une vaste production d’images. Toutes ont cherché à comprendre, capturer et communiquer au plus grand nombre l’aspect du cosmos. Absorbé comme une évidence par la culture collective, ce corpus hétérogène, protéiforme et aux délimitations complexes, relève d’une histoire culturelle qui reste difficile à classer, entre histoire des sciences et histoire des images. Les visualisations qui en résultent, marquées par les traditions de l’histoire de la représentation et fabriquées en parallèle des évolutions technologiques de l’astronomie et de ses moyens d’observation, ont tout autant façonné le regard de l’astronomie physique et la culture visuelle de ses observateurs néophytes. L’analyse de la formation et de l’épanouissement de l’Art spatial au XXe siècle nous ouvre ainsi les yeux sur un corpus visuel où la coalescence entre science et style est une condition nécessaire à son existence. A l’épreuve de l’histoire de l’histoire de l’art et des études visuelles, ce dernier trouve également toute sa place dans une analyse qui vise à dévoiler la puissance et la qualité performative des images. Qu’il s’agisse d’une imagerie vulgarisant le savoir savant à des fins didactiques, d’une volonté de saisir l’image du cosmos pour le découvrir ou d’une dissémination culturelle au cœur des grands mythes du siècle, l’exploration spatiale fut aussi une entreprise du regard qu’il nous incombe d’observer. / Between the first photograph taken from the moon in 1840 by J.W. Draper and the first photograph taken from our satellite’s ground in 1969 by Apollo 11’s mission, western space odyssey led to a wide range of images. They all had the common goal of understanding, apprehending and sharing the aspect of cosmos with as many people as possible. Evidently absorbed by a collective culture, this heterogeneous and multifaceted corpus with many complex boundaries is based on a cultural history, which remains hard to classify, between science history and images history. The resulting visualizations, heavily influenced by the traditions of the history of representation and made in parallel of the technical evolutions of astronomy and its means of observation, have equally shaped the look of physical astronomy and of the visual culture of its neophyte observers. The analysis of the creation and the fulfilment of Space Art in the twentieth century make us open our eyes on a visual corpus where the coalescence between science and style is a necessary condition to its really existence. Confronted to History of Arts and to visual studies, this corpus finds its place within an analysis, which pursues to disclose the power and the performative quality of images. Whether it be an imagery popularizing the deepest knowledge for teaching purposes, a will of grabbing the image of cosmos in order to discover it or a cultural dissemination at the heart of the most important myths of the century, spatial exploration was also an experience of the look we need to observe.

Page generated in 0.0424 seconds