• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 8
  • 2
  • Tagged with
  • 33
  • 12
  • 10
  • 8
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Conception de lois de commande à hautes performances pour l'optique adaptative des grands / très grands télescopes

Correia, Carlos 18 March 2010 (has links) (PDF)
L'optique adaptative (OA) permet de corriger les effets induits par la turbulence atmosphérique, qui dégradent la résolution des télescopes et donc la qualité des images. Introduits dans les années 1990, les systèmes d'OA deviennent désormais tomographiques, permettant l'analyse du volume turbulent pour une correction à grand champ. Ceci s'accompagne d'une forte augmentation de la complexité des OA des futurs grands télescopes. Les nouveaux concepts d'OA souvent à grands nombres de degrés de liberté (GNDL) requièrent des lois de commande innovantes respectant les contraintes temps réel. Plusieurs aspects originaux sont abordés. Pour les GNDL, le point d'entrée est le choix de la base de représentation de la phase. Deux voies sont explorées : avec une formulation zonale, des méthodes Fourier sont étudiées pour la reconstruction statique de front d'onde ; une nouvelle stratégie combinant méthodes Fourier et méthodes itératives est développée pour adapter la commande optimale linéaire quadratique gaussienne (LQG) aux GNDL. On traite ensuite le problème des dynamiques temporelles des grands miroirs déformables. Pour des dynamiques linéaires, la commande optimale minimisant la variance résiduelle est obtenue comme solution d'un problème LQG à temps discret. Ceci permet aussi de quantifier la dégradation de performances pour des commandes sous-optimales. Cette approche est appliquée à la commande des miroirs de basculement destinés aux grands télescopes. On montre que négliger la dynamique conduit à une dégradation significative des performances. Une autre application est traitée : la coordination d'un miroir lent et d'un miroir rapide (concept woofer-tweeter).
12

Le chant basque monodique (1897-1990) : analyse musicologique comparée des sources écrites et musicales

Hirigoyen Bidart, Marie 25 September 2012 (has links) (PDF)
Le XXème siècle marque le début de l'étude musicologique sur le chant basque, concept apparu dans le courant du XIXème siècle. La plupart des recherches insistent sur les spécificités de cette pratique. A cette même époque, l'enregistrement de ce répertoire permet la constitution d'archives sonores. Pourtant, musicologues et collecteurs de sources sonores ne se rencontrent pas. Or, l'examen approfondi des études musicologiques publiées sur le chant basque amène à penser que les caractéristiques musicales attribuées à cette pratique tout au long du XXème siècle ne sont pas toutes pertinentes, que ce soit dans les termes employés ou dans la conception même de la musique. Elles renseignent parfois plus sur les auteurs et le contexte d'écriture de l'ouvrage/ article que sur la musique elle-même. Ces descriptionspeuvent de ce fait être nuancées à la lumière de nouvelles analyses. Une comparaison diachronique et synchronique de sources écrites et musicales de la fin du XIXème siècle à la fin du XXème siècle permet d'une part d'observer le lien entre ce qui est " dit " sur le sujet du point de vue musicologique et ce que nous pouvons en entendre, et d'autre part de repérer les caractéristiques musicales communes qui se dégagent de l'ensemble. Nous formulons l'hypothèse qu'il existe dans le chant basque monodique, non des caractéristiques musicales intrinsèques, mais des éléments musicaux mobiles, variés, des " indices ", notamment du point de vue de la hauteur, qui peuvent être observés grâce à des outils d'analyse modernes.
13

Etude de l'infuence de la séparation des degrés de liberté pour la manipulation 3-D à l'aide de surfaces tactiles multipoints

Martinet, Anthony 03 October 2011 (has links) (PDF)
Inventées au milieu des années 1980, nous assistons actuellement au développement à grande échelle des interfaces tactiles multipoints. Par comparaison avec la souris, les écrans multipoints nécessitent un nouveau processus d'étude afin de comprendre les changements apportés par cette technologie. Le travail déjà effectué avec d'autres périphériques d'entrée doit être repris à zéro afin de formuler de nouvelles théories pour la création d'interfaces tactiles multipoints. La manipulation à trois dimensions (3-D) d'un objet nécessite le contrôle de six degrés de liberté. Trois sont responsables de la position de l'objet et trois contrôlent son orientation. Dans ce mémoire, nous nous focalisons sur la manipulation 3-D d'un objet à l'aide de surfaces tactiles multipoints. Plus précisément, nous avons étudié le lien entre le périphérique d'entrée (ici la surface multipoint) et la tâche à effectuer (ici la manipulation 3-D). En premier lieu, nous avons introduit une taxonomie pour la représentation des techniques d'interaction 3-D spécifiques aux écrans multipoints. Cette taxonomie nous a permis de mettre en avant l'influence des stratégies de conception des techniques en termes d'intégration de degrés de liberté. Par la suite, nous avons mené une étude concernant les techniques d'interactions permettant le positionnement 3-D d'un objet. Nous avons présenté deux nouvelles techniques, tirant profit des capacités offertes par les écrans multipoints. L'évaluation de ces techniques nous révéla des conclusions quant à la coordination de l'utilisateur dans la réalisation de la tâche. Enfin, nous avons introduit une nouvelle technique d'interaction de manipulation 3-D. Cette technique a été évaluée plus rapide que les techniques existantes et nous avons pu déterminer les raisons expliquant cette performance accrue. Ces travaux, qui s'intéressent à la coordination de l'utilisateur lors de la réalisation de tâches 3-D à l'aide de surfaces multipoints, recommandent une approche favorisant la séparation des degrés de liberté, dans le but de pouvoir paralléliser les actions de l'utilisateur afin de tirer profit de la bande passante d'entrée plus importante offerte par les écrans multipoints.
14

Polyhedral models reduction in geometric tolerance analysis / Réduction de modèles polyédriques pour l’analyse de tolérances géométriques

Arroyave-Tobón, Santiago 10 November 2017 (has links)
L’analyse de tolérances par des ensembles de contraintes repose sur la détermination de l’accumulation de variations géométriques par des sommes et intersections d’ensembles opérandes 6d. Les degrés de liberté des liaisons et les degrés d’invariance des surfaces génèrent des opérandes non-bornés (polyèdres), posant des problèmes de simulation. En 2014, L. Homria proposé une méthode pour résoudre ce problème, consistant à ajouter des limites artificielles(contraintes bouchon) sur les déplacements non-bornés. Même si cette méthode permet la manipulation d’objets bornés (polytopes), les contraintes bouchon augmentent la complexité des simulations. En réponse à cette difficulté, une méthode dérivée est proposée dans cette thèse.Cette méthode consiste à tracer et simplifier les contraintes bouchon au travers des opérations.Puis une seconde stratégie basée sur la décomposition d’un polyèdre en une somme d’un polytope et de lignes droites (associées aux déplacements non-bornés). Cette stratégie consiste à simuler d’une part les sommes de droites, et d’autre part, à déterminer la somme de polytopes dans un sous-espace de dimension inférieur à 6. Ces trois stratégies sont comparées au travers d’une application industrielle. Cela montre que la traçabilité des contraintes bouchons est un aspect fondamental pour contrôler leur propagation et pour réduire le temps de calcul des simulations. Toutefois, cette méthode exige encore de déterminer les limites des déplacements non-bornés. La deuxième méthode, adaptant systématiquement la dimension de l’espace de calcul, elle permet de diminuer davantage le temps de calcul. Ce travail permet d’envisager la mise en oeuvre de cette méthode selon des formulations statistiques avec la prise en compte des défauts de forme des surfaces. / The cumulative stack-up of geometric variations in mechanical systems can be modelled summing and intersecting sets of constraints. These constraints derive from tolerance zones or from contact restrictions between parts. The degrees of freedom (DOF) of jointsgenerate unbounded sets (i.e. polyhedra) which are difficult to deal with. L. Homri presented in 2014 a solution based on the setting of fictitious limits (called cap constraints) to each DOFto obtain bounded 6D sets (i.e. polytopes). These additional constraints, however, increase the complexity of the models, and therefore, of the computations. In response to this situation,we defined a derived strategy to control the effects of the propagation of the fictitious limits by tracing and simplifying the generated, new cap constraints. We proposed a second strategy based on the decomposition of polyhedra into the sum of a polytope and a set of straight lines.The strategy consists in isolating the straight lines (associated to the DOF) and summing the polytopes in the smallest sub-space. After solving an industrial case, we concluded that tracing caps constraints during the operations allows reducing the models complexity and,consequently, the computational time; however, it still involves working in 6d even in caseswhere this is not necessary. In contrast, the strategy based on the operands decompositionis more efficient due to the dimension reduction. This study allowed us to conclude that the management of mechanisms’ mobility is a crucial aspect in tolerance simulations. The gain on efficiency resulting from the developed strategies opens up the possibility for doing statistical treatment of tolerances and tolerance synthesis.
15

Le chant basque monodique (1897-1990) : analyse musicologique comparée des sources écrites et musicales / Monodic basque singing (1897 - 1990) : comparative musicological analysis of written and musical sources

Hirigoyen Bidart, Marie 25 September 2012 (has links)
Le XXème siècle marque le début de l’étude musicologique sur le chant basque, concept apparu dans le courant du XIXème siècle. La plupart des recherches insistent sur les spécificités de cette pratique. A cette même époque, l’enregistrement de ce répertoire permet la constitution d’archives sonores. Pourtant, musicologues et collecteurs de sources sonores ne se rencontrent pas. Or, l’examen approfondi des études musicologiques publiées sur le chant basque amène à penser que les caractéristiques musicales attribuées à cette pratique tout au long du XXème siècle ne sont pas toutes pertinentes, que ce soit dans les termes employés ou dans la conception même de la musique. Elles renseignent parfois plus sur les auteurs et le contexte d’écriture de l’ouvrage/ article que sur la musique elle-même. Ces descriptionspeuvent de ce fait être nuancées à la lumière de nouvelles analyses. Une comparaison diachronique et synchronique de sources écrites et musicales de la fin du XIXème siècle à la fin du XXème siècle permet d’une part d’observer le lien entre ce qui est « dit » sur le sujet du point de vue musicologique et ce que nous pouvons en entendre, et d’autre part de repérer les caractéristiques musicales communes qui se dégagent de l’ensemble. Nous formulons l’hypothèse qu’il existe dans le chant basque monodique, non des caractéristiques musicales intrinsèques, mais des éléments musicaux mobiles, variés, des « indices », notamment du point de vue de la hauteur, qui peuvent être observés grâce à des outils d’analyse modernes. / The XXth century marks the beginning of the musicological study of the Basque singing, a concept appeared during the course of the XIXth century. Most of these researchs insist on the specificities of such a practice. At the same time, the recording of this repertory allows the setting up of sound archives. Nevertheless, musicologists and collectors of the sound sources do not meet. However, a thorough examination of the musicology studies published about the Basque singing leads to think that the musical characteristics ascribed to this practice throughout the XXth century are not all relevant whether concerning the terms being used or the conception of the very music. They often inform more on the authors and the context of the writing of the work/article than on the music itself. These descriptions may then be qualified in the light of new analyses. A diachronic and synchronic comparison of the written and musical sources from the late XIXth century to the end of the XXth allows us, on the one hand, to observe the link between what is “said” on the topic from the musicology point of view and what we can hear, and on the other hand to spot the common musical characteristics emerging from the whole.We formulate the hypothesis that the monodic Basque singing does not present any intrinsic musical characteristics. Rather, we observe mobile and diverse musical elements, kinds of “clues”, especially as far as pitch is concerned, that can be observed thanks to modern analysis tools.
16

Conception, développement et évaluation de techniques d'interactions fluides pour des environnements multidimensionnels : application aux logiciels du service public / Conception, development and evaluation of fluid interaction techniques for multidimensional environments : application on public services' software

Perelman, Gary 02 October 2018 (has links)
Les travaux de cette thèse s'inscrivent dans une collaboration avec l'entreprise Berger-Levrault, acteur majeur du développement de logiciels de gestion administrative pour les services publics. Ces travaux s'appuient sur deux constats. D'une part, la politique de numérisation des services publics induit la nécessité de disposer de logiciels adaptés aux métiers de l'ensemble des établissements publics. Ces logiciels sont complexes et particulièrement riches comparativement aux logiciels de bureautique classiquement utilisés. D'autre part, on observe que les dispositifs utilisés pour interagir avec ces logiciels n'évoluent que très peu. Depuis plusieurs décennies, la souris et le clavier restent la norme dans un environnement fixe. Or, ces dispositifs ne possèdent que peu de degrés de libertés en entrée. La manipulation de données multidimensionnelles avec ceux-ci induit un plus grand nombre d'étapes pour réaliser une tâche, rallongeant ainsi le chemin d'interaction. Dans ce contexte, l'objectif de ces travaux de thèse est de contribuer à la fluidification de l'interaction avec des données multidimensionnelles, contenues dans les logiciels du service public, au travers de l'augmentation des degrés de libertés en entrée proposés par les dispositifs. En effet, une plus grande quantité de degrés de libertés en entrée réduirait le nombre d'étapes nécessaires à la réalisation d'une tâche donnée, fluidifiant ainsi l'interaction. Nous proposons 3 contributions majeures : un dispositif à multiples degrés de libertés, la Roly-Poly Mouse ; un espace de conception, DECO ; ainsi qu'un ensemble de techniques d'interaction avec dispositifs mobiles basées sur le principe du stacking. Une première contribution de nos travaux consiste en la conception d'un nouveau dispositif à multiples degrés de liberté : la Roly-Poly Mouse (RPM). Ce dispositif, dont la base est arrondie, vise à remplacer la souris traditionnelle. Il possède 6 degrés de libertés (3 translations dont 2 exploitées et 3 rotations). Nous avons évalué ses performances et l'avons comparé à d'autres dispositifs pour une tâche nécessitant 6 degrés de libertés (manipulation d'objet 3D). Une seconde contribution de nos travaux consiste en la définition d'un espace de conception se focalisant sur l'aspect physique de la composition de dispositifs : DECO. DECO s'appuie sur deux axes : l'arrangement physique et la manipulation physique. À partir de cet espace de conception, nous avons conçu un dispositif composé : la Roly-Poly Mouse 2, un dispositif composé d'une Roly-Poly Mouse et d'une souris traditionnelle. Nous avons évalué ses performances et l'avons comparé à d'autres dispositifs au travers d'une tâche de RST (Rotate-Scale-Translate, tâche 5D). [...] / The work of this thesis is part of a collaboration with the company Berger-Levrault, a major actor in the development of administrative management software for public services. This work is based on two observations. On the first hand, the policy of digitization of public services induces the need for software adapted to the professions of all public institutions. These software are complex and particularly rich compared to classically used office software (Office, mailbox, etc.). On the other hand, we observe that the devices used to interact with these software did not evolve. Since several decades, the mouse and the keyboard remain the norm in a fixed environment. However, these devices have only few input degrees of freedom. The manipulation of multidimensional data with these devices induces a greater number of steps to perform a task, thus lengthening the interaction path. In this context, the objective of these thesis work is to improve the interaction flow with multidimensional data contained in the software of the public service through the increase of the input degrees of freedom proposed by the devices. Indeed, a larger amount of input degrees of freedom would reduce the number of steps necessary to the accomplishment of a given task, thus improving the interaction flow. We propose three major contributions: a device with multiple degrees of freedom, the Roly-Poly Mouse; a design space, DECO; as well as a set of interaction techniques with mobile devices based on the principle of stacking. A first contribution of our work is the design of a new device with multiple degrees of freedom: the Roly-Poly Mouse (RPM). This device, whose base is rounded, aims to replace the traditional mouse. It has 6 degrees of freedom (3 translations of which 2 exploited and 3 rotations). We evaluated its performance and compared it to other devices for a task requiring 6 degrees of freedom (3D object manipulation). A second contribution of our work is the definition of a design space focusing on the physical aspect of the composition of devices: DECO. DECO relies on two axes: physical arrangement and physical manipulation. From this design space, we designed a compound device: the Roly-Poly Mouse 2, a device consisting of the combination of a Roly-Poly Mouse and a traditional mouse. We evaluated its performance and compared it to other devices through a RST task (Rotate-Scale-Translate, 5D task). [...]
17

Conception et évaluation de techniques d'interaction pour l'exploration de données complexes dans de larges espaces d'affichage / Desing and evaluation of interaction techniques for exploring complexe data in large display-spaces

Saïdi, Houssem Eddine 16 October 2018 (has links)
Les données d'aujourd'hui deviennent de plus en plus complexes à cause de la forte croissance de leurs volumes ainsi que leur multidimensionnalité. Il devient donc nécessaire d'explorer des environnements d'affichage qui aillent au-delà du simple affichage de données offert par les moniteurs traditionnels et ce, afin de fournir une plus grande surface d'affichage ainsi que des techniques d'interaction plus performantes pour l'exploration de données. Les environnements correspondants à cette description sont les suivants : Les écrans large ; les environnements multi-écrans (EME) composés de plusieurs écrans hétérogènes spatialement distribués (moniteurs, smartphones, tablettes, table interactive ...) ; les environnements immersifs. Dans ce contexte, l'objectif de ces travaux de thèse est de concevoir et d'évaluer des solutions d'interaction originales, efficaces et adaptées à chacun des trois environnements cités précédemment. Une première contribution de nos travaux consiste en Split-focus : une interface de visualisation et d'interaction qui exploite les facilités offertes par les environnements multi-écrans dans la visualisation de données multidimensionnelles au travers d'une interface overview + multi-detail multi-écrans. Bien que plusieurs techniques d'interaction offrent plus d'une vue détaillée en simultané, le nombre optimal de vues détaillées n'a pas été étudié. Dans ce type d'interface, le nombre de vues détaillées influe grandement sur l'interaction : avoir une seule vue détaillée offre un grand espace d'affichage mais ne permet qu'une exploration séquentielle de la vue d'ensemble?; avoir plusieurs vues détaillées réduit l'espace d'affichage dans chaque vue mais permet une exploration parallèle de la vue d'ensemble. Ce travail explore le bénéfice de diviser la vue détaillée d'une interface overview + detail pour manipuler de larges graphes à travers une étude expérimentale utilisant la technique Split-focus. Split-focus est une interface overview + multi-détails permettant d'avoir une vue d'ensemble sur un grand écran et plusieurs vues détaillées (1,2 ou 4) sur une tablette. [...] / Today's ever-growing data is becoming increasingly complex due to its large volume and high dimensionality: it thus becomes crucial to explore interactive visualization environments that go beyond the traditional desktop in order to provide a larger display area and offer more efficient interaction techniques to manipulate the data. The main environments fitting the aforementioned description are: large displays, i.e. an assembly of displays amounting to a single space; Multi-display Environments (MDEs), i.e. a combination of heterogeneous displays (monitors, smartphones/tablets/wearables, interactive tabletops...) spatially distributed in the environment; and immersive environments, i.e. systems where everything can be used as a display surface, without imposing any bound between displays and immersing the user within the environment. The objective of our work is to design and experiment original and efficient interaction techniques well suited for each of the previously described environments. First, we focused on the interaction with large datasets on large displays. We specifically studied simultaneous interaction with multiple regions of interest of the displayed visualization. We implemented and evaluated an extension of the traditional overview+detail interface to tackle this problem: it consists of an overview+detail interface where the overview is displayed on a large screen and multiple detailed views are displayed on a tactile tablet. The interface allows the user to have up to four detailed views of the visualization at the same time. We studied its usefulness as well as the optimal number of detailed views that can be used efficiently. Second, we designed a novel touch-enabled device, TDome, to facilitate interactions in Multi- display environments. The device is composed of a dome-like base and provides up to 6 degrees of freedom, a touchscreen and a camera that can sense the environment. [...]
18

Microscopie Électronique en Transmission pour l'étude de phénomènes magnétiques à l'échelle du nanomètre

Masseboeuf, Aurélien 04 December 2008 (has links) (PDF)
Ce travail porte sur l'étude, l'implémentation et le développement de la Microscopie de Lorentz, appliquée à l'observation de films minces magnétiques à anisotropie perpendiculaire (Fer-Palladium) et aux nanostructures auto-assemblées (Fer et Cobalt) à fermeture de flux. Une présentation exhaustive de tous les différents modes de l'imagerie magnétique dans un Microscope Electronique en Transmission (MET) est réalisée en comparaison avec d'autres techniques de caractérisation magnétique par l'image. Il est notamment présenté ici comment cette microscopie peut être implémentée sur un microscope conventionnel et les divers modes de celle-ci sont comparés par la simulation. La Microscopie de Lorentz permet une analyse à la fois locale et quantitative de la distribution de l'induction magnétique dans et autour des matériaux. Dans le même temps, il est possible d'effectuer des études sous l'application d'un champ magnétique pour déterminer l'évolution de la configuration micromagnétique de la matière. Les alliages Fer-Palladium sont ainsi entièrement caractérisés sous différentes géométries par les méthodes de Differential Phase Contrast, résolution de l'équation de Transport d'Intensité et Holographie électronique. L'étude in-situ permet notamment de caractériser et de suivre des défauts magnétiques : les lignes de Bloch verticales. L'étude de nanostructures (plots de Cobalt et plots de Fer) permet quant à elle de de manipuler les différents degrés de libertés magnétiques de systèmes 3D nanostructurés. Il est notamment proposé d'observer des phénomènes de transition entre divers objets du micromagnétisme (vortex, parois de domaines symétriques et asymétriques) ainsi qu'une sélection des degrés de liberté du système par l'application d'un champ.\\
19

Le partage de la valeur ajoutée en France depuis 1970

Sylvain, Arnaud 09 November 2004 (has links) (PDF)
Comprendre la formation de la répartition salaires-profits est important puisqu'un partage déséquilibré est préjudiciable à la croissance et à l'emploi. En France, la part des profits dans la valeur ajoutée a connu des évolutions tranchées : une période de forte diminution entre 1973 et 1982; un redressement sensible de 1982 à 1989 ; une augmentation régulière depuis 1989. Ces évolutions sont comparables à celles constatées en Allemagne et au Japon. La répartition salaires-profits semble en revanche relativement stable aux Etats-Unis et au Royaume-Uni. Les analyses théoriques s'accordent pour interpréter la chute puis le redressement du taux de marge par l'apparition puis la résorption d'un excès de salaire réel. Elles expliquent également le niveau élevé du taux de marge à partir de la fin des années 80 par un choc additionnel. Selon les auteurs, ce choc provient d'une modification de la demande de travail, d'une hausse des taux d'intérêt réels, ou de l'apparition d'un progrès technique économe en main d'œuvre. L'ensemble de ces analyses repose cependant sur des indicateurs fragiles. La tendance à la hausse du taux de marge commune à ces indicateurs est certainement un phénomène artificiel et le partage de la valeur ajoutée est proche du niveau d'équilibre de début de période depuis le début des années 90. Ce résultat fragilise l'hypothèse d'un choc au cours des années 80 et rend plus plausible l'hypothèse d'une stabilité de long terme du partage de la valeur ajoutée. Cette hypothèse de stabilité est en outre renforcée par l'estimation de fonctions de production sur données individuelles qui ne permettent pas de rejeter l'hypothèse d'une fonction de type Cobb-Douglas. Finalement, (1) comme le partage de la valeur ajoutée se trouvait à son niveau d'équilibre au début des années 70 (2) parce que le partage de la valeur ajoutée est vraisemblablement d'un niveau équivalent en début et en fin de période (3) puisqu'il se peut que le partage de la valeur ajoutée soit stable à long terme, on ne peut exclure que le partage de la valeur ajoutée se trouve à la fin des années 90 à son niveau d'équilibre de long terme et que les mouvements heurtés des décennies 70 et 80 proviennent de rigidités sur les marchés du travail voire des biens et services.
20

Comment gouverner un 'nouveau risque mondial'? La construction du changement climatique comme problème public à l'échelle globale, européenne, en France et en Allemagne

Aykut, Stefan Cihan 30 May 2012 (has links) (PDF)
Le changement climatique a pris une place considérable en constante augmentation dans l'actualité politique et médiatique, et contribue puissamment à reconfigurer le social et le politique. Décrit comme radicalement global, parce que les gaz à effet de serre émis dans une partie du monde affectent toute la planète, indétectable et ingérable sans l'appui des sciences naturelles, économiques et sociales, le changement climatique pose des questions fondamentales sur l'articulation des échelles et les relations sciences-politiques. Cette thèse s'intéresse à la façon dont le climat a été problématisé et " mis en politique " dans quatre contextes différents : au niveau global, c'est-à-dire dans le cadre des négociations onusiennes, à l'échelle européenne, en France et en Allemagne. En combinant des approches et outils de la sociologie des problèmes publics, des sciences politiques, et de l'étude des sciences et techniques, et en adoptant un regard à la fois historique et comparatif, elle s'attache à montrer comment le changement climatique a émergé comme thématique dans les contextes analysés, et comment des interprétations spécifiques du problème se sont imposées. Ces interprétations émergent de l'expertise scientifique et technique, mais aussi de l'interaction et de la compétition entre différents acteurs, qui essaient d'imposer leur vision du problème, et promouvoir des mesures spécifiques pour y faire face.

Page generated in 0.0373 seconds