Spelling suggestions: "subject:"énergie""
31 |
L'émergence des politiques énergétiques en Pays de la Loire (France). Effets de contexte, potentiels et jeux d'acteurs.Vaché, Isabelle 16 October 2009 (has links) (PDF)
Puisqu'il traite des enjeux énergétiques et climatiques globaux comme locaux, ce travail de thèse est un sujet d'actualité. Il a pour objet d'analyser les initiatives énergétiques locales en Pays de la Loire, dans le contexte des négociations climatiques internationales, des orientations énergétiques communautaires et nationales, et de la politique régionale. Ce travail s'articule autour de trois hypothèses principales. La première stipule que les Energies Renouvelables (EnR) se sont développées en Pays de la Loire à la suite de projets nucléaires locaux. La deuxième avance que les potentiels humains sont plus déterminants que les potentiels énergétiques territoriaux, du moins dans cette phase de prise de conscience ligérienne par les politiques publiques. La troisième indique que des pressions locales ont conduit la Région à appuyer le développement des EnR. Notre recherche porte sur une approche qualitative fondée sur de nombreux entretiens, à laquelle nous avons associé une approche quantitative basée sur le traitement statistique et cartographique de banques de données. La première partie, consacrée aux éléments de contexte, montre que, malgré la mobilisation de la communauté scientifique dès les années 1970, la prise de conscience des changements climatiques d'origine anthropique est relativement récente. Elle date des années 1990. L'Europe a joué un rôle important dans les négociations climatiques internationales et elle a adopté des objectifs ambitieux (à l'image du Paquet énergie-climat en 2007). Néanmoins, si certains Etats membres comme l'Allemagne sont volontaires pour diminuer leurs émissions de GES et développer les EnR, d'autres Etats comme la France sont beaucoup moins incitatifs. Les deuxième et troisième parties, qui s'intéressent à la région Pays de la Loire, mettent en évidence que, malgré de réels potentiels physiques, les EnR ne représentent qu'une faible part du bouquet énergétique régional. Nous avons établi qu'il existe une concordance entre les potentialités physiques et le nombre d'équipements en EnR. La politique énergétique régionale est également récente, et plus favorable aux EnR et aux économies d'énergie depuis l'arrivée des Verts dans la majorité régionale, en 2004. La montée des mobilisations associatives a également joué un rôle dans la prise en compte des questions énergétiques et climatiques par la Région. Pour organiser notre dernière partie consacrée aux politiques locales, nous avons construit une typologie basée sur de nombreux entretiens. Il en ressort que les potentiels humains, plus que les potentiels physiques, déterminent la mise en place d'une politique énergétique locale. La démarche du Syndicat Départemental d'Energie et d'équipement de la Vendée (SyDEV) fait quelque peu exception puisqu'elle est initialement liée à une volonté de valoriser le potentiel éolien local et de garder la main sur ces ressources. Nous avons mis en évidence que les motifs des politiques énergétiques locales peuvent diverger mais qu'ils s'expliquent généralement par des externalités négatives. Nous avons ainsi montré la concordance entre les mobilisations antinucléaires et la dynamique de la politique énergétique du Pays de Haute Mayenne ; entre les pressions de Nantes, ville centre, et l'originalité de la démarche entreprise par le Pays de Grandlieu Machecoul et Logne ; entre la recherche d'un développement local et la réflexion du PNR Loire Anjou Touraine... Ces initiatives énergétiques locales s'enracinent aussi dans une histoire parfois longue, comme dans le Pays des Mauges. En outre, nos investigations montrent des mobilisations de différentes natures : elles sont individuelles et/ou collectives. Nous avons également étudié l'origine de la sensibilité des pionniers des EnR. Enfin, en nous intéressant aux métropoles ligériennes, nous avons montré la volonté d'exemplarité de Nantes Métropole et l'approche plus opportuniste du Pays du Mans. Par conséquent, derrière l'innovation territoriale, il y a des Hommes, des volontés singulières, liées à un parti politique, à l'héritage de mobilisations environnementales ou sociales, à d'autres types de convictions.
|
32 |
Propriétés et Modes de désexcitation des noyaux chauds observés dans la réaction 36Ar sur 58Ni avec le détecteur INDRA.Nalpas, Laurent 14 November 1996 (has links) (PDF)
Les collisions d'ions lourds aux énergies de Fermi conduisent à la formation de noyaux chauds. <br />Selon l'énergie d'excitation mise en jeu, plusieurs modes de décroissance sont observés, en particulier une émission de fragments complexes (Z>2), dont l'origine est encore mal comprise. <br />Le GANIL permet d'explorer sur une large gamme en énergie, entre 32 et 95 MeV/u, la fonction d'excitation du système Ar+Ni depuis l'« évaporation » jusqu'à la «vaporisation » complète des noyaux chauds en particules légères (neutrons, isotopes de H, He). <br />L'analyse des mécanismes de réaction a montré, pour des petits paramètres d'impact, la domination des collisions binaires très inélastiques. <br />Ces dernières ont motivé une analyse en deux sources, des événements bien mesurés par le détecteur INDRA, à l'aide d'une méthode de reconstruction fondée sur l'«arbre minimum». <br />Des énergies d'excitation voisines de 20 MeV/A sont atteintes, à 95 MeV/u, dans les collisions centrales. <br />Pour les collisions violentes, le partage de l'énergie n'est plus équilibrée entre les deux partenaires, le quasiprojectile ayant une énergie d'excitation par nucléon plus élevée que la quasi-cible. <br />Entre 2 et 8 MeV/A d'énergie d'excitation totale du système, correspond une phase de production importante de fragments de masses intermédiaires qui sature autour de 10 MeV/A. <br />Le déclin du régime de «multifragmentation», au-delà de 15 MeV/A, coïncide avec la probabilité croissante d'observer la «vaporisation» des deux noyaux chauds, dont le seuil se situe aux environs de 8 MeV/A. <br />Par ailleurs, l'augmentation régulière de la température extraite des rapports isotopiques He-Li en fonction de l'énergie d'excitation du quasi-projectile suggère une évolution progressive des modes de décroissance des noyaux chauds, en accord avec les prédictions de modèles statistiques. <br />Aucun signe d'une transition de phase du premier ordre de type liquide-gaz n'est observé pour ces noyaux légers.
|
33 |
Système d'aide à la décision pour la durabilité des systèmes énergétiques renouvelables et des infrastructures d'hydrogène : modélisation, contrôle et analyse de risquesDagdougui, Hanane 15 December 2011 (has links) (PDF)
Compte tenu du caractère non durable des systèmes énergétiques actuel, il est nécessaire d'engager une transition énergétique durable fondée sur les ressources d'énergies renouvelables. L'hydrogène produit à partir des énergies renouvelables offre une solution prometteuse pour satisfaire les objectifs mondiaux de réduction des émissions de gaz à effet de serre et assurer une sécurité énergétique d'approvisionnement. L'utilisation d'un vecteur énergétique tel que l'hydrogène couplé aux ressources renouvelables offre une variété d'avantages sur plusieurs échelles. L'hydrogène a le potentiel de permettre l'exploitation des ressources renouvelables dans le secteur de transport. En effet, l'hydrogène dispose d'un potentiel de remplacer les carburants fossiles, assurant ainsi une réduction des émissions polluantes. L'hydrogène peut être alors une solution pour les défis énergétiques actuels, mais pour cela des barrières doivent être encore surmontées. Cette transition s'accompagne de plusieurs défis qui devraient être surmontés comme ceux liés aux caractères intermittents des ressources renouvelables. Une attention particulière doit être accordée à la faisabilité technique de la chaîne d'approvisionnement en hydrogène, qui est principalement entourée par le caractère intermittent des ressources renouvelables. Par ailleurs, l'infrastructure d'hydrogène présente de nombreuses difficultés qui doivent être surmontées pour une transition réussite vers une économie dépendante de l'hydrogène. Ces difficultés sont principalement dues à des obstacles purement économiques ainsi qu'à l'existence de nombreuses options technologiques pour la production, le stockage, le transport et l'utilisation d'hydrogène. Pour cette raison principale, il est primordial de comprendre et d'analyser la chaîne logistique d'hydrogène à l'avance, afin de détecter les facteurs importants qui peuvent jouer un rôle croissant dans l'élaboration d'une configuration optimale. Notre recherche est essentiellement focalisée sur la question suivante : Comment mettre en place un futur énergétique durable intégrant les énergies renouvelables et l'hydrogène?. Cette question est abordée par le biais du développement de nouveaux systèmes énergétiques fondés sur des innovations radicales. Ainsi, dans quel contexte l'infrastructure de l'hydrogène doit être développée en intégrant les critères liés aux risques de l'hydrogène?
|
34 |
Recalage non rigide d'images médicales volumiques : contributions aux approches iconiques et géométriquesCachier, Pascal 29 January 2002 (has links) (PDF)
Le recalage non rigide d'images est un problème classique en vision par ordinateur qui revient à déformer une image afin qu'elle ressemble à une autre. Les techniques existantes, très nombreuses, sont généralement répertoriées selon l'information utilisée pour le recalage. D'un côté les algorithmes iconiques utilisent l'intensité des images. De l'autre, les algorithmes géométiques utilisent des amers géométriques extraits des images, comme les bords d'un objet. Dans cette thèse, nous montrons d'abord que cette classification n'est pas assez fine pour expliquer certaines différences fondamentales dans le comportement de certains algorithmes. Nous proposons de ce fait de diviser la classe des algorithmes iconiques en deux : nous distinguons d'une part les algorithmes iconiques standard, et d'autre part les algorithmes de recalage d'amers iconiques. Nous introduisons une énergie générale de recalage d'amers iconiques, puis nous développons des instances particulières de cette énergie ayant des propriétés spéciales selon l'application visée : ajout de contraintes géométriques supplémentaires, invariance au biais non uniforme, régularisation vectorielle avec des effets croisés, invariance par échange des images. Nous montrons des applications de nos algorithmes en suivi du mouvement dans des séquences échographiques tridimensionnelles, en relage intersujet de cerveaux, et en interpolation de formes et d'intensités.
|
35 |
Contribution de l'émission acoustique pour la gestion et la sécurité des batteries Li-ionKircheva, Nina 16 January 2013 (has links) (PDF)
L'objectif de cette thèse est de démontrer que l'Emission Acoustique (AE) est une technique appropriée pour devenir un outil de diagnostic de l'état de charge, de santé et de sécurité pour les batteries lithium-ion. Ces questions sont actuellement des points clés important pour l'amélioration des performances et des durées de vie de la technologie. La structure de ce document est organisée en deux principaux chapitres expérimetaux l'un consacré à deséléments lithium-ion composés de composés d'intercalation et l'autre à desalliages de lithium.Dans le premier cas, les résultats présentés concernent le suivi par AE de la formation de la SEI et de la première intercalation des ions lithium dans la structure du graphite pour des éléments LiFePO4/C. Les événements AE provenant de plusieurs sources ont été identifiés et correspondent à la formation de gaz (bulles) et à des phénomènes de craquelures (ouvertures du bord des plans de graphène quand la SEI est formée et l'écartement quand les stades d'insertion du graphite-lithium sont finis). De plus, une étude par spectroscopie d'impédance a été menée durant un vieillissement calendaire en température sur des éléments formés à différents régimes de courant. Dans le second cas, le mécanisme d'insertion/extraction du lithium dans des éléments LiAl/LiMnO2 a été étudié en associant plusieurs techniques incluant des techniques électrochimiques, AE et post-mortem pour évaluer les mécanismes de dégradation. Lors du cyclage, les événements acoustiques sont plus intenses lors du processus de décharge et ils peuvent être attribués principalement à l'alliage avec la transformation de phase de -LiAl en -LiAl accompagnée d'une expansion volumique importante. L'émission acoustique peut ainsi offrir une nouvelle approche pour gérer le fonctionnement des technologies lithium-ion basées non plus seulement sur des paramètres électrochimiques classiques mais aussi sur des paramètres acoustiques. Des nouveaux d'états de santé et de sécurité peuvent ainsi être envisagés.
|
36 |
Produire pour son territoire. De l'autonomie agricole au projet local agro-énergétique. Illustrations dans l'Ouest français.Pierre, Geneviève 06 December 2013 (has links) (PDF)
En quoi l'autonomie agricole constitue-t-elle le point d'appui de projets collectifs questionnant la territorialisation de l'action de développement et la singularisation du territoire par le projet ?" L'HDR porte sur la co-construction volontariste de projets agricoles et locaux motivés par la recherche d'autonomie, dans l'ouest français. Ces actions mettent en tension les fonctions et représentations de l'agriculture. Entre géographie rurale, sociale et développement local territorial, la réflexion relève de l'élargissement des contours et des contenus de l'activité agricole dans un contexte post-productiviste. Le sujet apparait relativement nouveau ou inédit, encore peu traité en sciences sociales dans les années 2000. La recherche est pluridisciplinaire ; les travaux sur l'autonomie menés par les socio-anthropologues croisent les recherches d'agronomes, d'économistes, de gestionnaires, de géographes. Les notions de proximité, de ressources territoriales, de territorialisation, de singularisation de territoires par les projets, associées aux réflexions sur les représentations et les identités professionnelles agricoles, sur les innovations techniques et sociales, constituent des références communes ou discutées en commun. L'interrogation centrale (" autonomie agricole et projets collectifs ou de territoire ") nous porte sur des projets locaux, fermiers, à bien distinguer des logiques agro-industrielles qui peuvent être concurrentes mais dont les objectifs sont différents. 7 actions dans 4 départements de l'Ouest français (Calvados, Orne, Mayenne et Maine-et-Loire) ont été étudiées, à partir de deux types de productions agro-énergétiques et d'autonomie alimentaire : le bois bocage énergie (bois déchiqueté) et la fabrication d'huile végétale pure fermière, ces productions nécessitant la mutualisation de matériels agricoles en CUMA. Le choix de terrains " ouest français " prend tout son sens par l'interrogation centrale posée. En effet, cet espace est autant une référence pour la réussite et les dérives du modèle productiviste que pour l'invention de contre-modèles, critiques du productivisme dominant, comme en attestent le CEDAPA d'André Pochon et le RAD. Parallèlement, ces régions d'élevage en contexte bocager sont propres à porter les ambitions d'autonomie en alimentation animale (hvp et tourteaux chez les éleveurs), en énergie, avec la présence d'un potentiel emblématique de l'Ouest, le bois du bocage. De plus, l'importance de l'agriculture de groupe (GAEC, CUMA) et des mouvements coopératifs rend compte de la dimension ESS des projets. Ces projets émanent de l'initiative d'agriculteurs, souvent acteurs territorialisés, qui sortent de la stricte sphère professionnelle pour s'inscrire dans des stratégies collectives de relocalisation économique et énergétique. Les méthodes d'enquêtes pratiquées s'accordent à ce positionnement : comprendre dans quelle mesure des conceptions/définitions et des pratiques individuelles ou collectives de l'autonomie en agriculture motivent l'implication dans une action collégiale. Ainsi, 80 personnes ont été enquêtées, soit par des enquêtes qualitatives, d'abord informatives et de contexte (techniciens, élus, agents), soit sous forme d'entretien non directif à forte dimension biographique et narrative pour les agriculteurs-initiateurs/moteurs (une vingtaine, avec des doubles-casquettes). La dimension " économie sociale et solidaire " est une entrée seconde, mais pas secondaire, de l'HDR. La recherche s'attache à des coopératives particulières, de proximité, construites à l'échelon local pour le local (CUMA, SCIC), pour lesquelles la dimension d'utilité sociale des projets ne vise pas le profit à court terme, mais l'accomplissement d'ambitions socio-territoriales, qui vont de la valorisation des ressources locales à l'entretien d'un bien public comme le paysage. La dimension technique touche au cœur de l'activation des ressources transformant des déchets en potentiels utilisables: sans les outils de déchiquetage, les branches d'émondage des arbres sont brûlées en bout de champ. L'organisation collective s'avère, de plus, nécessaire à la mutualisation des matériels. Les expérimentations menées en CUMA permettent un partage social (pas seulement financier) du risque. Surtout, les matériels s'inscrivent dans une chaîne technique au-delà du monde agricole, avec les collectivités locales et les chauffagistes (chaudières automatiques), rendant les équipements (leur fiabilité) interdépendants dans la crédibilité des filières locales. Parallèlement, l'HDR questionne des projets agricoles en circuits courts hors alimentation humaine, ce qui a été jusque-là peu traité en géographie. Leur particularité est de relever souvent davantage de circuits " locaux " que " courts " car, contrairement à un circuit court alimentaire classique, la part d'autoconsommation y est forte. Toutefois, le processus d'activation de la ressource exige une organisation collective par la mutualisation des matériels. Les actions agro-énergétiques correspondent à des productions, à des activités additionnelles ou secondaires dans le système de production. Il s'agit d'innovations peu transformatrices qui devraient permettre une meilleure " adoptabilité " par les agriculteurs. Les projets agro-énergétiques sont multidimensionnels, à la fois production d'un bien (qui peut être marchand), d'une externalité positive, voire d'un service environnemental, par la lutte contre l'effet de serre, par l'entretien de la haie, du paysage. Le fonctionnement de ces circuits locaux repose sur le triptyque suivant : reproductibilité de la démarche car produit ou production banale, non liée à une référence de terroir/territoire a priori ; spécification de l'actif par le multipartenariat localisé (au caractère diversifié et singulier, associant des collectivités locales, des entrepreneurs privés, des coopératives et des associations) ; non transférabilité des externalités produites. La définition de l'autonomie est traversée par les ruptures de paradigmes réelles entre les différentes conceptions de l'agriculture et du développement agricole. La consommation sobre en intrants est un critère partagé par tous les réseaux professionnels agricoles. Ainsi, l'alimentation du bétail (consommation d'énergie indirecte) et les consommations d'énergie directe, sont au cœur des critères a minima de l'autonomie. Toutefois, les tenants de l'agriculture autonome, économe et durable comme les Civam ou le RAD, lui opposent une conception holiste tout en défendant le caractère heuristique de la démarche " d'aller vers plus d'autonomisation ". En réalité, les projets étudiés ont relevé de l'interconnexion de différents réseaux professionnels agricoles (RAD/Civam, CUMA et Chambres) réseaux marqués, parfois traversés eux-mêmes (CUMA), par ces ruptures de paradigmes. Ainsi, dans un contexte d'incertitudes techniques et économiques, de remises en cause de vérités qu'on pensait acquises, d'exigences de verdissement, des transversalités et porosités dans les choix techniques et les conceptions des agriculteurs sont mises en évidence. Parallèlement, il existe une dimension territoriale de l'autonomie, par la mobilisation de ressources locales et par la complémentarité dans l'utilisation des ressources. Les proximités géographiques et organisées sont valorisées dans un fonctionnement local en lien avec les collectivités territoriales. Un glissement de l'entraide " agricole " vers une entraide et une autonomie " pour le territoire " s'opère, interrogeant les ambitions du développement rural. L'autonomie procède d'un triple élargissement de l'entraide rurale : en termes de parties prenantes, en termes de contenu, par une capacité entrepreneuriale collective et en termes de périmètre d'action, avec un élargissement au Pays, voire au département (SCIC départementales ou CUMA d'innovation). Le passage de la CUMA à la SCIC, traduction juridique de ce glissement de l'agricole au territoire, illustre l'évolution actuelle des missions des CUMA vers des activités de services en direction des collectivités locales où elles trouvent les limites de leur statut. Le choix de la SCIC est l'occasion d'affirmer une ambition socio-territoriale collective par une double innovation, tant dans l'objet technique que dans sa structuration juridique. Par son multi sociétariat / multi partenariat, intégrant les collectivités locales, le statut de SCIC permet d'embrasser et de faire partager toutes les dimensions du projet : territoriales (rôle des collectivités locales ou des Pays), environnementales et paysagères (plans de gestion du bocage imposés aux fournisseurs) et sociales (recours à des structures d'insertion). C'est l'accomplissement de ces objectifs qui doit convaincre les collectivités locales de s'adresser à la filière de territoire plutôt qu'aux opérateurs industriels. En dernier lieu, la co-construction des projets procède de l'engagement d'acteurs, ce qui invite à s'intéresser à leurs motivations. Ces projets mettent en équation les projets personnels (de vie ; famille/travail) de l'exploitant, avec des initiatives entrepreneuriales qui peut être individuelles ou collectives (coopérative, par exemple) et des projets de territoires locaux. À cet égard, les agriculteurs-initiateurs doivent être considérés selon leur profil multi-actoriel qui rend compte d'une capacité inégale à " l'interconnectivité ". Certaines combinaisons sont fécondes, lorsque l'on est à la fois agriculteur " innovateur "/initiateur des outils techniques, élu local et que l'on bénéficie d'une certaine proximité avec le réseau CUMA. Les configurations sont diverses, en fonction de son échelon d'intervention dans chaque réseau et du niveau de responsabilités qu'on y exerce. Toutefois, un acteur-moteur ne suffit pas à développer une action si celle-ci n'est pas relayée par une dynamique de territoire. La notion d'encastrement socio-territorial est d'autant plus importante qu'il s'agit de co-construire des coordinations faisant intervenir des acteurs diversifiés au sein du territoire local. Ainsi, des trajectoires d'agriculteurs-initiateurs se dégagent, en fonction des évolutions de leurs identités professionnelles, personnelles, du lien famille/exploitation et selon les formes de leur insertion/implication dans les projets. La spécification de ressources a priori génériques et banales relève d'une combinatoire entre : - Une ressource " à activer ", pour une utilisation également locale, avec externalités non transférables ; - L'appropriation et la diffusion de nouveaux outils techniques, pas seulement agricoles - Les ressources du territoire c'est à dire les acteurs et les réseaux socio-territoriaux plus ou moins denses qui les animent ; les projets de territoires et les continuités (ou non) d'actions énergétiques, de stratégies liées au développement durable menées dans certains territoires et leur affichage, soulignent les dimensions temporelles de l'action ; les concernements (ou contexte de concernements) du territoire sur ces questions ; - La singularisation du multipartenariat par la mobilisation d'un capital social collectif et territorialisé, inscrit dans une structuration juridique particulière Ainsi, la territorialisation de la ressource mobilisée dans les actions locales agro-énergétiques procède de la dimension socio-territoriale d'un projet qui rencontre une logique d'organisation multipartenariale, spécifique au territoire.
|
37 |
Hydroclimatic variability and the integration of renewable energy in Europe : multiscale evaluation of the supply-demand balance for various energy sources and mixes / Variabilité hydro-climatique et intégration d'énergies renouvelables en Europe : analyse multi-échelle de l'équilibre production-demande pour différentes sources et combinaisons d'énergiesRaynaud, Damien 08 December 2016 (has links)
Dans un contexte de changement climatique, l'intégration des énergies renouvelables aux systèmes électriques est un enjeu majeur des décennies à venir. Les énergies liées au climat (photovoltaïque, éolien et hydro-électricité) peuvent contribuer à une réduction des émissions de gaz à effet de serre. Cependant, elles sont fortement intermittentes et la production électrique associée peine à répondre à la demande.Cette étude vise à évaluer la faisabilité météorologique du développement d'un système de production électrique basé sur les sources d'énergie liées au climat (CRE - Climate-Related Energy). Nous considérons uniquement leurs variations spatiotemporelles et supposons un équilibre entre production et demande moyennes. Nous avons développé CRE-Mix, une chaîne de modèles permettant de convertir les variables météorologiques en chroniques énergétiques. Cet outil permet l'estimation des fluctuations spatiotemporelles de production et de demande énergétiques résultant de la variabilité hydro-climatique. Pour une sélection de régions en Europe, nous évaluons la facilité d'intégration des CRE en fonctions de leur cohérence temporelle avec la demande. Pour chaque source d'énergie et de multiples mix énergétiques nous estimons successivement (i) le taux de pénétration moyen (PE), qui quantifie la proportion de demande satisfaite sur une longue période et (ii) les caractéristiques des périodes de faible pénétration pour lesquelles le taux journalier de demande satisfaite reste bas pendant plusieurs jours consécutifs. Les résultats montrent que les systèmes basés sur une seule source ont du mal à répondre à la demande et souffrent de longues périodes de faible PE, en raison de leur variabilité temporelle. Cependant, une combinaison d'énergies, l'utilisation de systèmes de stockage ou l'échange d'énergie entre régions, permettent d'augmenter fortement la fiabilité des CRE (PE proche de 100% et rares/courtes périodes de faible pénétration). Cette étude, basée sur 30 ans, a été étendue à l'ensemble de XXème siècle afin d'évaluer les fluctuations basse fréquence des CRE résultant de la variabilité interne du climat. De longues chroniques régionales de production et de demande ont été générées grâce au développement d'une méthode de descente d'échelle statistique basée sur les analogues atmosphériques (SCAMP). Cet outil génère des scénarios météorologiques multivariés physiquement cohérents. Les résultats montrent que les variations basse fréquence des CRE sont influencées par les grandes oscillations océano-climatiques. De plus, on montre que les variations multi-décennales de l'hydro-électricité sont particulièrement importantes avec notamment une différence en PE supérieure à 15% d'une décade à l'autre et des périodes de faible pénétration aux caractéristiques très irrégulières.Enfin, nous évaluons la pertinence de systèmes électriques basés sur les CRE en climat futur. SCAMP permet de produire des scénarios régionaux de variables météorologiques à partir des modèles climatiques issus des simulations CMPI5. Pour les précipitations, les tendances simulées par SCAMP sont en désaccord avec de nombreuses études. L'application de SCAMP en "modèle parfait" semble indiquer que le lien entre les situations atmosphériques de grande échelle et les précipitations totales, mais également convectives et stratiformes, change en climat futur. / In the context of climate change, the integration of renewables in electric power systems is one of the main challenges of the coming decades. Climate-Related-Energy sources (CRE - solar, wind and hydro power) can contribute to reduce the greenhouse gas emissions. However, they exhibit large spatio-temporal fluctuations and the associated intermittent electricity generation often leads to an incomplete supply-demand balance. This study aims to evaluate the meteorological feasibility of developing an electric power system that would only rely on CRE sources. We focus on the multi-scale spatio-temporal fluctuations of these renewables by assuming a balance between mean electricity production and mean energy load. We develop and use CRE-mix, a suite of models able to convert meteorological conditions into CRE time series. It gives an assessment the spatio-temporal fluctuations of power production and energy demand, resulting from the multi-scale hydro-climatic variability. For a set of European regions, we assess the ease of integration of CRE sources, regarding their temporal consistency with energy demand. For each CRE source and multiple CRE mixes, we consider in turn (i) the mean penetration rate (PE), which quantifies the proportion of satisfied demand over a long period and (ii) the characteristics of low penetration periods, defined as sequences of days for which the penetration rate is lower than a given threshold. This study proves that single CRE sources have difficulty to meet the energy demand and suffer from long low penetration periods, due to their multi-scale temporal variations. However, using some integrating factors (multi-sources, storage systems, inter-regions electric power transmission), efficiently improves the reliability of CRE-based power systems with PE rates close to 100% and rare low penetration periods.These analyses, based on a 30-yr period, are extended to the entire 20th century in order to assess the low frequency fluctuations of CRE sources resulting from the internal variability of climate. Long regional series of production and demand, were generated thanks to the development of a statistical downscaling method based on atmospheric analogues (SCAMP). It simulates physically-consistent multivariate series of meteorological parameters. The results demonstrate that these fluctuations are related to some large scale oceano-climatic oscillations. Moreover, the multi-decennial variations of hydro power are particularly large: changes in PE rates exceeding 15% from one decade to the other and uneven energy droughts characteristics.Finally, we evaluate the relevance of the CRE sources under future climate conditions. SCAMP is used to produce downscaled projections of meteorological drivers of CRE sources for the 21st century from a selection of CMIP5 climate models. The resulting scenarios for precipitation are not consistent with other studies focusing of the future modifications of this variable in Europe. The application of SCAMP in a perfect-model approach seems to indicate that the large-scale-meteorology/local-precipitation relationship is changing in the course of the 21st century, for all total, convective and stratiform precipitation.
|
38 |
Modeling of the emission of active galactic nuclei at Fermi's era / Modélisation de l'émission des noyaux actifs de galaxie à l'ère FermiVuillaume, Thomas 16 October 2015 (has links)
Les noyaux actifs de galaxie (NAG) sont les objets les plus énergétiques de l'univers. Cette incroyable puissance provient de l'énergie gravitationnel de matière en rotation autour d'un trou noir super-massif siégeant au centre des galaxies. Environ 10% des NAG sont pourvus de jets relativistes émanant de l'objet central (trou noir et matière environnante) et s'étalant sur des échelles de l'ordre de la galaxie hôte. Ces jets sont observés à toutes les longueurs d'ondes, de la radio aux rayons gamma les plus énergétiques. En dépit de nombreuses études et d'instruments de plus en plus précis depuis leur découverte dans les années 1950, les NAG sont encore très mal compris et la formation, la composition et l'accélération des jets sont des questions encore pleinement ouvertes. Le modèle le plus répandu visant à reproduire l'émission des NAG, le modèle "une zone" repose souvent sur des hypothèse ad-hoc et ne parvient pas à apporter une modélisation satisfaisante.Le paradigme du "two-flow" (deux fluides) développé à l'IPAG et basé sur une idée originale de Sol et al (1989) a pour but de fournir une vision unifiée et cohérente des jets de NAG. Cette théorie repose sur une l'hypothèse principale que les jets seraient en fait composés de deux fluides co-axiaux: une colonne centrale composée d'un plasma purement leptonique (électrons/positrons) se déplaçant à des vitesses relativistes et responsable pour la grande partie de l'émission non thermique observée entourée par une enveloppe composée d'un plasma baryonique (électrons/protons), régie pas la magnéto-hydrodynamique, se déplaçant à des vitesses sous-relativistes mais transportant la majorité de l'énergie. Cette hypothèse est basée sur des indices observationnels ainsi que sur des arguments théoriques et permet d'expliquer nombre des caractéristiques des NAG.Afin d'étudier plus en profondeur le paradigme du two-flow, un modèle numérique basé sur ses concepts et produisants des observables comparables aux observations est nécessaire.Durant ma thèse, j'ai participé au développement de ce modèle, m'intéressant notamment à la diffusion Compton inverse de photons provenant de l'extérieur du jet. Ce processus, primordial dans la modélisation des NAG, est aussi central dans le paradigme du two-flow car il est à l'origine de l'accélération de la colonne via l'effet fusée Compton. Pour cela, j'ai du développer des nouvelles approximations analytiques de la diffusion Compton d'une distribution thermique de photons.En m'intéressant à l'effet fusée Compton, j'ai pu montré que dans le champ de photon thermique d'un NAG, le facteur de Lorentz d'ensemble du plasma pouvait être sujet à des variations le long du jet en fonction de la distance à l'objet central. Ces variations peuvent avoir un effet important sur l'émission observée et peuvent induire de la variabilité spatiale et temporelle. J'ai également montré que les facteurs de Lorentz terminaux obtenus étaient compatibles avec les conditions physiques attendus dans les jets et avec les observations.Le modèle complet produit des DES directement comparables aux observations. Néanmoins, le modèle est par nature erratique et il est quasiment impossible de relier directement les paramètres du modèles avec les DES produites. Malheureusement, les procédures standards d'adaptation automatique aux données (e.g. basé sur les méthodes de gradient) ne sont pas adaptées au modèle à cause de son grand nombre de paramètres, de sa non-linéarité et du temps de calcul important. Afin de palier à ce problème, j'ai développé une procédure d'adaptation automatique basée sur les algorithmes génétiques. L'utilisation de cet outil a permis la reproduction de plusieurs DES par le modèle. J'ai également montré que le modèle était capable de reproduire les DES observées avec des facteurs de Lorentz d'ensemble relativement bas, ce qui pourrait potentiellement apporter une harmonisation entre les observations et les nécessités théoriques. / Active galactic nuclei (AGN) are the most energetic objects known in the universe. Their fantastic energy is due to efficient conversion of gravitational energy of mass accreted on super-massive black-holes at the center of galaxy into luminous energy. 10% of AGN are even more incredible as they display relativistic jets on galaxy scales. Those jets are observed at all energies, from far radio to highest gamma-rays. Despite intense study since their discovery in the 50's and more and more observations, favored by rapid progress in instrumentation, AGN are still widely misunderstood. The questions of formation, composition, and acceleration of jets are central but still a matter of debates. Models aiming at reproducing observed emission have been developed throughout the years. The most common one, the one-zone model, often relies on ad hoc hypothesis and does not provide a satisfactory answer.The two-flow paradigm developed at IPAG and based on an original idea from Sol et al (1989) aims at giving a more coherent and physical representation of AGN jets. The principal assumption is that jets are actually composed of two coaxial flows: an inner spine made of a pure pair plasma, moving at relativistic speed and responsible for the non-thermal observed emission surrounded by an external sheath, made of a baryonic MHD plasma, midly relativistic but carrying most of the power. The two-flow paradigm finds roots in observations as well as theoretical arguments and has been able to explain many AGN features.During my PhD, I studied this paradigm and contributed to the development of a numerical model based on its concepts. I have been particularly interested in the inverse Compton scattering of thermal photons, fundamental process in the modeling of AGN emission, as well as the Compton rocket effect, key to the acceleration of the spine in the two-flow paradigm.However, taking into account the inverse Compton emission, with the complete cross-section (including the Klein-Nishina regime) and the anisotropy can be very time consuming. To accomplish fast and efficient computation of the external Compton emission, I have had to formulate new analytical approximations of the scattering of a thermal distribution of photons.I have also studied the Compton rocket effect, responsible for the acceleration of the inner spine in the two-flow paradigm. I showed that the resulting bulk Lorentz factor of the flow in the complex photon field of an AGN is subject to variations along the jet as a function of the distance to the central engine. These variations can have drastic effects on the observed emission and could induce variability, both spatially and temporally.I also showed that the terminal bulk Lorentz factor obtained are compatible with physical conditions expected in jets and with observations.The complete model produce spectral energy distribution (SED) comparable to observed ones. However, the model is by nature erratic and it is difficult to make a direct link between the model parameters (input) and the SED (output). Unfortunately, standard data fitting procedures (e.g. based on gradient methods) are not adapted to the model due to its important number of parameters, its important computing time and its non-linearity. In order to circumvent this issue, I have developed a fitting tool based on genetic algorithms. The application of this algorithm allowed me to successfully fit several SED. In particular, I have also showed that the model, because based on a structured jet model, can reproduce observations with low bulk Lorentz factor, thus giving hope to match observations and theoretical requirements in this matter.
|
39 |
Nanoparticules et rayonnement synchrotron pour le traitement des tumeurs cérébrales / Nanoparticles and Synchrotron Light for Brain Tumors TherapyTaupin, Florence 10 July 2013 (has links)
Le traitement des gliomes de haut grade constitue aujourd'hui encore un réel enjeu médical. Les techniques actuellement disponibles sont principalement palliatives et permettent d'augmenter la survie des patients de quelques mois seulement. Une technique innovante de radiothérapie consiste à renforcer la dose déposée dans la tumeur grâce à l'injection d'atomes lourds de manière spécifique dans celle-ci au préalable d'une irradiation de photons de basse énergie (50-100 keV). Cette technique a fait l'objet d'essais précliniques et maintenant d'essais cliniques de phases I et II sur la ligne médicale du synchrotron Européen dont le rayonnement monochromatique et intense est particulièrement adapté pour l'application. L'utilisation d'un agent de contraste (AC) iodé (Z=53) injecté par voie veineuse permet d'améliorer le bénéfice de la radiothérapie mais n'est cependant pas suffisante pour l'élimination complète de la tumeur. En effet, l'accumulation passive d'atomes lourds dans la tumeur n'est pas assez importante et le caractère extracellulaire d'un AC ne maximise pas l'efficacité biologique de l'irradiation. Les nanoparticules (NPs) métalliques apparaissent comme un moyen efficace pour repousser ces limites. Dans le cadre de cette thèse, des études ont été conduites sur la lignée cellulaire de gliome F98 afin de caractériser la toxicité et l'internalisation de trois types de nanoparticules différents : nanoparticules de gadolinium (GdNPs 3 nm), d'or (AuNPs 13 nm) et de platine (PtNPs 6 nm). La survie cellulaire a également été évaluée après différentes conditions d'irradiation de photons monochromatiques en présence de ces nano-objets. La dépendance de la réponse cellulaire à l'énergie du rayonnement incident ainsi qu'à la distribution subcellulaire des NPs a permis de mettre en évidence plusieurs mécanismes mis en jeu dans ce traitement. A concentration identique, les NPs diminuent la survie cellulaire de manière plus importante qu'un AC, validant ainsi l'intérêt microdosimétrique des NPs. L'effet est préférentiel à basse énergie (keV) indiquant que la photoactivation des atomes lourds est en partie responsable la réponse cellulaire. Par ailleurs, les GdNPs et les PtNPs se sont aussi montrées efficaces pour diminuer la survie cellulaire en combinaison à une irradiation à haute énergie (1.25 MeV) indiquant qu'un mécanisme de radiosensibilisation différent de la photoactivation intervient également. Les études précliniques, ont montré que le recouvrement complet de la tumeur par les NPs constitue un point clé pour garantir le bénéfice thérapeutique du traitement. Dans cette optique, une méthode de tomographie à deux énergies développée au synchrotron, a été caractérisée dans le cadre de ce travail. L'étude a permis d'imager de manière quantitative et simultanée la tumeur (mise en évidence par un AC iodé) et son recouvrement par des GdNPs (injectées par voie directe) chez le rongeur porteur d'un gliome. La correspondance entre la distribution de l'AC et la tumeur a également été étudiée à l'aide de techniques d'imagerie à haute résolution (IRM, tomographie X par contraste de phase et histologie). / Gliomas treatment is still a serious challenge in medicine. Available treatments are mainly palliative and patients' survival is increased by a few months only. An original radiotherapy technique consists in increasing the dose delivered to the tumor by loading it with high Z atoms before an irradiation with low energy X-rays (50-100 keV). Preclinical studies have been conducted using iodine contrast agent (CA) (Z=53) and 50 keV X-rays. The increase of the animals' survival leads today to the beginning of clinical trials (phases I and II) at the medical beamline of the European synchrotron, where the available monochromatic and intense photons beam is well suited for this treatment. The use of intravenously injected CA is however insufficient for curing rat's bearing glioma. Indeed, the contrast agent's accumulation is limited by the presence of the BBB and it remains extracellular. Metallic nanoparticles (NPs) appear interesting for improving the treatment efficacy. During this work, three different types of NPs have been studied: GdNPs (3 nm), AuNPs (13 nm) and PtNPs (6 nm). Their toxicity and internalization have been evaluated in vitro on F98 rodent glioma cells. Cells' survival has also been measured after different irradiation conditions in presence of these NPs and with monochromatic photons beams. Several mechanisms implicated in the treatment have been highlighted by the study of the cells' response dependence to the incident particles energy and to the sub cellular NPs distribution during irradiation. For identical concentrations, NPs were more efficient in cells killing than CA, illustrating their microdosimetric potential. The effect was also preferential for low energy X-rays, indicating that photoactivation of heavy atoms plays a role in the cells' death. GdNPs and PtNPs have also lead to an effect in combination to high energy photons (1.25 MeV), indicating that another mechanism may also increase the cell sensitivity to radiations with such NPs. Preclinical trials, performed on rats bearing F98 glioma, have shown that the complete tumor's overlap with NPs is a key point for the success of this treatment. Dual energy computed tomography (CT) has been developed at the synchrotron medical beamline and evaluated during this PhD thesis. The study has allowed quantitatively and simultaneously imaging the tumor (highlighted by iodinated CA) and the GdNPs distribution injected intracerebrally in rodents bearing glioma. The comparison between the CA distribution and the tumor's volume has also been performed using high spatial resolutions imaging methods (MRI, X-rays phase contrast tomography and histology).
|
40 |
Étude du système électronique pour le projet du HL-LHC et recherche de nouvelle physique dans le spectre de masse invariante top anti-top au sein de l’expérience CMS du LHC / Study of electronic trigger system for HL-LHC project and search new physics in top anti-top invariante spectrum with CMS experience at LHCBeaupère, Nicolas 19 September 2012 (has links)
Ce manuscrit décrit mon travail de thèse au sein de l’expérience CMS du collisioneur LHC. Il présente les deux sujets sur lesquels j’ai travaillé : un sujet orienté détecteur et un sujet orienté analyse de données. Le premier sujet, orienté détecteur, se situe dans le cadre du projet HL-LHCqui prévoit une augmentation de la luminosité instantanée d’un facteur cinq. Une telle augmentation et la conservation du système de haut niveaudu déclenchement (HLT), engendre de nouvelles contraintes sur le détecteurCMS. Notamment au niveau du système de déclenchement électronique. Lacollaboration CMS envisage d’implanter ce dernier au sein du détecteur detraces. Deux méthodes de déclenchement sont proposées : la méthode des modules empilés et la méthode des mémoires associatives. La méthode desmémoires associatives necessite toutefois une présélection intéligente des signauxélectriques pour être utilisable. La méthode de la largeur des amas estproposée conjointement par l’équipe de Fabrizio Palla (Pise) et par l’équipede Didier Contardo (IPNL) pour présélectionner les signaux. L’optimisation de cette méthode, en particulier des paramètres géométriques des modules etdes seuils appliqués pour la présélection des signaux électrique, est le résultatde mon travail. Il est détaillé tout au long de la partie III de ce manuscrit. Le deuxième sujet concerne l’analyse des données récoltées par CMS durant l’année 2011. Cette analyse a pour objectif de rechercher de nouvellesparticules dans le spectre de masse invariante top anti-top. De par sa grande masse, proche de la brisure électrofaible, le quark top joue un rôle prépondérantdans de nombreuses extensions du Modèle Standard. L’observation de résonances étroites dans le spectre pourrait en être le signe. L’analyseest subdivisée en trois parties : la sélection des évènements top anti-top, la reconstruction de la masse invariante top anti-top et une étude statistique pour quantifier la présence de nouvelle physique. Les résultats de ce travailsont des limites sur la section efficace de production de nouvelles particules.Ils sont présentés dans la partie IV du manuscrit. / This manuscript describes my thesis work within the CMS experiment ofthe LHC collider. It presents both subjects on which I worked : a detectorsubject and a data analysis subject. The first subject, detector, is situated within the framework of the HL-LHCproject which plans an increase by a factor five the instantaneous luminosity.Such an increase and the preservation of the high level trigger (HLT)system, generate new constraints on the CMS detector. This is particularly true for the electronic trigger (L1) system. The CMS collaboration intends to implant this within tracker detector. Two methods are proposed : the stubmodules method and the associative memorie method. However, associativememorie method require a clever preselection of electric signals to be usable.The cluster width method is jointly proposed by Fabrizio Palla’s team (Pisa) and by Didier Contardo’s team (IPNL) to preselecte electric signals. The optimization of this method, in particular geometrical parameters of modules and thresholds applied for the electric signals preselection, is the result of myown work. It is detailed throughout the part III of this manuscript. The second subject concerns the analysis of data collected by CMS during 2011. This analysis has for objective to look for new particles in the spectreof anti-top top invariant mass. Due to its big mass, close to the electroweak symmetry breaking energy, the top quark plays a important role in numerous extensions of the Standard Model. The observation of narrow resonances in the spectre could be the sign of new particles. The analysis is subdivided into three parts, the selection of top anti-top events, the reconstruction of top anti top invariant mass and a statistical study to quantify the presence of new physics. The results of this work are limits on the cross-section productionof new particles. They are presented in the part IV of this manuscript.
|
Page generated in 0.0517 seconds