171 |
Suivi et évaluation de la pêche professionnelle au sein d'une Aire Marine Protégée : protocoles d'enquêtes et indicateurs de pression et d'impact. Application au Parc Marin de la Côte Bleue.Leleu, Kevin 30 March 2012 (has links)
La surexploitation des ressources halieutiques a conduit à une crise majeure du secteur de la pêche professionnelle. Dans ce contexte, les pêcheries artisanales, et notamment les pêcheries aux petits métiers côtiers, apparaissent comme des modes d'exploitation potentiellement durables des ressources côtières. La diversité des engins utilisés et des espèces ciblées rend néanmoins complexe le suivi de cette composante importante de la pêche professionnelle. L'activité de pêche artisanale reste ainsi très peu évaluée en Méditerranée, et notamment à l'échelle d'une Aire Marine Protégée (AMP). Les AMP sont pourtant de plus en plus utilisées comme des outils de gestion de ces pêcheries, les effets des différentes mesures de gestion mises en place étant à même de bénéficier aux pêcheurs professionnels. A l'heure où le nombre d'AMP se multiplie, il apparaît alors nécessaire pour les gestionnaires comme pour les scientifiques de disposer d'indicateurs permettant de suivre l'activité de pêche professionnelle sur le territoire d'une AMP, et d'évaluer les effets de la gestion sur cette activité. Un protocole d'enquête pour le suivi de la pêche artisanale aux petits métiers côtiers a ainsi été mis en place entre juillet 2009 et juin 2010 au sein du Parc Marin de la Côte Bleue (PMCB), AMP méditerranéenne française comprenant deux réserves marines d'âge et de taille différents. Les données récoltées ont permis d'identifier sept métiers principaux pratiqués par les pêcheurs du PMCB, et de les caractériser par un groupe d'espèces cibles, un engin, un territoire et une période de pêche. L'effort de pêche et les captures ont alors pu être estimés à partir de ces métiers. / The overexploitation of fishery resources has led to a major fisheries crisis. In this context, artisanal fisheries, and in particular small-scale coastal fisheries, appear as relevant alternatives for a sustainable use of coastal resources. But the diversity of fishing gears and targeted species diversity make it difficult to assess this important component of the commercial fishery. Hence, the activity of small-scale artisanal fishing remains poorly known in the Mediterranean Sea and few studies focus on an assessment of this activity at the scale of a Marine Protected Area (MPA). MPAs are yet more and more used as management tools for these fisheries, as protection effects and targeted access regulations may benefit to commercial fishers. As many MPAs are going to be established in the short term, it seems necessary for managers and for scientists, to have indicators to monitor the artisanal small-scale coastal fishing activity within an MPA, and to estimate the effects of MPA management on this activity. A field protocol was defined and implemented between July 2009 and June 2010 within the Parc Marin de la Côte Bleue (PMCB), a French Mediterranean MPA including two marine reserves of different age and size. The collected data allowed identifying seven main métiers within the PMCB, and characterizing them by group of target species, type of gear, fishing grounds and fishing periods. Fishing effort and catch were estimated. In the Côte Bleue area, 3 512 fishing trips and 4645 fishing operations were performed by 30 active boats during the studied period, for a total of 10 300 km of immersed nets.
|
172 |
Etude par modélisation numérique de la qualité de l’air en Europe dans les climats actuel et futur / Numeral modeling study of European air quality in current and future climatesLacressonnière, Gwendoline 19 December 2012 (has links)
Cette thèse porte sur l’étude de l’évolution de la qualité de l’air en Europe et en France dans les prochaines décennies à l’aide de simulations numériques. Dans les études des impacts de l’évolution du climat sur la qualité de l’air, les modèles de chimie atmosphérique utilisent des sorties de modèles climatiques globaux ou régionaux qui fournissent les « forçages », c’est-à-dire les conditions météorologiques simulées pour les périodes futures. Contrairement aux analyses météorologiques, qui représentent la variabilité jour à jour du temps, les sorties des modèles de climat doivent nécessairement être interprétées de manière statistique : elles ne représentent la météorologie que dans un sens climatologique. Afin de pouvoir commenter utilement les simulations futures de qualité de l’air, il est nécessaire d’évaluer au préalable et pour le climat présent, la qualité des simulations calculées avec des forçages climatiques par rapport aux références que constituent les simulations calculées avec des forçages analysés et, bien entendu, les observations. Trois simulations pluri-annuelles (6 ans) ont été lancées pour la période actuelle (2000-2010) et ont été comparées ; elles différent par l’utilisation d’analyses météorologiques ou de forçages de modèle de climat (pour les paramètres atmosphériques seuls et par ailleurs, pour les paramètres atmosphériques et le calcul des échanges en surface) en entrée du modèle de chimie-transport tridimensionnel de Météo-France, MOCAGE. Nous avons évalué ces différentes simulations par comparaison aux observations de la base de données européenne AirBase. Nous avons ensuite comparé les performances de ces simulations pour un grand nombre de scores quantitatifs, en analysant d’une part les effets liés aux champs météorologiques (température, vent, humidité, etc.) et d’autre part, ceux liés aux échanges en surface (comme les vitesses de dépôts, les émissions biogéniques) qui dépendent également de la météorologie. Nous avons ainsi évalué comment ces changements affectent les distributions horizontales et verticales des polluants. In fine, nous avons caractérisé la fiabilité des simulations de qualité de l’air reposant sur des forçages issus de modèles climatiques pour le climat présent : des indicateurs (biais moyens, biais moyens normalisés, RMSE, déviations standards) et des index de qualité de l’air (comme le dépassement de seuils) se distinguent et peuvent donc servir de base fiable pour l’interprétation des résultats pour les simulations du futur. Enfin dans une troisième partie, ces indicateurs considérés comme pertinents ont été utilisés pour étudier des simulations de qualité de l’air aux horizons 2030 et 2050 (5 ans). Comme attendu, l’évolution des paramètres météorologiques (température, précipitation, vent) modifie les quantités et la dispersion des polluants dans l’atmosphère, mais l’évolution des émissions en Europe et dans le reste du monde joue aussi un rôle important. Ainsi, face à l’évolution du climat et la hausse des émissions dans certains pays du monde, en Asie notamment, les effets des politiques Européennes pour réduire les émissions anthropiques sont mitigés selon les régions et les polluants, dépendant de l’influence relative des phénomènes locaux et du transport de polluant à longue distance. / This thesis aims at predicting how European and French air quality could evolve over the next decades using numerical modeling. In order to study the impacts of climate change up on regional air quality, atmospheric chemistry models rely on global or regional climate models to produce “forcings”, i.e. meteorological conditions for future periods. Unlike meteorological analyses, which can represent specifically each date and hour thanks to the assimilation of observations, climate model outputs need to be averaged and can only be interpreted in a climatological sense. And so are air quality hindcasts relying on them for their forcings. In order to properly interpret air quality simulations in a future climate, it is a pre-requisite to assess how realistic air quality hindcasts are when driven by forcings from climate models for the current period in comparison to the references, which are simulations with the same set-up but relying on meteorological analyses and observations. Three six-year simulations for the current climate (2000-2010) have been run with the three-dimensional chemistry transport model of Météo-France, MOCAGE. These simulations only differ by the meteorological forcings used, either operational meteorological analyses or outputs from climate simulations (for atmospheric parameters only ; for atmospheric parameters as well as surface exchanges, which depend also on the weather). We compared the three simulations and evaluated them against the European air quality database of the European Environment Agency, AirBase. Further, we investigated how statistical skill indicators compare in the different simulations, assessing the effects of meteorology on atmospheric fields (temperature, wind, humidity,...) and on the dependent emissions and deposition processes (such as deposition velocities, volatile organic compound emissions, ...) that depend upon meteorology. We have in particular studied how these factors affect the horizontal and vertical distributions of species. In the end, we have estimated how reliable are skill indicators for the simulations run with “climate” forcings : some indicators (mean bias, mean normalized bias, RMSE, deviation standards, number of exceedance days) are sufficiently close to the ones obtained with the reference configuration (relying on analysed meteorological forcings) to be considered reliable. They can thus be used to interpret simulations for future periods. We have run simulations of European air quality in the 2030s and 2050s (5 years for each period). They are discussed using the indicators previously indentified. As expected, the changes in meteorological parameters (temperature, precipitation, wind, ...) affect the quantities and distributions of pollutants in the atmosphere, but the future evolutions in European and global emissions also play a significant role. Faced with climate change and increased emissions in some countries in the world, as in Asia, the impacts of European policies for reducing anthropogenic emissions are mitigated, depending on the regions and the pollutants due to the respective influence of local emission and of long-range transport of pollutants.
|
173 |
Lien entre paramètres opératoires, micro-organismes et performances de la digestion anaérobie par voie sèche / Link between process parameters, micro-organisms and performance of dry anaerobic digestionAbbassi-Guendouz, Amel 06 April 2012 (has links)
La digestion anaérobie est un processus de transformation de la matière organique en biogaz riche en méthane. Les déchets solides sont le plus souvent traités par une technologie par voie sèche qui est caractérisée par des teneurs en matières sèches supérieures à 20%. Du fait de la faible teneur en eau, la digestion sèche présente de nombreuses inconnus scientifiques, tant au niveau microbiologique et physico-chimique. Le but de cette thèse est de comprendre l'influence des parametres opératoires spécifiques à la digestion anaérobie par voie sèche sur les performances et le comportement des communautés microbiennes de ce processus. Les résultats obtenus montrent que l'augmentation de la teneur en matières sèches au-delà de 30% et la diminution de la surface spécifique d'échange ont un effet négatif sur le processus de digestion anaérobie. En effet lorsque la teneur en matière sèche est supérieure à 30%, le transfert des gaz dissous du milieu réactionnel vers le ciel gazeux peut limiter la méthanisation. L'analyse des populations microbiennes montre la présence de bio-indicateurs bactériens liés au non fonctionnement de la digestion anaérobie. Ces bio-indicateurs sont des clostridium et sont présents quel que soit l'inoculum utilisé. L'étude des populations méthanogènes montre une sensibilité de ces microorganismes à leur environnement : des shifts de populations méthanogènes ont été observés en fonction de la concentration en matières sèches. Ce travail a permis d'accroître les connaissances dans le domaine de la digestion anaérobie sèche, ces connaissances pouvant contribuer à améliorer les performances des procédés. / Anaerobic digestion is the transformation of organic matter into biogas rich in methane. Solid waste is treated by dry anaerobic digestion process with a total solid content higher than 20%. The high solids content make the process difficult to control. The aim of this work is to study the influence of operating parameters specific to dry anaerobic digestion on performances and behavior of microbial communities. The results show that increasing the solids content higher than 30% and decreasing the specific surface area of change have a negative effect on the anaerobic digestion process. Indeed, when the solids content exceeds 30%, the transfer of dissolved gas from the reaction mixture to the headspace can limit anaerobic digestion. The analysis of microbial populations demonstrates the presence of bacterial bio-indicators related to no-functioning anaerobic digestion. These bio-indicators correspond to the clostridium genus and are present regardless of the inoculum source. The study of methanogenic Archaea shows a sensitivity of these microorganisms. Shifts in the methanogenic populations related to the concentration of total solids were observed. This work has improved the fundamental knowledge of dry anaerobic digestion which can help improve the performance of this process.
|
174 |
Les données de routine des séjours d’hospitalisation pour évaluer la sécurité des patients : études de la qualité des données et perspectives de validation d’indicateurs de la sécurité des patients / Routine data from hospital stays for assessing patient safety : studies on data quality and Patient Safety Indicators validation prospectsJanuel, Jean-Marie 22 December 2011 (has links)
Évaluer la sécurité des patients hospitalisés constitue un enjeu majeur de la gestion des risques pour les services de santé. Le développement d’indicateurs destinés à mesurer les événements indésirables liés aux soins (EIS) est une étape cruciale dont le défi principal repose sur la performance des données utilisées. Le développement d’indicateurs de la sécurité des patients – les Patient Safety Indicators (PSIs) – par l’Agency for Healthcare Research and Quality (AHRQ) aux Etats Unis, utilisant des codes de la 9ème révision (cliniquement modifiée) de la Classification Internationale des Maladies (CIM) présente des perspectives intéressantes. Nos travaux ont abordé cinq questions fondamentales liées au développement de ces indicateurs : la définition du cadre nosologique, la faisabilité de calcul des algorithmes et leur validité, la qualité des données pour coder les diagnostics médicaux à partir de la CIM et leur performance pour comparer plusieurs pays, et la possibilité d’établir une valeur de référence pour comparer ces indicateurs. Certaines questions demeurent cependant et nous proposons des pistes de recherche pour améliorer les PSIs : une meilleure définition des algorithmes et l’utilisation d’autres sources de données pour les valider (i.e., données de registre), ainsi que l’utilisation de modèles d’ajustement utilisant l’index de Charlson, le nombre moyen de diagnostics codés et une variable de la valeur prédictive positive, afin de contrôler les variations du case-mix et les différences de qualité du codage entre hôpitaux et pays. / Assessing safety among hospitalized patients is a major issue for health services. The development of indicators to measure adverse events related to health care (HAE) is a crucial step, for which the main challenge lies on the performance of the data used for this approach. Based on the limitations of the measurement in terms of reproducibility and on the high cost of studies conducted using medical records audit, the development of Patient Safety Indicators (PSI) by the Agency for Healthcare Research and Quality (AHRQ) in the United States, using codes from the clinically modified 9th revision of the International Classification of Diseases (ICD) shows interesting prospects. Our work addressed five key issues related to the development of these indicators: nosological definition; feasibility and validity of codes based algorithms; quality of medical diagnoses coding using ICD codes, comparability across countries; and possibility of establishing a benchmark to compare these indicators. Some questions remain, and we suggest several research pathways regarding possible improvements of PSI based on a better definition of PSI algorithms and the use of other data sources to validate PSI (i.e., registry data). Thus, the use of adjustment models including the Charlson index, the average number of diagnoses coded and a variable of the positive predictive value should be considered to control the case-mix variations and differences of quality of coding for comparisons between hospitals or countries.
|
175 |
Moderniser l’homme par les chiffres : mesures et démesure de la « société de la connaissance » (1945-2012) : Une sociologie critique de la quantification / The Modernization of Man by Numbers : Measures and Excess of the “Knowledge Society” (1945-2012) : A Sociological Critique of QuantificationTréhin-Lalanne, Rémi 07 June 2013 (has links)
Cette enquête prend pour point de départ l'adoption en 2000 d'indicateurs et de cibles chiffrées par l'Union Européenne pour comparer et stimuler les performances des systèmes éducatifs de ses États-membres. Elle suit, étape par étape, la chaîne de fabrication et de diffusion de cette information statistique. Ces outils de gouvernement se développent au sein d'institutions internationales créées après la Seconde Guerre Mondiale (UNESCO et OCDE) et visent à concilier harmonie sociale et prospérité matérielle par une plus grande adaptation de l'école aux exigences du monde industriel. Cette politique par les chiffres repose désormais sur un vaste appareillage qui s'étend sous l'effet de la multiplication des données qu'il génère. Son essor connaît une accélération avec le développement des technologies numériques qui facilitent la saisie de nouvelles informations quantifiables directement auprès des écoles et dans les classes. Assurant une plus grande traçabilité des trajectoires scolaires et une évaluation plus régulière des établissements et des individus, elles sont utilisées à la fois par les administrations et par les experts en sciences humaines, pour améliorer l'éducation et sa gestion. Promues comme instruments pédagogiques, elles doivent rendre la pratique des enseignants plus efficace en leur permettant d'évaluer, classer et hiérarchiser leurs élèves et leurs difficultés. Entendue comme activité de mise en chiffres de réalités qui ne l'étaient pas auparavant, la quantification est ici appréhendée dans sa triple dimension administrative, scientifique et industrielle, afin de comprendre les origines de cette avalanche de nombres et ses effets sur nos démocraties. / The starting point of this study is the adoption by the European Union in 2000 of numerical indicators and benchmarks to compare and stimulate the performance of the education systems of Member States. It looks closely at the processing of this statistical information during both fabrication and diffusion. These tools for government have been developed within the international institutions created after the Second World War (UNESCO, OECD) in an attempt to combine material well being and social harmony by shaping education to meet the challenges of the industrial world. This policy of reliance on numbers has created an increasingly voluminous structure, in permanent expansion as it generates new data. Its growth has been fuelled by digital technologies that facilitate the direct collection of data in schools and classrooms. Because they increase the traceability of school careers and allow for more regular evaluation of schools and students, these tools are used by both management and social science researchers to improve education and administration. Presented as teaching aids, they are designed to improve teachers' performance by allowing them to evaluate, classify and grade both their students and their difficulties. The phenomenon of quantification, by which we mean the activity of giving numerical expression to realities not previously expressed in this way, is considered here from three points of view - administrative, scientific and industrial - in order to provide an understanding of the origins of the avalanche of numbers and its effects on the vitality of our democracies and their inhabitants.
|
176 |
Prise en compte des acteurs de la chaîne de valeur dans l’analyse de la performance environnementale pour éco-concevoir et inciter à une éco-utilisation : cas appliqué aux produits consommateurs d’énergie unités de réfrigération pour le transport routier. / Consideration of value chain actors in the analysis of environmental performance for eco-design and incentive for sustainable behavior : case study of energy-using products road transport refrigeration unitsHeslouin, Charlotte 11 December 2017 (has links)
Pour mettre en place des stratégies d’écoconception, il est nécessaire d’évaluer la performance environnementale. L’emploi d’Indicateurs de Performance Environnementale (IPE) est un bon moyen pour y parvenir. Ces IPE doivent être adaptés aux différents acteurs de la chaine de valeur, internes et externes à l’entreprise, susceptibles d’être impliqués dans l’amélioration de la performance environnementale pour qu’ils soient efficaces. Ces différents acteurs ont des besoins différents en matière d’information (détails, type d’information) et ces besoins peuvent être contradictoires. Nous proposons, dans ces travaux, une méthode de sélection des IPE prenant en compte les acteurs de la chaîne de valeur et leurs besoins. Une fois les IPE définis, ils doivent permettre d’évaluer la situation, de définir des stratégies d’écoconception et de suivre l’évolution de la performance environnementale. Pour certains produits consommateurs d’énergie en phase d’utilisation, le scénario d’usage peut faire varier de manière importante la performance environnementale. Un focus est donc fait sur la mise en place de stratégies d’éco-utilisation. Il est nécessaire que les stratégies mises en place permettent aux clients/utilisateurs de diminuer leurs impacts environnementaux et à l’entreprise de prendre un avantage concurrentiel tout en améliorant la performance environnementale de ses produits. Dans ces travaux, cela se traduit par : 1) l’adaptation d’outils d’écoconception existant pour l’intégration des acteurs de la chaîne de valeur ; 2) la définition d’une méthode de diagnostic personnalisé de l’usage des produits. Ces méthodes ont été appliquées et validées sur le cas d’étude des unités de réfrigération pour le transport routier à température dirigée. / To implement ecodesign strategies, it is necessary to evaluate the environmental performance. The use of Environmental Performance Indicators (EPI) is a good way to achieve this. These EPI, to be effective, must be adapted to the various value chain actors, internal and external to the company, susceptible to be involved in the improvement of the environmental performance. These different actors have different needs regarding information (details, type of information) and these needs may be contradictory. In this work, we propose a method for selecting EPI that take into account the value chain actors and their needs. Once the EPI have been defined, they must be able to assess the situation, define ecodesign strategies and monitor the evolution of environmental performance. For some energy-using products, the usage scenario can significantly vary the environmental performance. A focus is thus put on the development of sustainable behavior strategies. It is necessary that the strategies put in place allow customers/users to reduce their environmental impact and that the company takes a competitive advantage while improving the environmental performance of its products. In this study, this is reflected in: 1) the adaptation of existing ecodesign tools for the integration of value chain actors; 2) the definition of a method of personalized diagnosis of the use of products. These methods have been applied and validated by the case study of road transport refrigeration units.
|
177 |
Le pouvoir des banques centrales face aux défis des marchés financiers / The stance of central banks vis-à-vis financial marketsBakhit, Salma 23 June 2014 (has links)
La thèse se propose, dans une première partie, de décrire l'origine des débats sur la nécessité d'une banque centrale jusqu'aux formulations actuelles. Sont examinés les éléments qui ont posé les bases d'un prêteur ultime et favorisé la maturation de ce métier, de même que sont mis en relief les résultats accumulés depuis deux siècles. Notre attention porte sur la Réserve Fédérale des Etats-Unis. Les économistes sont en quête de solutions afin de prévenir les crises financières. Ainsi a été proposé un élargissement du tableau de bord de manière à contenir les prix d'actif dans une approche macro et micro-prudentielle. Parallèlement, sont analysés les canaux par lesquels la politique monétaire influence les variables réelles et financières de l'économie, et qui attestent alors du rôle pouvant être théoriquement assumé par la banque centrale sur les marchés financiers. La deuxième partie concentre le propos sur les ressorts des crises financières. Nous nous intéressons au paradoxe de la surliquidité et du surendettement, en insistant sur les particularités des marchés financiers devenant plus vulnérables. La contribution de la thèse dans cette étape consiste à vérifier si la banque centrale contribue à la manifestation de comportements abusifs et excessifs sur les marchés financiers par l'abondante création de liquidité. Notre étude empirique devrait permettre de répondre à cette question à travers une modélisation économétrique et des tests statistiques (dont le test de Chow) appliqués à une politique monétaire active (type règle de Taylor). En ce sens, cette recherche sur les actions de la Fed vise à forger une opinion sur le métier de banquier central et sur son devenir. / The thesis proposes, in a first part, to describe the origin of the debate on the need for a central bank up until the recent formulations. They were examined the elements which have posed the bases of an "ultimate lender" and promoted the maturation of this function, as were highlighted the results accumulated over two centuries. Our attention is drawn to the Federal Reserve of the United States. The economists are always in search for solutions to prevent financial crises. It has thus been proposed to extend the dashboard of central banks as to contain asset prices in a macro and micro-prudential approach. In parallel, in order to support this debate, we analyze the mechanisms by which the monetary policy affects the real and financial variables of the economy, which also affirm the role that can be assumed in theory by a central bank on financial markets. The second part focuses on the recurrence and intensity of financial crises. We consider the paradox of excess liquidity and over-indebtedness, with an emphasis on properties of financial markets becoming more vulnerable and their recent development. The contribution of the thesis in this stage consists of checking whether the central bank is responsible of abusive and excessive behavior on the financial markets by the abundant creation of liquidity. Our empirical study should help to answer this question through an econometric modeling and statistical tests (including the Chow test) applied to an active monetary policy (type Taylor rule). In this way, our research on the actions of the Fed aims to forge an opinion on the profession of modern central bankers, and perhaps on the future of central banks themselves.
|
178 |
Exploitation et réhabilitation de bâtiments tertiaires : une démarche énergétique d'amélioration environnementaleValderrama Ulloa, Claudia 13 November 2013 (has links)
Le secteur du bâtiment est l’un secteur des plus énergivore, sa consommation énergétique importante découle d’une part de la dégradation des matériaux propre à leur vieillissement et d’autre part, au manque d’un cadre réglementaire énergétique plus strict accompagnant la conception. Enfin cette consommation énergétique est due à la présence des usagers. Ceci est d’autant plus vrai pour le secteur tertiaire au travers leurs activités, leurs comportements et leur degré d’appartenance que les usagers donnent à ces types de bâtiments. En effet, même si tout le monde les utilise, personne ne se sent responsable de leur maintenance. Le travail présenté ici met en avant la relation entre la consommation énergétique dans les campus universitaires et le comportement des usagers. Les résultats sont analysés dans un contexte climatique comparable (paramètre clé les Degrés Jours Unifiés - DJU), avec indicateurs d’évaluation partageables (ce qui ont été judicieusement choisis à partir d’une comparaison entre différents systèmes d’évaluation) et traduit dans une méthodologie d’évaluation (basée sur les méthodes multicritères). Celle-ci tient compte de la multiplicité d’usages, d’usagers et d’attentes énergétiques, environnementales et de confort présents dans ce type de secteur tertiaire. L’objectif principal de cette étude a été d’élaborer une démarche d’amélioration environnementale et énergétique pour l’exploitation des bâtiments tertiaires, pour aller vers la réhabilitation thermique et énergétique, en considérant d’une part, la satisfaction des usagers et d’autre part les performances énergétiques et environnementales améliorées des bâtiments analysés. Ce mémoire de thèse est construit autour la logique suivante : une mise en situation des problématiques énergétiques internationales et nationales (France et du Chili). Un focus sur l’énergie dans le secteur tertiaire, permet de s’imprégner des différents dispositifs mis en place pour atteindre l’objectif de réduction de la consommation d’énergie et des émissions de CO2. Une grille de comparaison qui va nous permettre de réaliser les analyses de consommations énergétiques à différentes périodes de l’année avec un seul paramètre climatologique le DJU, est mise en avant. Ensuite les différents campus et sites universitaires sur lesquels nous appuyons la réflexion sont présentés. Dans ceux-ci, nous analysons à différentes échelles spatio-temporelles et avec différents types d’analyses qualitatives et quantitatives, les variables discriminantes qui seront essentielles pour parvenir à une amélioration énergétique au fil du temps. Par la suite, une ligne de base de critères et indicateurs qui vont nous permettre d’évaluer avec la même échelle d’évaluation, la performance énergétique et environnementale des bâtiments dans leur état actuel est crée. Pour, ensuite, les comparer dans un état optimisé lorsque les améliorations énergétiques ont été mises en place. Enfin nous proposons une méthodologie d’évaluation et d’amélioration environnementale pour l’exploitation des bâtiments tertiaires qui va mettre en relation de façon originale les besoins énergétiques, environnementaux, économiques et de confort des gestionnaires et des usagers universitaires. Une modélisation thermique de solutions de réhabilitation et un modèle économique, assez simple, sont proposés pour illustrer l’application de la méthodologie. / The buildings sector is one of the largest energy consuming sectors, its high energy consumption stems to construction materials degradation on the one hand and to the lack of a stricter regulatory context in design step on the other hand. Finally, this energy consumption is due to the presence of users. This is especially true for the service sector through its activities, its behavior and the sense of belonging of users to this type of buildings. Even if everyone uses them, nobody feels responsible for their maintenance.The work presented here highlights the relationship between energy consumption in university campuses and user’s behavior. The results are analyzed in a comparable climatic context (the key parameter Unified Degree Days - UDD) with sharable assessment indicators (which have been carefully selected from a comparison between different assessment systems). Then, the results are translated into an evaluation methodology (based on multicriterio analysis). The methodology takes into account the multiplicity of uses, users and energy resources, environment and comfort requirements expected in this service sector.This study aims to develop an environmental and energy improvement approach for the operation of tertiary buildings, to move towards a thermal and energy rehabilitation, considering on the one hand, user satisfaction and on the other hand the energy and environmental improved performance of the studied buildings.This manuscript of thesis is built around the following logic: an overview of national and international energy issues (France and Chile). A specific reference to energy in the tertiary sector emphasizes the different mechanisms put in place to achieve the reduction target of energy consumption and CO2 emissions. A comparison grid is built to analyze energy consumptions at different times of the year with a single climate parameter: the DDU (Unified Degree Days). Then, the different campuses and universities supported by the reflection are presented. In these study cases, we analyzed at different spatio-temporal scales and with different types of qualitative and quantitative analysis, the discrimination of critical variables to achieve energy improvements over time. Subsequently, a baseline of criteria and indicators is developed to evaluate the energy and environmental performance of buildings in their current state with the same rating scale. Then energy improvements are implemented to compare them in an optimized state. Finally, we propose an evaluation methodology and environmental improvements for the operation of tertiary buildings which will bring together in an original way the energy, environmental, economic and comfort managers and users universities needs. Thermal modeling solutions and economic rehabilitation rather simple model are provided to illustrate the application of the methodology. / El sector de la construcción es uno de los sectores que más energía consume, este consumo se debe en parte a la degradación de sus materiales, propia al paso del tiempo, a la falta de un marco legal energético más estricto que regule su diseño-concepción y por otra a la presencia de sus usuarios. Este fenómeno se vuelve más recurrente en el sector terciario debido a sus actividades, sus comportamientos y el grado de pertenencia que los usuarios le dan a este tipo de edificios. De hecho, si es cierto que todo el mundo los puede utilizar, no todos se sienten responsables de su cuidado.El trabajo que aquí se ha desarrollado presenta la relación entre el consumo energético de los campus universitarios y el comportamiento de sus usuarios. Los resultados se han analizado bajo un contexto climático comparable (parámetro clave los Grados Días Unificados - GDU), indicadores de evaluación adaptables (que han sido cuidadosamente seleccionados a partir de una comparación entre distintos sistemas de evaluación - certificaciones) y que se han traducido a través de una metodología de evaluación (basada en métodos de multicriterio). Esta metodología considera la multiplicidad de usos, de usuarios y de requerimientos energéticos, medioambientales y de confort presentes en este tipo de sector terciario.El objetivo principal de este estudio ha sido desarrollar una metodología de mejora energética y medioambiental para la operación de edificios terciarios, que permitirá además de considerar una rehabilitación térmica y energética, teniendo en cuenta, por una parte, la satisfacción de los usuarios y por otra el desempeño energético y medioambiental mejorado de los edificios analizados.La memoria de la tesis ha sido construida bajo la siguiente lógica: la presentación de las problemáticas energéticas internacionales y nacionales (de Francia y de Chile). Una visión de la energía en el sector terciario, permite ahondar sobre los diferentes mecanismos establecidos para lograr el objetivo de reducir el consumo energético y las emisiones de CO2. Un sistema de comparación nos permite analizar el consumo energético en diferentes periodos del año, a través de un único parámetro climático, el GDU. A continuación se presentan los diferentes campus y sitios universitarios en los que nos apoyamos para el análisis. En ellos, analizamos a diferentes escalas espacio-temporales y con diferentes tipos de análisis cualitativos y cuantitativos, las variables discriminantes que serán fundamentales para lograr la mejora de la eficiencia energética a través del tiempo. Posteriormente, construimos una línea de base de criterios e indicadores que nos permitirá evaluar a través de una misma escala de evaluación, el desempeño energético y medioambiental de los edificios en su estado actual, para luego compararlos en un estado óptimo cuando diferentes mejoras energéticas se han implementado. Por último, proponemos una metodología de evaluación y de mejoras energéticas para la operación de edificios terciarios, dicha metodología relaciona de manera original las necesidades energéticas, medioambientales, económicas y de confort de gestores y de usuarios universitarios. Finalmente, proponemos para ilustrar la aplicación de la metodología, un modelo térmico de soluciones de rehabilitación y un modelo económico simplificados.
|
179 |
Développement d’une nouvelle famille d’indicateurs de performance pour la conception d’un système manufacturier reconfigurable (RMS) : approches évolutionnaires multicritères / Development of a new family of performance indicators for the design of a reconfigurable manufacturing system (RMS) : multi-criteria evolutionary approachesHaddou Benderbal, Hichem 20 June 2018 (has links)
L'environnement manufacturier moderne est face à un bouleversement de paradigmes nécessitant plus de changeabilité au niveau physique et logique. Un système manufacturier Changeable est défini comme un système de production ayant les capacités de faciliter les changements adéquats, permettant d'ajuster ses structures et ses processus en réponse aux différents besoins. Dans ce contexte, les systèmes manufacturiers doivent se doter d’un très haut niveau de reconfigurabilité, qui est considérée comme l’un des facteurs majeurs du concept de changeabilité. En effet, dans la vision de l'Usine du Futur, la reconfigurabilité est essentielle pour s'adapter efficacement à la complexité croissante des environnements manufacturiers. Elle assure une adaptation rapide, efficace et facile de ces systèmes tout en étant réactif, robuste et économiquement compétitif. L’objectif est de répondre aux nouvelles contraintes internes et externes telles que la globalisation, la variété des produits, la personnalisation de masse ou le raccourcissement des délais. À travers cette thèse, nous étudions la problématique de conception des systèmes manufacturiers reconfigurables (Reconfigurable Manufacturing System – RMS). L’objectif consiste à concevoir des systèmes réactifs en se basant sur leurs capacités en matière de reconfigurabilité. Nous avons étudié ce problème sur trois niveaux : (i) le niveau des composantes, relatif aux modules des machines reconfigurables, (ii) le niveau des machines et leurs interactions, ainsi que l’impact de ces interactions sur le système et (iii) le niveau de l'atelier, composé de l'ensemble des machines reconfigurables. Nous avons développé pour chaque niveau, des indicateurs de performance afin d’assurer les meilleures performances du système conçu, tels que l’indicateur de modularité, l’indicateur de flexibilité, l’indicateur de robustesse et l’effort d'évolution d'un système reconfigurable. Pour l'ensemble des problèmes étudiés, nous avons développé des modèles d’optimisation multicritère, résolus à travers des heuristiques ou des métaheuristiques multicritères (comme le recuit simulé multicritère (AMOSA) et les algorithmes génétiques multicritère (NSGA-II)). De nombreuses expériences numériques et analyses ont été réalisées afin de démontrer l’applicabilité de nos approches / The modern manufacturing environment is facing a paradigm shift that require more changeability at physical and logical levels. A Changeable Manufacturing System is defined as a production system that has the ability to facilitate the right changes, allowing the adjustment of its structures and processes in response to the different needs. In this context, manufacturing systems must have a very high level of reconfigurability, which is considered to be one of the major enablers of changeability. From the perspective of the “Factory of the future”, the reconfigurability is essential to effectively adapt to the ever-increasing complexity of manufacturing environments. It allows a rapid, efficient and easy adaptation of these systems while being responsive, robust and economically competitive. The objective is to respond to new internal and external constraints in terms of globalization, variety of products, mass customization, and shorter lead times. Through this thesis, we study the problem of design of reconfigurable manufacturing systems (RMS) that meets these requirements. The goal is to design responsive systems based on their key features of reconfigurability. We have studied the RMS design problem on three levels: (i) the level of the components, relating to the modules of the reconfigurable machines, (ii) the machine level and their interactions, as well as the impact of these interactions on the system and (iii) the workshop level composed of all the reconfigurable machines. We have developed for each level, performance indicators to ensure a better responsiveness and a high performance of the designed system, like the modularity index, the flexibility index, the robustness index and the layout evolution effort of a reconfigurable system. For each of the studied problems, we developed multicriteria optimization models, solved through heuristics or multicriteria metaheuristics (such as archived multi-objective simulated annealing (AMOSA) and multi-objective genetic algorithms (NSGA-II)). Numerous numerical experiments and analyzes have been performed to demonstrate the applicability of our approaches
|
180 |
Effet de la variabilité spatiale des propriétés du sol sur la variabilité de la réponse sismique. / Effects of the spatial variability of soil properteis on the variability of surface ground motion.El Haber, ELias 16 November 2018 (has links)
Les couches de sol présentent fréquemment des hétérogénéités spatiales qui proviennent des processus d’érosion, de sédimentation et de l’effet de l’activité humaine. A ces hétérogénéités géologiques de premier ordre viennent s’ajouter des hétérogénéités de petite échelle au sein d’une même couche géologique. Sous sollicitation sismique faible ou forte, ces hétérogénéités spatiales des propriétés du sous-sol sont susceptibles de conduire à une variabilité spatiale importante des propriétés du mouvement sismique en surface (amplitude, durée, contenu fréquentiel, …). Dans cette thèse, une analyse probabiliste est réalisée pour évaluer l’effet de la variabilité spatiale de la vitesse des ondes de cisaillement (V_s) sur la variabilité du mouvement sismique en surface. Pour simplifier, une simple structure de sol 2D (une couche sédimentaire sur un demi-espace) est considérée. La structure 2D de V_s est modélisé comme un champ aléatoire en utilisant la méthode EOLE (Expansion Optimal Linear Estimation) et 9 modèles probabilistes sont considérés en faisant varier les trois paramètres de fluctuation du sol: le coefficient de variation (COV) sur V_s, les distances d'autocorrélation horizontale (θ_x) et verticale (θ_z). Les mouvements sismiques du sol en surface sont simulés à l’aide du logiciel de différences finies FLAC2D pour une excitation d'onde plane avec une polarisation SV.Une première partie porte sur l’étude de la variabilité en surface de différents indicateurs du mouvement sismique (fréquence de résonance, amplification, Intensité d’Arias, durée, corrélation spatiale). Nos simulations purement linéaires soulignent l’importance des ondes de surface diffractées localement au niveau des hétérogénéités du sol sur ces différents indicateurs et le contrôle de COV sur leur variabilité. Elles mettent également en évidence que, bien que les approches probabilistes 1D reproduisent correctement en moyenne les fréquences de résonance fondamentales et les amplifications associées, elles sous-estiment l’amplification à haute fréquence, l’Intensité d’Arias et la durée du mouvement sismique ainsi que leur variabilité. La deuxième partie porte sur la cohérence spatiale, calculée sur la phase forte et sur la coda des vitesses simulées en surface. Les résultats montrent que la perte de cohérence avec la fréquence ou la distance est principalement contrôlée par COV. A cette perte de cohérence globale s’ajoute la présence de fortes cohérences dans certaines bandes de fréquences étroites causées par les caractéristiques de propagation d’ondes de volume et de surface (résonance des ondes SV, phases d’Airy des ondes de Rayleigh). Ces observations sont cohérentes avec les observations sur les données réelles du site d’Argostoli en Grèce. La troisième partie s’intéresse à la prise en compte du comportement non-linéaire des sols. Le comportement non-linéaire du sol est basé sur des tests triaxiaux effectués sur la plaine alluviale de Nahr Beyrouth. L’effet du comportement non-linéaire et de sa variabilité est étudié pour les différents indicateurs du mouvement sismique (Intensité d’Arias, durée, corrélation spatiale, cohérence décalée). / Soil layers frequently exhibit spatial heterogeneities that arise from the erosion, sedimentation processes and from the effects of human activity. To these first order geological heterogeneities are added small-scale heterogeneities within the same geological layer. Under weak or strong seismic loading, these spatial heterogeneities of the subsurface properties are likely to lead to a significant variability in the ground motion properties within short distance on surface (amplitude, duration, frequency content, ...). In this thesis, a probabilistic analysis is carried out to evaluate the effect of the spatial variability of shear wave velocity (V_s) on the variability of surface seismic response. For sake of simplicity, a simple 2D soil structure (a sedimentary layer over a half-space) is considered. The 2D structure of V_s is modeled as a random field using the EOLE (Expansion Optimal Linear Estimation) method and nine probabilistic models are considered by varying the three soil fluctuation parameters: the coefficient of variation (COV) on V_s, the horizontal and vertical autocorrelation distances (θ_x and θ_z, respectively). The surface ground seismic motion is simulated using the FLAC2D finite difference code using a SV plane-wave plane excitation.The first part deals with the study of the surface variability of different ground motion indicators (resonance frequency, amplification, Arias intensity, duration, spatial correlation). Our purely linear simulations emphasize the importance of the locally diffracted surface waves due to soil heterogeneities on these different indicators and the control of COV on their variability. They also show that, although 1D probabilistic approaches correctly estimate the average of the fundamental resonant frequencies and the associated amplifications, they underestimate the high frequency amplification, the Arias intensity and the duration of the ground motion on surface, as well as their variability. The second part deals with another estimator the ground motion spatial variability: the coherency and it is calculated on the strong phase and on the coda of simulated seismograms on surface. The results show that the variation of the coherency as a function of frequency or distance is mainly controlled by COV. To this overall behavior of the average coherency on surface is superimposed the presence of strong loss or increase of coherency in certain narrow frequency bands caused by the propagation characteristics of body and surface waves (resonance of SV waves, Airy phases of Rayleigh waves). These observations are consistent with the observations on real data from the Argostoli site in Greece. The third part focuses on taking into account the non-linear behavior of soils. The definition of non-linear properties of the soil is based on triaxial tests carried out on the alluvial plain of Nahr Beirut. The effect of non-linear behavior and its variability is studied for the different ground motion indicators, mainly in the time domain (Arias intensity, duration, spatial correlation, Lagged coherency).
|
Page generated in 0.1303 seconds