• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 8
  • 6
  • 3
  • 2
  • 2
  • Tagged with
  • 46
  • 14
  • 8
  • 8
  • 7
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar / Verification of end-to-end real-time constraints in the context of AutoSar

Monot, Aurélien 26 October 2012 (has links)
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérification des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous décrivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibilités d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous présentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents paramètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentalement les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches / The complexity of electronic embedded systems in cars is continuously growing. Hence, mastering the temporal behavior of such systems is paramount in order to ensure the safety and comfort of the passengers. As a consequence, the verification of end-to-end real-time constraints is a major challenge during the design phase of a car. The AUTOSAR software architecture drives us to address the verification of end-to-end real-time constraints as two independent scheduling problems respectively for electronic control units and communication buses. First, we introduce an approach, which optimizes the utilization of controllers scheduling numerous software components that is compatible with the upcoming multicore architectures. We describe fast and efficient algorithms in order to balance the periodic load over time on multicore controllers by adapting and improving an existing approach used for the CAN networks. We provide theoretical result on the efficiency of the algorithms in some specific cases. Moreover, we describe how to use these algorithms in conjunction with other tasks scheduled on the controller. The remaining part of this research work addresses the problem of obtaining the response time distributions of the messages sent on a CAN network. First, we present a simulation approach based on the modelisation of clock drifts on the communicating nodes connected on the CAN network. We show that we obtain similar results with a single simulation using our approach in comparison with the legacy approach consisting in numerous short simulation runs without clock drifts. Then, we present an analytical approach in order to compute the response time distributions of the CAN frames. We introduce several approximation parameters to cope with the very high computational complexity of this approach while limiting the loss of accuracy. Finally, we compare experimentally the simulation and analytical approaches in order to discuss the relative advantages of each of the two approaches
32

In search of the carbon price : The european CO2 emission trading scheme : from ex ante and ex post analysis to the protection in 2020 / A la recherche du prix du carbone : Système européen d’échange de quotas de co2 : des analyses ex ante et ex post à la projection en 2020

Trotignon, Raphaël 17 October 2012 (has links)
Cette thèse est une évaluation des deux premières phases du Système Communautaire d’Echange de Quotas d’Emission (SCEQE). Il s'articule autour de la construction progressive d'un modèle de simulation, ZEPHYR-Flex, qui vise à reproduire les évolutions du prix et des émissions observés entre 2005 et 2012, et à les projeter jusqu'en 2020 sous différentes séries d'hypothèses. L'analyse ex post des huit premières années du système révèle que, pour comprendre son évolution, il est nécessaire d'étudier en détail le rôle joué par trois mécanismes de flexibilité: les échanges de quotas, la flexibilité spatiale (crédits carbone), et la flexibilité temporelle (banking/borrowing). Dans un premier temps, nous construisons un cadre technico-économique servant de base au mécanisme simulant les échanges de quotas dans le modèle. Le rôle des crédits carbone est ensuite examiné et un scénario pour leur utilisation jusqu'en 2020 est calculé sur cette base. Ensuite, la flexibilité temporelle est introduite dans le modèle qui, une fois les trois mécanismes de flexibilité réunis, peut reproduire la trajectoire passée du prix et des émissions. Le modèle et les leçons tirées des deux premières phases sont ensuite utilisés dans différents scénarios prospectifs à l'horizon 2020. Parmi les scénarios testés, seul un renforcement du plafond d’émission en ligne avec l'objectif européen de 2050 est en mesure de restaurer la confiance et les anticipations associées au système, deux facteurs qui conditionnent l'efficacité du SCEQE à long terme. La nécessité d’articuler correctement le SCEQE avec les autres politiques climat-énergie est également soulignée / This thesis is an evaluation of the first two phases of the EU ETS. It is articulated around the progressive construction of a simulation model, ZEPHYR-Flex, which aims at being able to replicate the observed price and emissions trajectories between 2005 and 2012, and to project them until 2020 under different sets of assumptions. The ex post analysis of the first eight years of the system reveals that to understand its development, it is necessary to study in details the role played by three flexibility mechanisms: trading, spatial flexibility (offsets), and time flexibility (banking/borrowing). In a first stage, we build a technical-economic framework for the core trading mechanism of the model. The role of offsets is then scrutinized and a scenario for their use up to 2020 is calculated on this basis. Next, the time flexibility and the related banking and borrowing behavior are introduced into the model which can then replicate the past price and emission trajectory. The model and the lessons from the first two phases are then used in different prospective scenarios to 2020. Among the scenarios tested, only a strengthening of the cap in line with the 2050 European reduction target is able to restore confidence and anticipations, two factors needed for the efficiency of the EU ETS in the long term. The issue of correctly articulating the EU ETS with other climate-energy policies is also underlined
33

Pilotage des usinages tridimensionnels / Stearing of three-dimensional machinings

Abdelhakim, Boukar 22 January 2014 (has links)
Dans la plupart des entreprises de fabrication mécanique, le réglage des machines-outils est une tâche déléguée au régleur qui cherche à garantir les tolérances. Cela a pour conséquence d’augmenter le temps de réglage pour une qualité qui n’est pas au niveau souhaité. Au cours de ces six dernières années, le laboratoire SYMME a élaboré des méthodes de pilotage (Copilot-Pro®et Pilotage inertiel) pour résoudre le problème de réglage des machines-outils. Fondés sur ces deux méthodes, les travaux présentés en font une synthèse et présentent des nouvelles avancées dans le pilotage de commande numériques afin d’obtenir la meilleure qualité possible quelle que soit la complexité de la pièce. L’apport de ce travail est présenté en cinq chapitres. Le premier chapitre présente le contexte général des travaux de recherche et fait un état de l'art des travaux existants, d’une part sur le pilotage et d’autre part sur la conformité. Le pilotage consiste à réduire la variabilité autour de la cible des produits et la conformité consiste à s'assurer que la dispersion d'une caractéristique est contenue dans l'intervalle de tolérance de celle-ci. Le second chapitre revient sur les méthodes de pilotage qui consistent à établir les relations entre les caractéristiques de la pièce et les correcteurs et propose dessolutions pour améliorer le calcul de la correction en tenant compte à la fois des tolérances et des nombres de points palpés sur les surfaces de la pièce. Le troisième chapitre présente les stratégies de pilotage et met en évidence les limites des méthodes classiques de détection des situations hors contrôle qui sont la carte de contrôle de Shewhart et la carte T² de Hotelling. Le quatrième chapitre fait une synthèse des méthodologies pour faciliter le déploiement des méthodes dans l’industrie. Le cinquième chapitre présente une application expérimentale du pilotage inertiel et un témoignage de l'utilisation du pilotage matriciel dans une entreprise d'horlogerie. Une conclusion rappelle les principaux apports de ce travail. / In most mechanical manufacturing companies, setting machine-tools is a task delegated to the setter who seeks to ensure tolerances. This has the consequence of increasing the adjustment time with a quality that is not at the desired level. Over the past six years, the SYMME laboratory has developed steering methods (Copilot -Pro ® and inertial steering) to solve the problem of setting machine tools. Based on these methods, the works presented make a synthesis and presents new advances in steering of digital controls (CNC) to obtain the best quality regardless of the complexity of the part. The contribution of this workis presented in five chapters. The first chapter presents the general context of the research and makes a state of the art of existing works, on the one hand on the steering and on the other hand on the conformity. The steering consists in reducing the variability around the target products and the conformity consists in verifyingthat the dispersion of a characteristic is inside its tolerance interval. The second chapter discusses the methods of steering which consist in establishing the relationship between the characteristics of the workpiece and thetool-offsets and propose solutions to improve the calculation of the correction taking into account both tolerances and number of points probed on the surfaces of the workpiece. The third chapter presents the steering strategies and highlights the limitations of conventional methods for detecting out of control situations which are the Shewhart's control card and the T² Hotelling’s card. The fourth chapter is a synthesis of methodologies to facilitate the deployment of the methods in the industry. The fifth chapter presents an experimental application of inertial steering and a debriefing on the matrix steering used in a watch manufacturer company. Conclusion reiterates the main contributions of this work
34

Approche géographique de la compensation écologique en milieu marin : analyse de l’émergence d’un système de gouvernance environnementale / Geographical approach for marine biodiversity offset : analysis of the emergence of an environmental governance system

Jacob, Céline 03 February 2017 (has links)
La réglementation actuelle, reposant sur la loi de 1976 sur la protection de la nature, impose aux maîtres d’ouvrage de respecter le principe « éviter – réduire – compenser » lors de la conception de les projets d’exploitation et d’aménagement. Lorsqu’un projet n’a pu ni éviter ni réduire les impacts environnementaux, il est nécessaire de définir des mesures compensatoires pour les impacts résiduels qualifiés de significatifs. Concernant les écosystèmes marins, ces mesures font appel à des actions écologiques ainsi qu’à des mesures de gestion et d’amélioration des connaissances sur le milieu marin. Alors que le développement de l’activité économique maritime est encouragé, en particulier, suite aux appels à la croissance bleue (e.g. tourisme maritime, EMR, pêche, aquaculture, ressources minérales marines, biotechnologies, transport maritime, construction navale), il est primordial de questionner nos capacités à prendre en compte les impacts de ces activités. A partir d’un état des lieux de la compensation sur le milieu marin en France, il s’agit d’identifier les limites du système actuel et de proposer des pistes d’amélioration. Ces dernières peuvent être méthodologiques et techniques, liées à la prise en compte de nouvelles approches ou à l’émergence de nouveaux systèmes de gouvernance. A travers l’analyse d’une cinquantaine d’études d’impacts françaises, les pressions et impacts générés par différents projets d’aménagements (infrastructures portuaires, dragages, extractions de granulats, prises et rejets d’eau, etc.) sont examinés et la pertinence des mesures ERC proposées est discutée. Ensuite, en se basant sur une revue bibliographique, la faisabilité et l’efficacité des techniques d’ingénierie écologique (écoconceptions portuaires, bio-remédiation et techniques de restauration des herbiers, macro-algues, récifs coralliens, populations d’ichtyofaune et bivalves) sont évaluées au regard des exigences de la séquence ERC. Cette analyse permet de discuter de la notion d’équivalence écologique et de proposer un arbre de décision original. D’autre part, constatant que les mesures compensatoires proposées dans les études d’impact ne sont que très rarement dimensionnées, une méthode opérationnelle permettant d’évaluer les besoins compensatoires est élaborée. Cette méthode associe une analyse multicritère de l’état de l’environnement inspirée de l’Unified Mitigation Assessment Method (UMAM, méthode utilisée en Floride pour les impacts autorisés) et une évaluation plus fine à l’échelle d’un indicateur empruntée à l’Habitat Equivalency Analysis (HEA, développée par la NOAA pour la compensation des dommages accidentels). Il s’agit ensuite d’examiner l’utilisation actuelle de l’approche par les services écosystémiques dans la compensation à travers la réglementation, les standards internationaux et la littérature scientifique. L’objectif est d’étudier en quoi cette approche permettrait d’améliorer la mise en place de la compensation mais aussi d’en souligner les limites. Enfin, l’approche sociologique de l’acteur-réseau (Callon, Latour) permet d’analyser les différents types organisationnels ayant émergé autour de la compensation en Californie. L’objectif est de critiquer, à partir de situations constatées en France et aux Etats-Unis, les réponses formulées en termes de gouvernance par ces deux sociétés côtières exigeant un principe de compensation. Ce travail souligne la nécessité de mettre en place des mesures ambitieuses et efficaces de compensation afin que le développement économique maritime cesse de contribuer à l’érosion de la biodiversité. / My research topic is multidisciplinary combining geography, ecology and economics and addressing the efficiency of current marine offset practice. Building on a state of the art of current practice, I am working on a more prospective approach (compared to current research on mitigation targeting terrestrial ecosystems). By offset, I am referring to legal mitigation that consists in avoiding – reducing – offsetting adverse impacts of development projects such as dredging, port infrastructure, oil exploration, marine aggregate extraction, beach nourishment, etc. on marine and coastal ecosystems. Based on a review of around fifty French marine Environmental Impact Assessments (EIAs), I analyzed the assessment of impacts, the use of offset sizing methods (robust method to assess ecological losses due to development projects and ecological gains created by offset measures) and the kind of measures proposed. Within these EIAs, sizing methods were seldom used and the very few measures suggested to offset residual impacts could be questioned in terms of equivalency and appropriateness. These measures were either ecological engineering techniques (such as seagrass or coral restoration), management measures (used to reduce pressure on the impacted ecosystems through the funding of management measures in Marine Protected Areas for example) or even knowledge acquisition. Thus, I am also looking at the efficiency of ecological engineering techniques on marine and coastal ecosystems. My research mainly focuses on the offset of authorized impacts but could also deals with some aspects of the offset of accidental damages.
35

Biodiversity Offsets in a Public Lands Context: A Romantic Concept or a Practical Tool to Balance Economic Development and Biodiversity Conservation Goals?

Gomez Wichtendahl, Carla C. January 2018 (has links)
Economic development through the exploitation of natural resources has led to biodiversity loss among other environmental issues around the world. The use of biodiversity offsets to balance economic development and biodiversity conservation goals has significantly increased during the last three decades. A recent report of the Organization for Economic Cooperation and Development (OECD) released in December of 2016 identified at least 56 countries with laws or policies requiring the use of these types of instruments worldwide. There are over 100 biodiversity offset programs operating in countries such as United States of America, France, New Zealand, Mexico, Australia and others, which are injecting over 3 USD billion per year into the world’s economy. Experiences of different jurisdictions indicate that biodiversity offsets can become a promising tool in addressing the biodiversity loss issue in their territories. Canada and some of its provinces such as Alberta and British Columbia, which have important oil and gas sectors, and are home to important wildlife species, have been part of the biodiversity offsets debate, and have been exploring their use. This research derives from the observation that although some of the international biodiversity offset experiences have been vastly studied, there is little experience analyzing the legal challenges of implementing biodiversity offset systems, including biodiversity banks (a type of biodiversity offset that creates biodiversity markets) on public lands. The very nature of public land, where multiple users may simultaneously access the land and conduct a variety of potentially incompatible activities, can create extra legal challenges with respect to the implementation of biodiversity offsets. Through an Alberta-focused case study, the thesis explores the characteristics that a planning and legal framework of a province with a majority of public lands would need to have in order to support the use of biodiversity offsets and a biodiversity banking system. It also identifies and analyzes the legal issues and challenges of implementing long lasting biodiversity offsets in that context. Under the system studied by this dissertation, the main users of Alberta’s public forests (forest operators and oil and gas developers) become the biodiversity bankers or suppliers, and buyers of biodiversity credits, respectively. This thesis is therefore a contribution to knowledge about how biodiversity offsets, specifically biodiversity banks, can be applied on provincial public lands, used by multiple users. It focuses on the legal frameworks, property right issues, permanence, and additionality needed for a potential biodiversity banking system for a province such as Alberta.
36

Verification of hardware-in-the-loop as a valid testing method for suspension development

Misselhorn, Werner Ekhard 28 July 2005 (has links)
A need for a cost effective, versatile and easy to use suspension component testing method has arisen, following the development of a four-state hydro-pneumatic semi-active spring-damper system. A method known as hardware-in-the-loop (HiL) was investigated, in particular its use and compatibility with tests involving physical systems – previously HiL was used predominantly for Electronic Control Unit (ECU) testing. The suitability of HiL in the development of advanced suspension systems and their control systems, during which various vehicle models can be used, was determined. A first step in vehicle suspension design is estimating a desired spring and damper characteristic, and verifying that characteristic using software simulation. The models used during this step are usually low-order, simple models, which hampers quick development progress. To predict vehicle response before vehicle prototype completion, many researchers have attempted to use complex and advanced damper models to simulate the vehicle’s dynamics, but these models all suffer from some drawback – it is either based on empirical data, giving no indication of the physical parameters of the design sought; it may be overly complex, having many parameters and thus rendering software impractical; or it may be quick but based on the premise that there is no hysteresis in the damping character. It can be seen that an obvious answer exists – use a physical commercially available or prototype damper in the software simulation instead of the mathematical model. In this way the suspension deflection, i.e. the true motion of the damper is used as excitation, and the true damper force is measured using a hydraulic actuator and load cell. The vehicle mass motions are simulated in a software environment. This is basically what HiL simulation does. The HiL method was verified by comparing HiL simulations and tests to globally accepted testing methods, employing widely-used vehicle models: linear single-degree-of-freedom (SDOF) and two-degrees-of-freedom (2DOF) or quarter-car models were used. The HiL method was also compared to a non-linear physical system to verify that the method holds for real vehicle suspension geometries. This meant that HiL had to perform adequately at both ends of the suspension-testing spectrum – base software and real system simulation. The comparison of the HiL and software/real system simulation was done using the “Error Coefficient of Variance” (ECOV) between the compared signals; this quantitative measure proved very sensitive and performed dubiously in the presence of signal offsets, phase lags and scaling errors, but remains a tangible, measurable parameter with which to compare signals. Visual confirmation was also obtained to back the ECOV values. It was found that even using a relatively low-force actuator, the HiL simulation results followed the software/real system responses well. Phase lags and DC offsets in the HiL simulation’s measured signals (as well as the real systems responses) has an adverse effect on the performance of the HiL simulation. Special attention must thus be paid to the zeroing of equipment and the amount/type of filters in the system, as these affect the HiL results dramatically. In all, HiL was proven to be a versatile and easy to use alternative to conventional mass-based suspension testing. / Dissertation (MEng (Mechanical Engineering))--University of Pretoria, 2006. / Mechanical and Aeronautical Engineering / unrestricted
37

Vérification des contraintes temporelles de bout-en-bout dans le contexte AutoSar

Monot, Aurélien 29 November 2012 (has links) (PDF)
Les systèmes électroniques embarqués dans les véhicules ont une complexité sans cesse croissante. Cependant, il est crucial d'en maîtriser le comportement temporel afin de garantir la sécurité ainsi que le confort des passagers. La vérifica- tion des contraintes temporelles de bout-en-bout est donc un enjeu majeur lors de la conception d'un véhicule. Dans le contexte de l'architecture logicielle AUTOSAR standard dans les véhicules, nous décomposons la vérification d'une contrainte de bout-en-bout en sous-problèmes d'ordonnancement sur les calculateurs et sur les réseaux de communication que nous traitons ensuite séparément. Dans un premier temps, nous présentons une approche permettant d'améliorer l'utilisation des calculateurs exécutant un grand nombre de composants logiciels, compatible avec l'introduction progressive des plateformes multi-coeurs. Nous dé- crivons des algorithmes rapides et efficaces pour lisser la charge périodique sur les calculateurs multi-coeurs en adaptant puis en améliorant une approche existant pour les bus CAN. Nous donnons également des résultats théoriques sur l'efficacité des algorithmes dans certains cas particuliers. Enfin, nous décrivons les possibili- tés d'utilisation de ces algorithmes en fonction des autres tâches exécutées sur le calculateur. La suite des travaux est consacrée à l'étude des distributions de temps de réponse des messages transmis sur les bus CAN. Dans un premier temps nous pré- sentons une approche de simulation basée sur la modélisation des dérives d'horloges des calculateurs communicant sur le réseau. Nous montrons que nous obtenons des distributions de temps de réponse similaires en réalisant une longue simulation avec des dérives d'horloge ou en faisant un grand nombre de courtes simulations sans dérives d'horloge. Nous présentons enfin une technique analytique pour évaluer les distributions de temps de réponse des trames CAN. Nous présentons différents para- mètres d'approximation permettant de réduire le nombre très important de calculs à effectuer en limitant la perte de précision. Enfin, nous comparons expérimentale- ment les résultats obtenus par analyse et simulation et décrivons les avantages et inconvénients respectifs de ces approches.
38

Paléosismologie morphologique à partir de données LiDAR : développement et application d’un code de mesure des déplacements sur les failles, 3D_Fault_Offsets / Recovering paleoearthquake slips in Earth surface morphology measured using LiDAR data : development and application of a new code, 3D_Fault_Offsets

Stewart, Nicholas 19 November 2018 (has links)
L’objectif principal de cette thèse est de tirer de données LiDAR de télédétection à très haute résolution afin d’extraire une partie du traces tectono-géomorphiques imprimées dans la morphologie de grands tremblements de terre préhistoriques. Les informations consultées dans ces traces constituent l'historique des glissements cumulés de grands tremblements paléoséismique successifs le long d'une faille donnée. L'historique des glissements permet de déterminer le nombre d'événements et les glissements les plus importants produits par ces événements. La connaissance des plus grandes glissades produites par des grands séismes historiques et préhistoriques permettra de déduire l'ampleur potentielle des événements futurs. La caractérisation de la distribution du glissement superficiel fournit des informations importantes sur la mécanique des failles, les contrôles de la propagation de la rupture et la répétabilité de la rupture à certains points le long de la faille. Cependant, la caractérisation et la mesure correctes de la distribution des glissements à partir de formes de relief géomorphologiques déplacées par tectonisme sont accompagnées d'incertitudes considérables, résultant principalement de processus d'érosion et de dépôt. Ces incertitudes pourraient entraîner à la fois une sous-estimation et une surestimation du glissement, ainsi que des résultats contradictoires issus d'enquêtes différentes sur le même défaut. Par conséquent, nous avons développé une nouvelle technique basée sur MATLAB, 3D_Fault_Offsets, pour caractériser mathématiquement, et donc automatiquement, la géométrie 3D de marqueurs géomorphiques décalés (définie par 9 entités géométriques situées de part et d'autre de la faille), puis calculer composants latéraux et verticaux du glissement. Nous estimons que les incertitudes générées par cette technique définissent mieux la gamme des "véritables" compensations potentielles par rapport aux incertitudes plus libérales proposées dans d’autres études, pourtant ils se révèlent assez volumineux. Après vérification de l'efficacité du code en mesurant à nouveau 3 ensembles de données paléosismiques, nous avons l’appliqué à une faille de décrochement qui était historiquement capable d'un séisme de chute de contrainte importante (MW ~ 8,2 en 1855), la faille de Wairarapa. Nous avons identifié et analysé un total d'environ 700 marqueurs géomorphiques déplacés le long d'une zone de données LiDAR de 70 km, ce qui en fait l'un des ensembles de données paléosismiques les plus vastes et les plus denses. Les décalages latéraux mesurés vont de quelques mètres à environ 800 m, mais la majorité d'entre eux sont inférieurs à 80 m, ce qui permet d'examiner les plus récents glissements de faille latéraux. Les décalages verticaux varient entre 0 et ~ 30 m et suggèrent des rapports de glissement vertical / latéral généralement compris entre 10 et 20%. Nous avons effectué les analyses statistiques de la collection dense de décalages mesurés séparément le long des principaux segments successifs qui constituent l'étendue de la faille étudiée. Dans la plupart des segments, cette analyse a révélé la présence de 6 à 7 amas décalés dans la plage allant de 0 à 80 m, suggérant la rupture de la faille de Wairarapa lors de 6 à 7 grands séismes précédents. Les plus grandes glissades que nous déduisons pour ces tremblements de terre passés sont importantes, la plupart dans la plage 7-15 m. Chaque glissement sismique semble varier le long de la faille et généralement plus grand dans sa partie sud. La faille de Wairarapa a ainsi provoqué à plusieurs reprises d'importants séismes dus à la chute de contraintes au cours de la période préhistorique, ce qui souligne le risque sismique élevé qu'elle pose dans le sud de la Nouvelle-Zélande. Par conséquent, l'utilisation de notre nouveau code 3D_Fault_Offsets avec des données topographiques à haute résolution telles que LIDAR peut permettre de mieux évaluer le comportement futur des failles sismogènes. / The main scope of this PhD thesis is to utilize very high-resolution remote sensing LiDAR data to extract some of the tectono-geomorphic traces imprinted in the morphology from large prehistoric earthquakes. The information that is accessed in these traces is the cumulative slip history of successive large paleoearthquakes along a given fault. The slip history allows the determination of the number of events and the largest slips produced by those respective events. The knowledge of the largest slips produced by historic and prehistoric large earthquakes will enable some inference into the potential magnitude of future events. Characterizing the distribution of surface slip provides important insights into fault mechanics, controls on rupture propagation, and repeatability of rupture at certain points along the fault. However, properly characterizing and measuring the slip distribution from tectonically-displaced geomorphic landforms comes with considerable uncertainties mostly resulting from erosion and depositional processes. These uncertainties could lead to both underestimation and overestimation of the slip, and to conflicting results from different surveys of the same fault. Therefore, we have developed a new MATLAB-based technique, 3D_Fault_Offsets, to mathematically, and hence automatically, characterize the 3D geometry of offset geomorphic markers (defined by 9 geometric features either side of the fault), and then calculate the lateral and vertical components of slip. We believe that the uncertainties obtained from this technique better define the range of potential ‘true’ offsets compared to more liberal uncertainties offered in other studies, yet they reveal to be fairly large. Upon verification of the code efficacy by successfully re-measuring 3 paleoseismic datasets, we applied it to a strike-slip fault in New Zealand that was historically capable of a large stress drop earthquake (MW~8.2 in 1855), the Wairarapa fault. We identified and analyzed a total of ~700 displaced geomorphic markers along a 70-km stretch of LiDAR data, making this one of the largest and densest paleoseismic datasets. Measured lateral offsets range from a few meters to about 800 m, but the majority are lower than 80 m, providing the means to examine the most recent lateral fault slips. The vertical offsets range between 0 and ~30 m, and suggest vertical to lateral slip ratios commonly in the range 10-20%. We conducted the statistical analyses of the dense collection of measured offsets separately along the successive major segments that form the investigated fault stretch. In most segments, this analysis revealed 6-7 offset clusters in the range 0-80 m, suggesting the Wairarapa fault ruptured in 6-7 previous large earthquakes. The largest slips we infer for these past earthquakes are large, most in the range 7-15 m. Each earthquake slip seems to vary along the fault length, and be generally greater in its southern part. The Wairarapa fault has thus repeatedly produced large stress drop earthquakes in prehistoric time, which emphasizes the elevated seismic hazard it poses in Southern New Zealand. Therefore, the use of our new code 3D_Fault_Offsets with high resolution topographic data such as LIDAR can lead to better assessments of future behavior of seismogenic faults.
39

GNSS Inter-Constellation Time Offset Determination in Low Earth Orbit

Peters, Brian C. 03 June 2021 (has links)
No description available.
40

Skadelindringshierarkin, ett verktyg för kommuners arbete mot miljökvalitetsmålet Levande skogar / Mitigation Hierarchy a tool to the municipalities’ work towards the environmental objective, Sustainable forest

Erlandsson, Josefin January 2023 (has links)
2015 antog världens länder 17 globala mål och Agenda 2030. I Sveriges nationella miljömålssystem fanns riktlinjer som gick i linje med Agenda 2030. Miljömålssystemet bestod bland annat av 16 miljökvalitetsmål. Denna studie fokuserade på ett av miljökvalitetsmålen, levande skogar och om skadelindringshierarkin kunde anses vara en metod för att uppnå detta mål. Skadelindringshierarkin består av fyra steg, 1. Undvika, 2. Minimera, 3. Återställa på plats, 4. Kompensera på annan plats. Tidigare studier hade visat att metoden var relativt ny i Sverige och att vissa problem fanns. Detta gjorde det intressant att redogöra för hur kommuner inom Örebro län arbetade med och tolkade metoden. En kvalitativ studie genomfördes där kommuner i Örebro län intervjuades. Resultatet visade att skadelindringshierarkin som begrepp var okänt, men att konceptet användes. Kommunerna ställde sig även positiva till metoden och ansåg att metoden kunde vara ett verktyg för kommunerna för att uppnå miljökvalitetsmålet levande skogar.

Page generated in 0.061 seconds