• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 413
  • 135
  • 59
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 636
  • 230
  • 143
  • 135
  • 69
  • 64
  • 60
  • 53
  • 53
  • 53
  • 48
  • 45
  • 42
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
361

Les premières étapes de l'intelligence pratique chez l'enfant de moins de deux ans

Vandevelde, René January 1941 (has links)
Doctorat en sciences psychologiques / info:eu-repo/semantics/nonPublished
362

Instancier grâce au bricolage collectif : le cas de l'Institution des Bâtiments Protégés / Instantiating through collective bricolage : the case of the Listed-Buildings Institution

Colombero, Sylvain 14 December 2015 (has links)
Autour de la question de la modernisation des bâtiments protégés, la thèse analyse comment les acteurs implémentent de tels ajustements contemporains sans pour autant dénaturer le Patrimoine véhiculé et personnifié par le bâtiment. Considéré comme la représentation matérielle de l’institution des Bâtiments Protégés – i.e. son instanciation – le bâtiment protégé trouve sa légitimité dans son authenticité dont le respect par les acteurs est primordial pour maintenir la protection institutionnelle. Cependant, parce que la majorité des bâtiments protégés actuels n’ont pas été pensés originellement pour perdurer, i.e. être transmis aux futures générations, les travaux d’intervention pour modifier cet artéfact bâtiment mènent à de nombreux débats entre les acteurs qui participent à ces projets de construction au regard de ce qui doit être ou non patrimonialement considéré. Selon l’approche constructiviste de la méthodologie dite de théorie ancrée, et dans l’optique de comprendre comment ces acteurs parviennent à produire un seul et unique artéfact, la thèse met en avant le processus de construction de l’instantiation au sein duquel les constructions matérielle et symbolique sont considérées. Pour se faire, l’étude propose de coupler l’Institutionnalisme Scandinave et le Bricolage Collectif. En effet, pour sélectionner les matériaux de construction pertinents pour modifier un bâtiment protégé existant, les acteurs doivent dans un premier temps concevoir un cadre interprétatif, commun et partagé, basé sur l’authenticité du bâtiment qu’ils pensent être nécessaire de respecter selon les trois piliers institutionnels en présence. Un tel cadre est en fait une étape préliminaire servant à implémenter un dialogue double-niveau permettant la matérialisation de l’ensemble des idées immatérielles: 1) entre les acteurs et le cadre interprétatif pour tester les solutions matérielles suggérées et 2) entre chaque répertoire de chaque acteur, comprenant leur ressources à disposition, grâce à six critères de sélection qui aident les acteurs à décider quel matériau il est utile ou non d’utiliser. / The dissertation studies how actors implement contemporary adjustments in listed buildings without disrupting their embodied Heritage. The listed building’s legitimacy relies on its authenticity whose respect by actors is essential to maintain the institutional protection, as it is the material representation, or instantiation, of the Listed-Buildings Institution. However, intervention works to change such an artifact lead to various debates among actors, as the majority of current listed buildings were not originally constructed to last, i.e. to be transmitted to future generations. One debate during intervention works tackles the issue of what needs to be or not to be considered in terms of Heritage. Through a constructivist grounded-theory methodology, the dissertation allows the understanding of how actors succeed in producing one unique outcome. I propose the instantiation construction process in which both symbolic but also material constructions are emphasised. And to do so, I intertwine Scandinavian Institutionalism and Collective Bricolage. Indeed, actors need first to design, with the help of the three institutional pillars, a shared interpretative frame to select relevant building materials. They could thus modify an existing building in regards to what building’s authenticity deserves to be respected. This frame acts in fact as a preliminary step to implement a simultaneous two-level dialogue enabling the materialisation of the intangible ideas: 1) between actors and the frame to test the material solutions actors suggest and 2) between each actors’ “resources at hand” repertoires by means of six selection criteria that help them to make decision on which material is relevant to use or not.
363

Approche de conception haut-niveau pour l'accélération matérielle de calcul haute performance en finance / High-level approach for hardware acceleration of high-performance computing in finance

Mena morales, Valentin 12 July 2017 (has links)
Les applications de calcul haute-performance (HPC) nécessitent des capacités de calcul conséquentes, qui sont généralement atteintes à l'aide de fermes de serveurs au détriment de la consommation énergétique d'une telle solution. L'accélération d'applications sur des plateformes hétérogènes, comme par exemple des FPGA ou des GPU, permet de réduire la consommation énergétique et correspond donc à un compromis architectural plus séduisant. Elle s'accompagne cependant d'un changement de paradigme de programmation et les plateformes hétérogènes sont plus complexes à prendre en main pour des experts logiciels. C'est particulièrement le cas des développeurs de produits financiers en finance quantitative. De plus, les applications financières évoluent continuellement pour s'adapter aux demandes législatives et concurrentielles du domaine, ce qui renforce les contraintes de programmabilité de solutions d'accélérations. Dans ce contexte, l'utilisation de flots haut-niveaux tels que la synthèse haut-niveau (HLS) pour programmer des accélérateurs FPGA n'est pas suffisante. Une approche spécifique au domaine peut fournir une réponse à la demande en performance, sans que la programmabilité d'applications accélérées ne soit compromise.Nous proposons dans cette thèse une approche de conception haut-niveau reposant sur le standard de programmation hétérogène OpenCL. Cette approche repose notamment sur la nouvelle implémentation d'OpenCL pour FPGA introduite récemment par Altera. Quatre contributions principales sont apportées : (1) une étude initiale d'intégration de c'urs de calculs matériels à une librairie logicielle de calcul financier (QuantLib), (2) une exploration d'architectures et de leur performances respectives, ainsi que la conception d'une architecture dédiée pour l'évaluation d'option américaine et l'évaluation de volatilité implicite à partir d'un flot haut-niveau de conception, (3) la caractérisation détaillée d'une plateforme Altera OpenCL, des opérateurs élémentaires, des surcouches de contrôle et des liens de communication qui la compose, (4) une proposition d'un flot de compilation spécifique au domaine financier, reposant sur cette dernière caractérisation, ainsi que sur une description des applications financières considérées, à savoir l'évaluation d'options. / The need for resources in High Performance Computing (HPC) is generally met by scaling up server farms, to the detriment of the energy consumption of such a solution. Accelerating HPC application on heterogeneous platforms, such as FPGAs or GPUs, offers a better architectural compromise as they can reduce the energy consumption of a deployed system. Therefore, a change of programming paradigm is needed to support this heterogeneous acceleration, which trickles down to an increased level of programming complexity tackled by software experts. This is most notably the case for developers in quantitative finance. Applications in this field are constantly evolving and increasing in complexity to stay competitive and comply with legislative changes. This puts even more pressure on the programmability of acceleration solutions. In this context, the use of high-level development and design flows, such as High-Level Synthesis (HLS) for programming FPGAs, is not enough. A domain-specific approach can help to reach performance requirements, without impairing the programmability of accelerated applications.We propose in this thesis a high-level design approach that relies on OpenCL, as a heterogeneous programming standard. More precisely, a recent implementation of OpenCL for Altera FPGA is used. In this context, four main contributions are proposed in this thesis: (1) an initial study of the integration of hardware computing cores to a software library for quantitative finance (QuantLib), (2) an exploration of different architectures and their respective performances, as well as the design of a dedicated architecture for the pricing of American options and their implied volatility, based on a high-level design flow, (3) a detailed characterization of an Altera OpenCL platform, from elemental operators, memory accesses, control overlays, and up to the communication links it is made of, (4) a proposed compilation flow that is specific to the quantitative finance domain, and relying on the aforementioned characterization and on the description of the considered financial applications (option pricing).
364

Economic and environmental causes and consequences of offshoring: an empirical assessment / Causes et conséquences économiques et environnementales des délocalisations: une étude empirique

Michel, Klaus-Bernhard 19 June 2014 (has links)
Over the last few decades, production processes have become increasingly fragmented: they are divided into ever smaller parts considered as separate activities, which are then spread over various locations in different countries. In other words, value chains for many products are becoming global. This implies that inputs into the production process are sourced from both local and foreign suppliers. The latter mode of sourcing is commonly referred to as offshoring. Expressed as the share of imported in total intermediates, offshoring has grown relatively fast in the recent past. Moreover, its scope has been extended as it increasingly encompasses not only manufacturing but also service activities. A typical example for the former is the sourcing from abroad of parts and components for car assembly. While offshoring of manufacturing activities has been occurring since long and has been largely facilitated by trade liberalisation, the offshoring of service activities such as the provision of accounting or call centre services is a more recent phenomenon that has been fostered by the increased tradability of such services.<p>With the increasing scale and scope of offshoring, it becomes crucial to get a grasp of its drivers as well as the gains and threats associated with it. The latter are the focal point of the public and academic discussion around offshoring, in particular the potential threats for workers in developed economies. Typical questions that are being raised are whether offshoring leads to job losses in developed countries and whether it favours certain categories of workers and is to the disadvantage of others. These threats are directly linked to the motivations for engaging into offshoring. In this respect, wage costs play a prominent role. But other factors may also influence offshoring decisions, e.g. regulations, in particular those regarding the environment. Last but not least, offshoring may also entail gains for developed economies through the improvements in the efficiency of production. In this PhD thesis, several causes and consequences of offshoring are examined empirically for Belgium.<p>The first issue that is investigated is whether offshoring of materials and business services affects industry-level employment. An improved offshoring intensity measure is introduced. It is a volume measure of the share of imported intermediates in output split into materials and business services and according to the country of origin of imports, i.e. high-wage and low-wage countries. Estimations of static and dynamic industry-level labour demand equations augmented by offshoring intensities do not reveal a significant impact of either materials or business services offshoring on total employment for Belgium. This result holds for both the manufacturing sector and the service sector and it proves robust to splitting the manufacturing sector into high-technology and low-technology industries.<p>These results raise the question whether there are actually productivity gains from offshoring. Therefore, estimates of the impact of materials and business services offshoring on industry-level productivity in Belgium are presented. Two features of the analysis are new compared to the existing literature on this subject: the issue is examined separately for manufacturing and market services industries and the possibility of forward and backward spillovers from offshoring, i.e. that productivity gains from offshoring feed through to upstream and downstream industries, is investigated. Results show that materials offshoring has no effect on productivity, while business services offshoring leads to productivity gains in manufacturing. Furthermore, there is no evidence of either forward or backward spillovers from offshoring.<p>Despite the absence of an industry-level total employment effect, offshoring may alter the within-industry composition of employment. In this respect, a major concern is the worsening of the labour market position of low-skilled workers. This issue is addressed by providing evidence on the impact of offshoring on the skill structure of manufacturing employment in Belgium between 1995 and 2007. Offshoring is found to significantly lower the employment share of low-skilled workers. Its contribution to the fall in the employment share of low-skilled workers amounts to 35%. This is mainly driven by offshoring to Central and Eastern European countries. Business services offshoring also contributes significantly to the fall in the low-skilled employment share. As a complement to the existing literature, the widely used current price measure of offshoring is compared with a constant price measure that is based on a deflation with separate price indices for domestic output and imports. This reveals that the former underestimate the extent of offshoring and its impact on low-skilled employment. Finally, further results show that the impact of offshoring on low-skilled employment is significantly smaller in industries with a higher ICT capital intensity.<p>Furthermore, attention is drawn to environmental effects of offshoring by asking whether offshoring contributes to reducing air emissions from manufacturing. Indeed, since the mid-90’s, production-related air emissions in Belgian manufacturing have been reduced substantially. It can be shown that the pace of the reduction has been fastest for domestic intermediates. The issue of whether offshoring has played a role in this reduction by replacing domestic intermediates by imported intermediates is widely debated. Here, a decomposition analysis is developed to measure the contribution of offshoring – the share of imported intermediates in total intermediates – to the fall in air emissions for domestic intermediates. Based on the results from this decomposition analysis, it is possible to calculate that 17% of the fall in greenhouse gas emissions, 6% of the fall in acidifying emissions and 7% of the fall in tropospheric precursor emissions in Belgian manufacturing between 1995 and 2007 can be attributed to offshoring.<p>Finally, emission intensities are also considered as a potential determinant of offshoring. An econometric approach for testing the pollution haven effect for imported intermediate materials is developed. The approach is new with respect to the existing literature on pollution havens through its specific focus on imports of intermediates. The test is embedded in a cost function framework from which a system of cost share equations for variable input factors is derived. The set of potential determinants of the demand for imported intermediate materials includes emission intensities for three types of air pollutants. Their impact constitutes a test of the pollution haven effect. The system of cost share equations is estimated by a within ISUR using data for the Belgian manufacturing sector. Results show some albeit relatively weak evidence of a pollution haven effect for imported intermediate materials.<p> / Doctorat en Sciences économiques et de gestion / info:eu-repo/semantics/nonPublished
365

Evolution des composantes du niveau marin à partir d'observations de marégraphie effectuées depuis la fin du 18ème siècle en Charente-Maritime / Changes in sea level components from tide gauge data since the end of the 18th century along the Charente-Maritime French Atlantic coast

Gouriou, Thomas 26 March 2012 (has links)
Les estimations de la remontée générale du niveau de la mer, de l’ordre de 17 ± 2 cm sur le siècle dernier, masquent une réalité très variable d’une région à l’autre. Qu’en est-il du littoral charentais ? Des séries temporelles de plus de 40-50 ans sont souvent indispensables pour tirer des tendances fiables à long terme sur les composantes du niveau marin : niveau moyen de la mer, ondes de marée et effets météorologiques. Or, de nombreux lots de mesures marégraphiques du littoral charentais « sommeillaient » dans les centres d’archive français, i.e. : La Rochelle-Vieux port (1775-1892), La Rochelle-La Pallice (1885-auj.), île d’Aix (1824-auj.), fort Enet (1859-1873), fort Boyard(1873-1909) et Cordouan (1812-1994). Les objectifs de nos travaux de recherche étaient multiples : inventorier,sauvegarder et numériser des lots de mesures historiques du niveau marin, puis construire des séries temporelles recomposées à partir de ces lots de mesures hétérogènes, temporellement et spatialement, et enfin les exploiter pour mieux décrire et comprendre l’évolution à long terme du niveau de la mer. La qualité des trois séries construites (LaRochelle : 1775-auj. ; Aix-Enet-Boyard : 1824-auj. ; et Cordouan : 1812-1994) a ensuite été éprouvée en détail afin d’évaluer le niveau de précision de notre reconstruction. A partir de ces séries inédites, nous avons pu étudier l’évolution des composantes du niveau marin. Suite à ces travaux, nous fournissons un inventaire le plus exhaustif possible détaillant les mesures de 25 observatoires de Charente-Maritime, de 1775 à aujourd’hui. Les données des séries temporelles ainsi que des éléments permettant d’apprécier leur qualité seront bientôt disponibles en ligne sur REFMAR (refmar.shom.fr), SONEL (www.sonel.org) et au PSMSL (www.psmsl.org). Nos résultats positifs nous ont permis de reconstruire une série encore plus globale, celle du pertuis d’Antioche, à partir des moyennes mensuelles du niveau marin des séries de La Rochelle et d’Aix-Enet-Boyard. Parmi les résultats marquants obtenus,le niveau moyen de la mer s’est élevé de +1,38 ± 0,08 mm/an dans le pertuis d’Antioche sur la période 1860-2010.Ce résultat est cohérent avec Liverpool (+1,2 ± 0,1 mm/an sur la période 1858-1997 [Woodworth, 1999a]) et avec les récents résultats suggérant que l’élévation du niveau marin sur les côtes atlantiques européennes est moins importante qu’au niveau mondial (+1,7 ± 0,3 mm/an sur la période 1870-2004 [Church & White, 2006]). / Global sea level rise, which is estimated at 17 ± 2 cm over the last century, does not reflect the differences of the sealevel evolution between places across the world. What is the situation along the Charente-Maritime French Atlanticcoast? Time series covering a period of at least 40-50 years are vital to establish reliable long-term trends of sealevel components: mean sea level, tidal constituents and meteorological effects. Many tide gauge data sets of the Charente-Maritime coast have recently been rediscovered in archives: La Rochelle-Vieux port (1775-1892), La Rochelle-La Pallice (1885-today), île d’Aix (1824-today), fort Enet (1859-1873), fort Boyard (1873-1909) and Cordouan (1812-1994). The aims of this thesis were firstly to inventory, to rescue and to digitize historical sea leveldata sets. Secondly, those data sets were put back together in order to construct continuous time series, which have been analysed and led to a better description of long-term sea level changes. In this way, three time series were constructed (La Rochelle: 1775-today; Aix-Enet-Boyard: 1824-today; and Cordouan: 1812-1994) and have been deeply examined to assess the construction validity and quality. From these new time series, we could estimate changes of sea level components. Thanks to this research work, we have been able to provide an inventory as exhaustive as possible, with detailed measurements of twenty five Charente-Maritime’s stations from 1775 to nowadays. All those data will be soon available on REFMAR (refmar.shom.fr), SONEL (www.sonel.org) and PSMSL (www.psmsl.org) websites. From those positive results, we have been able to reconstruct a more global time series (Pertuis d’Antioche) from the monthly mean sea levels of La Rochelle and Aix-Enet-Boyard. Among our results, we can high light that the mean sea level trend on Pertuis d’Antioche is estimated at +1.38 ± 0.08 mm/year, from 1860 to 2010. This result is consistent with Liverpool’s trend (+1.2 ± 0.1 mm/year from 1858 to 1997[Woodworth, 1999a]) and also with recent results suggesting that sea level rise along the European Atlantic coasts isslower than global sea level rise (+1.7 ± 0.3 mm/year from 1870 to 2004 [Church & White, 2006]).
366

Conception d'une architecture extensible pour le calcul massivement parallèle / Designing a scalable architecture for massively parallel computing

Kaci, Ania 14 December 2016 (has links)
En réponse à la demande croissante de performance par une grande variété d’applications (exemples : modélisation financière, simulation sub-atomique, bio-informatique, etc.), les systèmes informatiques se complexifient et augmentent en taille (nombre de composants de calcul, mémoire et capacité de stockage). L’accroissement de la complexité de ces systèmes se traduit par une évolution de leur architecture vers une hétérogénéité des technologies de calcul et des modèles de programmation. La gestion harmonieuse de cette hétérogénéité, l’optimisation des ressources et la minimisation de la consommation constituent des défis techniques majeurs dans la conception des futurs systèmes informatiques.Cette thèse s’adresse à un domaine de cette complexité en se focalisant sur les sous-systèmes à mémoire partagée où l’ensemble des processeurs partagent un espace d’adressage commun. Les travaux porteront essentiellement sur l’implémentation d’un protocole de cohérence de cache et de consistance mémoire, sur une architecture extensible et sur la méthodologie de validation de cette implémentation.Dans notre approche, nous avons retenu les processeurs 64-bits d’ARM et des co-processeurs génériques (GPU, DSP, etc.) comme composants de calcul, les protocoles de mémoire partagée AMBA/ACE et AMBA/ACE-Lite ainsi que l’architecture associée « CoreLink CCN » comme solution de départ. La généralisation et la paramètrisation de cette architecture ainsi que sa validation dans l’environnement de simulation Gem5 constituent l’épine dorsale de cette thèse.Les résultats obtenus à la fin de la thèse, tendent à démontrer l’atteinte des objectifs fixés / In response to the growing demand for performance by a wide variety of applications (eg, financial modeling, sub-atomic simulation, bioinformatics, etc.), computer systems become more complex and increase in size (number of computing components, memory and storage capacity). The increased complexity of these systems results in a change in their architecture towards a heterogeneous computing technologies and programming models. The harmonious management of this heterogeneity, resource optimization and minimization of consumption are major technical challenges in the design of future computer systems.This thesis addresses a field of this complexity by focusing on shared memory subsystems where all processors share a common address space. Work will focus on the implementation of a cache coherence and memory consistency on an extensible architecture and methodology for validation of this implementation.In our approach, we selected processors 64-bit ARM and generic co-processor (GPU, DSP, etc.) as components of computing, shared memory protocols AMBA / ACE and AMBA / ACE-Lite and associated architecture "CoreLink CCN" as a starting solution. Generalization and parameterization of this architecture and its validation in the simulation environment GEM5 are the backbone of this thesis.The results at the end of the thesis, tend to demonstrate the achievement of objectives
367

Architecture of Ultra Low Power Node for Body Area Network / Conception de l’architecture d’un noeud de réseau de capteurs portés ultra basse consommation

Aulery, Alexis 01 December 2016 (has links)
Le réseau de capteurs porté est une technologie d’avenir prometteuse à multiple domaines d’application allant du médical à l’interface homme machine. Le projet BoWI a pour ambition d’évaluer la possibilité d’élaborer un réseau de capteurs utilisable au quotidien dans un large spectre d’applications et ergonomiquement acceptable pour le grand public. Cela induit la nécessité de concevoir un nœud de réseau ultra basse consommation pour à la fois convenir à une utilisation prolongée et sans encombrement pour le porteur. La solution retenue est de concevoir un nœud capable de travailler avec une énergie comparable à ce que l’état de l’art de la récolte d’énergie est capable de fournir. Une solution ASIC est privilégiée afin de tenir les contraintes d’intégration et de basse consommation. La conception de l’architecture dédiée a nécessité une étude préalable à plusieurs niveaux. Celle-ci comprend un état de l’art de la récolte d’énergie afin de fixer un objectif de budget énergie/puissance de notre système. Une étude des usages du système a été nécessaire notamment pour la reconnaissance postures afin de déterminer les cas d’applications types. Cette étude a conduit au développement d’algorithmes permettant de répondre aux applications choisies tout en s’assurant de la viabilité de leurs implantations. Le budget énergie fixé est un objectif de 100µW. Les applications choisies sont la reconnaissance de posture, la reconnaissance de geste et la capture de mouvement. Les solutions algorithmiques choisis sont une fusion de données de capteurs inertiels par Filtre de Kalman étendu (EKF) et l’ajout d’une classification par analyse en composante principale. La solution retenue pour obtenir des résultats d’implémentation est la synthèse de haut niveau qui permet un développement rapide. Les résultats de l’implantation matérielle sont dominés principalement par l’EKF. À la suite de l’étude, il apparait qu’il est possible avec une technologie 28nm d’atteindre les objectifs de budget énergie pour la partie algorithme. Une évaluation de la gestion haut niveau de tous les composants du nœud est également effectuée afin de donner une estimation plus précise des performances du système dans un cas d’application réel. Une contribution supplémentaire est obtenue avec l’ajout de la détection d’activité qui permet de prédire la charge de calcul nécessaire et d’adapter dynamiquement l’utilisation des ressources de traitement et des capteurs afin d’optimiser l’énergie en fonction de l’activité / Wireless Body Sensor Network (WBSN) is a promising technology that can be used in a lot of application domains from health care to Human Machine Interface (HMI). The BoWI project ambition is to evaluate and design a WBSN that can be used in various applications with daily usage and accessible to the public. This necessitates to design a ultra-low power node that reach a day of use without discomfort for the user. The elected solution is to design a node that operates with the power budget similar to what can be provided by the state of the art of the energy harvesting. An Application Specific Integrated Circuit (ASIC) solution is privileged in order to meet the integration and low power constraints. Designing the dedicated architecture required a preliminary study at several level which are: a state of the art of the energy harvesting in order to determine the objective of energy/power budget of our system, A study of the usage of the system to determine and select typical application cases. A study of the algorithms to address the selected applications while considering the implementation viability of the solutions. The power budget objective is set to 100µW. The application selected are the posture recognition, the gesture recognition and the motion capture. The algorithmic solution proposed are a data-fusion based on an Extended Kalman FIlter (EKF) with the addition of a classification using Principal Component Analysis (PCA). The implementation tool used to design the architecture is an High Level Synthesis (HLS) solution. Implementation results mainly focus on the EKF since this is by far the most power consuming digital part of the system. Using a 28nm technology the power budget objective can be reached for the algorithmic part. A study of the top level management of all components of the node is done in order to estimate performances of the system in real application case. This is possible using an activity detection which dynamically estimates the computing load required and then save a maximum of energy while the node is still.
368

Empreinte de la variabilité intrinsèque océanique sur l'océan de surface : caractérisation et processus / Imprint of oceanic intrinsic variability at surface : characterization and processes

Sérazin, Guillaume 28 January 2016 (has links)
Ces travaux de thèse s'intéressent à la variabilité océanique intrinsèque générée spontanément sous forçage atmosphérique saisonnier dans des simulations océaniques à haute-résolution (1/4 de degré et 1/12 de degré ), en présence de tourbillons de méso-échelle (environ 100 km). L'empreinte de la variabilité intrinsèque sur le niveau de la mer (SLA) et sur la température de surface (SST) est caractérisée dans plusieurs gammes d'échelles spatio-temporelles par des méthodes de filtrage. En particulier, il est montré que la variabilité petite-échelle inter-annuelle à décennale de SLA observée par les satellites altimétriques, a un caractère stochastique et est majoritairement intrinsèque. Aux échelles de temps multi-décennales, la variabilité intrinsèque de SLA dans les régions océaniques turbulentes est d'amplitude comparable à la variabilité interne simulée dans les modèles climatiques couplés (dénués de turbulence océanique), et pourrait constituer une source additionnelle d'incertitudes dans la détection de l'élévation régionale du niveau de la mer d'origine anthropique. Une analyse spectrale montre enfin que l'advection non-linéaire de vorticité relative transfère spontanément de l'énergie cinétique d'ondes frontales hautes-fréquences vers des tourbillons de méso-échelle plus lents, générant in fine de la variabilité intrinsèque basse-fréquence. Les diagnostiques ont été réalisés à l'aide d'outils développés pour traiter de façon optimale les données océaniques haute-résolution. Ces travaux témoignent plus généralement du caractère chaotique de l'océan turbulent, dont l'interaction avec l'atmosphère est encore mal comprise. / This work focuses on the intrinsic oceanic variability spontaneously generated under seasonal atmospheric forcing in high-resolution oceanic simulations (1/4 ? and 1/12 ? ) including mesoscale eddies (~ 100 km). The imprint of intrinsic variability on sea-level (SLA) and sea surface temperature (SST) is characterized in various spatio-temporal ranges using filtering methods. In particular, the small-scale interannual-to-decadal SLA variability observed by satellite altimetry, is stochastic and mostly intrinsic. At multi-decadal timescales, SLA intrinsic variability is comparable to the internal climate variability simulated in climate coupled models (devoid of oceanic turbulence), and may yield additional uncertainties in the detection of human-induced regional sea-level change. A spectral analysis eventually shows that non-linear advection of relative vorticity spontaneously transfers kinetic energy from high-frequency frontal waves to slower mesoscale eddies, ultimately generating low-frequency intrinsic variability. The analyses have been performed using tools developed for optimal processing of high-resolution oceanic dataset. This work generally provides evidence of the chaotic behavior of the turbulent ocean, whose interaction with the atmosphere is still poorly-known.
369

Evolução estratigráfica cenozoica da porção norte da bacia de santos : quantificação do fluxo sedimentar e da subsidência através de análise sísmica e de modelagem estratigráfica / Evolution stratigraphique cenozoïc du nord du bassin de santos : quantification du flux sédimentaire et de la subsidence à partir d'analyse sismique et modélisation stratigraphique

Moreira Da Costa Maia, Renata 21 March 2014 (has links)
Le principal objectif de cette étude est de mieux comprendre et de quantifier les paramètres et les processus de contrôle de la morphologie et de l’évolution stratigraphique du nord du bassin de Santos pour les derniers 49,5 my. Il s’agit de déconvoluer le signal climatique et tectonique dans l’enregistrement sédimentaire à travers de l’analyse sismique à diverses résolutions (~7-8 s et ~400 ms de penetration), de l’analyse lithologique et le calage chrono stratigraphique des limites de séquence majeures, à partir de 19 forages industriels. La modélisation stratigraphique par Dionisos combinée à nos observations nous a permis de quantifier les paramètres majeurs qui vont contrôler l’architecture sédimentaire à différentes échelles de temps. 9 séquences stratigraphiques sont ainsi identifiées et regroupées en 3 mégaséquences (Mégaséquences A, B et C): (i) La Mégaséquence A est caractérisée par des systèmes deltaïques qui viennent remplir l’espace d’accommodation créé par le fluage du sel vers le bassin entre la baie de Guanabara et Cabo Frio. Le flux sédimentaire qui la nourrit est mis en relation avec le paléo fleuve du Paraíba do Sul qui se deplace vers le bassin de Campos à la fin du development de la Mégaséquence et resulte dans une drastique reduction des flux du bassin de Santos; (ii) La Mégasequence B est caractérisée par la rétrogradation de tous les systèmes sédimentaires comme une réponse directe à la diminution des flux sédimentaires. Cette megasequence est aussi caracterisée par l’implantation des depots contouritiques entre 30 et 21 Ma, problablement liés à des changements dans la circulation oceanique dû a l’ouverture de la passage de Drake et de la Tasmanie (entre 37 et 28 Ma); (iii) La Mégasequence C est caractérisée par une progradation et le déplacement des offlap breaks de 70 km vers l’océan, depuis les derniers 11.5 my comme réponse de l’augmentation de flux sédimentaire qui caractérise le passage à des cycles glacio-eustatiques marqués dans le Quaternaire. / The main objective of this study is to better understand and to quantify experimentally the main parameters that control the geomorphological and stratigraphic evolution of the Cenozoic sedimentary succession of the northeast Santos basin, Brazil, in the last 49.5 my. For this purpose, a variety of combining methologies were used, such as: seismic analysis of a dataset composed of different resolution levels (~7-8 s and ~400 ms penetration), chronostratigraphic and lithological data from 19 exploratory wells and stratigraphic modeling. Seismic analysis and stratigraphic modelling led to the identification of 9 main stratigraphic sequences that could be grouped into 3 megasequences (Megasequences A, B and C): (i) Megasequence A is characterized by deltaic features developed into a ramp feature located between Guanabara Bay and Cabo Frio. The formation of this delta resulted in a sedimentary overcharge that induced the basinward salt migration. The sedimentary input that feeds this delta was interpreted as related to an ancient Paraíba do Sul River that diversion to the Campos basin at the end of the megasequence development, resulting in a dramatically reduce the sedimentary influxes into Santos basin; (ii) Megasequence B is characterized by the retrogradational trend of sedimentary systems that offset offlap break of surfaces developed at 30 and 21 Ma about 78 km landward. This megasequence is also characterized by the beginning of conturites deposition related to the changes of oceanic circulation due to the opening of Drake and Tasmanian passages; (iii) Megasequence C is characterized by progradational systems that resulted in the coastline shift about 70 km oceanwards, in the last 11.5 my. The dominant progradational trend of this sequence is interpreted as a response of the increase in the sedimentary influx rate intensified by the spectral characteristics and amplitude of the glacial-induced eustatic signal that characterizes the Quaternary period.
370

Fuzzy logic based decision support system for mass evacuation of cities prone to coastal or river flood / Système d'aide à la décision basé sur la logique floue pour l'évacuation massive de villes soumises aux inondations fluviales ou littorales

Jia, Xiaojuan 08 April 2013 (has links)
L’augmentation du risque d’inondation fluviale ou de submersion littorale est déjà visible à travers des événements récents comme la tempête Xynthia et les inondations du Var qui ont causé des dizaines de morts en France. Ces événements dramatiques bien que d’ampleur limitée auraient justifié l’évacuation préventive des zones à fort risque, mais les conséquences pour la population seront bien plus importantes lorsque des agglomérations urbaines de plusieurs dizaines ou centaines de milliers d’habitants menaceront d’être partiellement ou totalement submergées par les flots. Cette possibilité est déjà d’actualité pour des grandes mégapoles mondiales comme Alexandrie et Bangkok, et menace en France des villes comme Tours, Paris ou Nice. De plus en plus conscientes de cette éventualité, les grandes villes côtières, estuariennes et fluviales de France, d’Europe et sur tous les continents vont être amenées à préparer des plans de secours et d’évacuation de masse pour faire face à des événements exceptionnels. L’élaboration de ces plans s’avère extrêmement complexe et délicate aussi bien pour des raisons techniques, organisationnelles, sociologiques et même politiques. La grande majorité des villes du monde soumises à un risque de catastrophe de grande ampleur ne disposent pas de ce type de plan et une recherche auprès de différentes sources montre qu’il existe peu ou pas d’outils opérationnels pour aider les responsables territoriaux à mettre en œuvre ces plans en phase de préparation et de gestion de crise. Nos travaux visent plus précisément à contribuer à l’élaboration d’une méthode d’aide à la décision d’évacuation s’appuyant sur les plans d’évacuations réalisés en phase de préparation. Nous proposons pour cela d’adapter les outils de la logique floue à un ensemble d’indicateurs de synthèse sélectionnés à partir d’une méthode de planification des évacuations développée par ailleurs au sein du laboratoire Avenues-GSU. Ces indicateurs retenus intègrent des données classiques sur le niveau d’aléa (prévision globale et niveaux d’eau locaux), la vulnérabilité du territoire et des habitants, mais aussi et c’est plus innovant sur la capacité des autorités et de la population à évacuer dans un cadre sécurisé. Le résultat final de cette méthode, appliquée à la dimension spatiale avec les logiciels MatLab et ArcGIS, est une carte de nécessité d’évacuation indiquant les zones les plus prioritaires à évacuer selon une analyse multicritères en logique floue. Elle a été expérimentée sur le site pilote de l’estuaire de la Gironde et la ville de Bordeaux, et les résultats théoriques comparés avec les inondations historiques de 1981 et 1999. On a également étudié un scénario 2 prospectif tenant compte du changement climatique et des conséquences d’une élévation du niveau de la mer de 1m au cours du 21ème siècle. Cette méthode et cet outil prototype devraient aider à termes les décideurs à mieux appréhender une situation complexe en phase de pré-alerte et à évaluer le besoin réel d’évacuation sur la base d’un ensemble limité mais représentatif d’indicateurs. La carte de nécessité d’évacuation représente une avancée qui prolonge et complète la cartographie officielle de la prévision inondation (vigicrue) et de ses conséquences en termes d’anticipation des impacts et de gestion de crise au niveau local. / The increasing risk of river flooding or coastal submersion is already visible through recent events like the storm Xynthia and the floods in the Var department, which caused several dozens of deaths in France. These catastrophic events, even if their extent remains relatively limited, would have justified a preventive evacuation of high risk prone areas. However, the consequences for the population would be much more serious when large cities of hundreds of thousands of people will be partially or totally threatened by floods. This possibility is already an actual danger for large megacities like Bangkok and Alexandria, and also threatens French cities like Tours, Paris or Nice. Being more and more aware of this possibility, big coastal, estuarine and river cities in France, in Europe and in all continents are incited to prepare emergency and mass evacuation plans in order to prevent and cope with exceptional events. The elaboration of these plans is extremely complex and difficult due to technical, organizational, sociological and even political aspects. The great majority of cities in the world prone to large scale disasters do not already have this kind of plan at their disposal. Moreover, the existing state of the art shows that there are few operational tools to help territorial managers implement these plans in the phases of preparation and crisis management. Our work aims to contribute to the development of a support method for the evacuation decision taken in a crisis management context. This method is partly based on the information included in the provisional evacuation plans produced in the preparation phase. To reach this objective, we propose to adapt the tools of the fuzzy logic approach and apply them to a set of synthesized indicators. These indicators or decision criteria have been first selected from a method of evacuation planning previously developed by the research team Avenues-GSU. These criteria integrate classic data on the hazard level (overall forecast level and local flood water levels), the vulnerability of the territory and population and, which is more innovative, some information about the ability of the organization to evacuate and the security or the risk of the evacuation itself. The final result of this method, applied to the spatial dimension with the Matlab and ArcGIS software, is a map of the necessity to evacuate. This map shows the areas with the highest priority to be evacuated according to a fuzzy multicriteria analysis. It has been tested 5 at the pilot site of the city of Bordeaux located upstream in the Gironde estuary, and the theoretical results were compared with historical floods of 1981 and 1999. A hypothetic flood scenario was also studied taking into account the potential climate change impact and the consequences of a 1 meter sea level rise during the 21st century. This method and prototype tool should help policymakers to better understand a complex situation in pre-alert phase and assess the real need for urban zones evacuation on the basis of a limited but representative set of criteria. The maps of the necessity to evacuate represents an innovative proposal which extend and complement the existing official maps of flood forecasting (vigicrue) and its implications in terms of local impacts and crisis management anticipation.

Page generated in 0.0402 seconds