• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 151
  • 56
  • 6
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 211
  • 41
  • 38
  • 26
  • 24
  • 23
  • 23
  • 22
  • 21
  • 20
  • 20
  • 19
  • 17
  • 17
  • 16
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Étude des réservoirs géothermiques développés dans le socle et à l’interface avec les formations sédimentaires / Study of geothermal reservoirs developed in the basement and at the interface with the sedimentary units

Bertrand, Lionel 10 April 2017 (has links)
En France métropolitaine, les projets de géothermie haute température pour la production d’électricité sont principalement localisés dans le socle des fossés d’effondrement liés à la mise en place du Rift Ouest Européen. Le socle de ces fossés a été étudié sur deux analogues à l’affleurement sur les épaules du rift : les Vosges du Nord pour le fossé Rhénan et la bordure Est du Massif central pour la fosse de Valence. Cette étude a permis de montrer que le réseau de failles s’organise selon trois ordres de grandeurs de longueurs et d’espacements caractéristiques qui individualisent des blocs structuraux. Les orientations et l’espacement des failles formant ces blocs et la présence ou l’absence de certains ordres de grandeurs sont le résultat de l’héritage anté-rift du socle, ainsi que du mécanisme d’ouverture du bassin. Le potentiel réservoir des formations de socle et de la couverture surincombante a été analysé au regard de ces zones de failles et de l’altération supergène qui affecte le toit du socle. Ainsi, les lithologies potentiellement rencontrées en base des fossés ont pu être classées en fonction du potentiel de développement de porosité et de perméabilité matricielle dans les cœurs de failles, les zones endommagées et le réseau pervasif de fractures dans le protolithe. L’évolution de la fracturation dans les zones de failles a également pu être appréhendé, et une méthodologie de modélisation double milieu a été élaborée pour caractériser la porosité et la perméabilité de fractures et modéliser le fonctionnement d’un doublet géothermique dans une faille synthéthique équivalente aux cibles des projets géothermiques / High temperature geothermal projects for electricity production are in France mostly localized in the basement of basins linked to the West European Rifting event. The basement of theses basins have been studied on two outcrop analogues at the shoulders of the rift: the Northern Vosges mountains for the Upper Rhine Graben and the Eastern border of the Massif central for the Valence Graben. This study has shown that the fault network is organized in three orders of size with characteristic length and spacing, and that form characteristic structural blocks. The orientation and spacing of these faults and the presence or absence of some size orders are the result of structural inheritance of the basement and the mechanism of the basin opening. The reservoir potential of the basement rocks and the surrounding sedimentary cover has been analysed in light of the fault zones structure and the weathered layer at the top of the basement. Thus, the basement rocks of the basins has been classified in light of the potential of matrix porosity and permeability development in the fault core, the damaged zone and the fractured protolith. The evolution of the fracture network in the fault zone has been studied too, with the development of a double-porosity model in order to characterize the fracture porosity and permeability, and therefore simulate the working of a geothermal doublet in a synthethic fault zone analogue of the geothermal drilling targets
112

Trois essais en finance empirique / Three essays in empirical finance

Roger, Tristan 08 November 2013 (has links)
Cette thèse de doctorat comporte trois chapitres distincts. Dans le premier chapitre, nous étudions le comportement moutonnier d'investisseurs individuels français. Notre analyse empirique repose sur une base de données de presque 8 millions de transactions réalisées entre 1999 et 2006 par 87 373 investisseurs individuels français. Nous montrons que le comportement moutonnier persiste dans le temps et que la performance passée ainsi que le niveau de sophistication influencent ce comportement. Nous tentons également d'apporter une réponse à une question très peu abordée dans la littérature : adopter un comportement moutonnier est-il profitable pour l'investisseur individuel ? Notre analyse empirique indique que les investisseurs contrariants obtiennent des rendements plus extrêmes (positifs ou négatifs) que les investisseurs moutonniers. Dans le second chapitre, nous montrons que mesurer la précision d'une prévision du prix futur d'une action n'est pas suffisant pour évaluer la qualité de cette prévision car la prévisibilité des prix est susceptible d'évoluer dans le temps et dépend du titre considéré. Nous montrons que la persistance dans les différences individuelles de précision des prévisions d'analystes, mis en avant dans la littérature, ne constitue pas une preuve de différences de compétences entre analystes. Cette persistance est, en réalité, causée par une persistance de la volatilité de la rentabilité des titres. Nous introduisons une mesure de qualité des prévisions qui incorpore à la fois l'erreur de prévision et la prévisibilité du prix. La théorie des options nous fournit les éléments nécessaires à l'estimation de cette prévisibilité. Lorsque celle-ci est prise en compte, il n'y a plus de différences de compétences entre analystes. Dans le troisième chapitre, nous montrons que les analystes expérimentés et inexpérimentés ne couvrent pas le même type d'entreprises. Les analystes expérimentés couvrent des entreprises de type « blue chips » tandis que les analystes inexpérimentés couvrent des entreprises petites, jeunes et en croissance. Ces différences de couvertures impliquent que les analystes inexpérimentés émettent des prévisions de prix sur des entreprises dont les rendements sont plus volatils et donc moins prévisibles. En conséquence, la précision des prévisions n'est pas une bonne mesure pour évaluer si les analystes expérimentés sont meilleurs ou moins compétents que les analystes inexpérimentés. Lorsque ces différences de couvertures sont prises en compte, nous obtenons que les analystes expérimentés émettent néanmoins de meilleures prévisions. Bien que statistiquement significatif, l'impact économique de l'expérience des analystes est faible. / This dissertation is made of three distinct chapters. In the first chapter, we introduce a new measure of herding that allows for tracking dynamics of individual herding. Using a database of nearly 8 million trades executed between 1999 and 2006 by 87,373 individual investors, we show that individual herding is persistent over time and that past performance and the level of sophistication influence this behavior. We are also able to answer a question that was previously unaddressed in the literature: is herding profitable for investors? Our unique dataset reveals that the investors trading against the crowd tend to exhibit more extreme returns and poorer risk-adjusted performance than the herders. In the second chapter, we show that measuring the accuracy of a target price is not sufficient to assess its quality, because the forecast predictability (which depends on the stock return volatility and on the forecast horizon) is likely to vary across stocks and over time. We argue that the evidence of time persistent differences in analysts' target price accuracy, obtained in previous studies, cannot be interpreted as a proof of persistent differential abilities. Our analysis indicates that the persistence in accuracy is driven by persistence in stock return volatility. We introduce a measure of target price quality that considers both the forecast inaccuracy and the forecast predictability. Using elements from option-pricing theory, we provide a simple solution to the issue of estimating target price predictability. Our empirical analysis reveals that, when forecast predictability is taken into account, financial analysts do not exhibit significant persistent differential abilities to forecast future stock prices. In the third chapter, we show that experienced financial analysts tend to cover different firms than inexperienced analysts. Experienced analysts tend to follow blue chips (i.e., large, international, mature firms) while inexperienced analysts focus on small, young, growth-oriented firms. These differences in coverage decisions imply that inexperienced analysts issue target prices on firms for which stock returns are more volatile, and thus less predictable. As a consequence, the accuracy measure of target prices fails to evaluate differences in ability between experienced and inexperienced analysts. When taking into account these differences in coverage decisions, we still find that experienced analysts do a better job at forecasting stock prices. Our results on the influence of analysts' characteristics on target price quality are statistically significant but economically weak.
113

Le "non-recours" à la Couverture maladie universelle : émergence d'une catégorie d'action et changement organisationnel / The "non take-up" of free health insurance coverage : emergence of a category of action and organisational change

Revil, Héléna 16 January 2014 (has links)
Cette thèse analyse l'émergence, en France, de la question du non-recours à la Couverture maladie universelle complémentaire (CMU C) et à l'Aide complémentaire santé (ACS), ainsi que son institutionnalisation dans la branche Maladie de la Sécurité sociale. La CMU C et l'ACS ont été créées pour limiter les inégalités d'accès aux soins. Celles-ci se sont en effet accrues avec les augmentations continues des frais de santé laissés à la charge des patients. Au croisement de la socio-histoire, de la sociologie de l'action publique et de la sociologie des organisations, le processus d'institutionnalisation du non-recours est étudié de manière chronologique, au travers de séquences d'action qui ont : initié une attention pour le phénomène ; positionné ses enjeux au regard des restructurations de la protection maladie des plus démunis ; construit des représentations et structuré une stratégie d'action pour le traiter. Principalement problématisé autour d'un enjeu d'effectivité des droits CMU C et ACS, le non-recours est devenu peu à peu un instrument opérationnel de la correction des inégalités d'accès aux soins, définie comme axe prioritaire de la gestion du risque maladie. Sa prise en compte a engagé l'Assurance maladie dans des changements profonds de pratiques et d'organisation du travail. De manière surplombante, c'est une transformation du rapport de l'institution à ses ressortissants fragiles qui s'est enclenchée, afin de faire en sorte que les populations démunies se rapprochent de leurs droits. En ce sens, l'institutionnalisation du non-recours s'inscrit dans un mouvement qui vise à concentrer les moyens et les actions de la branche Maladie sur les populations dites fragiles. Une approche de l'action publique par le non-recours aux droits paraît ainsi pertinente pour comprendre comment l'intégration de problèmes émergents, peu visibles ou volontairement ignorés, leur mise en sens par des acteurs publics et l'institution de nouvelles catégories d'action viennent travailler les organismes administratifs bureaucratiques dans leurs fonctionnements, leurs logiques et leurs normes d'intervention les plus ancrés. L'approche par le non recours est, en l'occurrence, un traceur du changement opéré à l'aune des ressortissants de l'action publique. / This thesis analyzes the emergence, in France, of the issue of non take-up of Free Supplementary Health Insurance Coverage (“Couverture maladie universelle complémentaire” or “CMU-C”) and Assistance for Private Health Insurance (“Aide complémentaire santé” or “ACS”), as well as its institutionalization within the Health branch of the Social Security system. The CMU-C and the ACS have been created to limit the inequalities in access to healthcare. These have indeed risen with the continuous increase of health expenses left payable by the patients. At the crossroads of socio-history, sociology of public action and sociology of organizations, the process of institutionalization of non take-up is studied chronologically, through sequences of action which have: brought to attention the phenomenon; positioned its challenges in light of the health care restructurings for the most destitute; built representations and structured a plan of action to treat it. Problematized primarily around the challenge of operativity of the CMU-C and ACS benefits, the non take-up has gradually become an operational tool for the correction of inequalities in access to healthcare, which was defined as a priority in the management of health issues. Addressing it has committed the health system to profound changes in its practices and work organization. Overarching it, a transformation of the institution's relationship to its vulnerable nationals has been set into motion, to ensure that the destitute populations are brought closer to their benefits. In this respect, the institutionalization of non take-up is part of a movement that seeks to concentrate the resources and actions of the Health branch on the populations considered vulnerable. An approach of public action by the non take-up of benefits thus appears relevant for understanding how the integration of emerging problems, less visible or deliberately ignored, their sensegiving by public actors and the institution of new categories of action, come to challenge the bureaucratic administrations in their most entrenched functioning, logic and standards of intervention. The approach by the non take-up is, as it happens, an indicator of change operated with regard to public action beneficiaries.
114

Recherche de vulnérabilités logicielles par combinaison d'analyses de code binaire et de frelatage (Fuzzing) / Software vulnerability research combining fuzz testing and binary code analysis

Bekrar, Sofia 10 October 2013 (has links)
Le frelatage (ou fuzzing) est l'une des approches les plus efficaces pour la détection de vulnérabilités dans les logiciels de tailles importantes et dont le code source n'est pas disponible. Malgré une utilisation très répandue dans l'industrie, les techniques de frelatage "classique" peuvent avoir des résultats assez limités, et pas toujours probants. Ceci est dû notamment à une faible couverture des programmes testés, ce qui entraîne une augmentation du nombre de faux-négatifs; et un manque de connaissances sur le fonctionnement interne de la cible, ce qui limite la qualité des entrées générées. Nous présentons dans ce travail une approche automatique de recherche de vulnérabilités logicielles par des processus de test combinant analyses avancées de code binaire et frelatage. Cette approche comprend : une technique de minimisation de suite de tests, pour optimiser le rapport entre la quantité de code testé et le temps d'exécution ; une technique d'analyse de couverture optimisée et rapide, pour évaluer l'efficacité du frelatage ; une technique d'analyse statique, pour localiser les séquences de codes potentiellement sensibles par rapport à des patrons de vulnérabilités; une technique dynamique d'analyse de teinte, pour identifier avec précision les zones de l'entrée qui peuvent être à l'origine de déclenchements de vulnérabilités; et finalement une technique évolutionniste de génération de test qui s'appuie sur les résultats des autres analyses, afin d'affiner les critères de décision et d'améliorer la qualité des entrées produites. Cette approche a été mise en œuvre à travers une chaîne d'outils intégrés et évalués sur de nombreuses études de cas fournies par l'entreprise. Les résultats obtenus montrent son efficacité dans la détection automatique de vulnérabilités affectant des applications majeures et sans accès au code source. / Fuzz testing (a.k.a. fuzzing) is one of the most effective approaches for discovering security vulnerabilities in large and closed-source software. Despite their wide use in the software industry, traditional fuzzing techniques suffer from a poor coverage, which results in a large number of false negatives. The other common drawback is the lack of knowledge about the application internals. This limits their ability to generate high quality inputs. Thus such techniques have limited fault detection capabilities. We present an automated smart fuzzing approach which combines advanced binary code analysis techniques. Our approach has five components. A test suite reduction technique, to optimize the ratio between the amount of covered code and the execution time. A fast and optimized code coverage measurement technique, to evaluate the fuzzing effectiveness. A static analysis technique, to locate potentially sensitive sequences of code with respect to vulnerability patterns. An origin-aware dynamic taint analysis technique, to precisely identify the input fields that may trigger potential vulnerabilities. Finally, an evolutionary based test generation technique, to produce relevant inputs. We implemented our approach as an integrated tool chain, and we evaluated it on numerous industrial case studies. The obtained results demonstrate its effectiveness in automatically discovering zero-day vulnerabilities in major closed-source applications. Our approach is relevant to both defensive and offensive security purposes.
115

Terres et pierres pour matières de cultures : l'apparition et la diffusion de nouveaux modes et matériaux de construction dans le Nord-Est de la Gaule romaine (IIème siècle avant J.-C. - IIème siècle après J.-C.) / Earthen and stone resources as materials of cultures : appearance and diffusion of new building arrangements and materials in North-Eastern Roman Gaul (IInd century BC - IInd century AD)

Delencre, Florent 15 November 2017 (has links)
Les matériaux de construction de type romain ont souvent éveillé un intérêt croissant par leur présence dans des contextes précoces, parfois bien antérieurs avant la Guerre des Gaules. Façonnés à partir de ressources naturelles, leur forme finale répond de plus à des contraintes anthropiques et culturelles. Pourtant, sans pour autant être négligés lors des opérations archéologiques, les matériaux de construction tiennent un rôle annexe dans la compréhension des sites. Les aspects économiques, techniques et architecturaux sont régulièrement évoqués, participant à la modélisation d’un « paysage » exploité autour des sites considérés, mais la question des matériaux comme marqueurs culturels témoignant des relations interculturelles entre Rome et les divers peuples gaulois n’a jamais été réellement abordée. Le récolement exhaustif des données archéologiques pour le Nord-Est de la Gaule met en évidence des rythmes distincts dans l’appropriation des nouveaux modes de construction, qui se caractérisent par des agencements de matériaux particuliers se calquant sur les limites administratives romaines. De plus, la diversité des matériaux employés est fonction de la disponibilité locale ou non des ressources nécessaires pour leur fabrication. À plus large échelle, deux groupes se définissent par des modalités opposées : des peuples pour lesquels la production des matériaux de construction se restreint aux ressources locales nécessaires et ceux pour lesquels intervient un transport relativement important de ces matériaux, parfois sur de grandes distances. Ces éléments permettent de discuter la question des identités, civiques et provinciales, qui peuvent être à l’origine de ces différences. Dans le même temps, l’espace géographique concerné par notre analyse multiscalaire montre des situations administratives, sociétales et culturelles diverses qui témoignent des relations complexes avec Rome et la romanité. / Roman building materials often arose a growing interest through their presence in early contexts, sometimes way before Gallic Wars. Made from natural resources, their final shape corresponds to anthropogenic and cultural constraints. However, even if building materials are not neglected during archaeological excavations, so far they have been considered as playing a minor part in understanding ancient sites. Economical, technical and architectural aspects are regularly mentioned, creating the picture of an exploited « landscape » around the studied areas, but the question of materials as cultural markers witnessing intercultural relations between Rome and Gallic tribes has never really been considered. The forensic listing of archaeological data for the North-Eastern Gaul highlights distinct rythms for the adoption of new construction habits, which are characterized by peculiar material arrangements echoing Roman administrative limits. Moreover, the diversity of the materials used is linked to the local presence or absence of the required resources for their production. On a wider scale, two groups can be defined by opposed terms : Gallic tribes only concerned by local natural resources for the production of building materials and those who transport them, sometimes over great distances. These elements allow us to discuss the issue about the double aspect of identities (civic and provincial) which can be the source of these discrepancies. In the same time, the geographical area concerned by our multi-scale analysis shows various administrative, social and cultural situations testifying of complex relations maintained with Rome and the Roman culture.
116

Système d'annulation d'écho pour répéteur iso-fréquence : contribution à l'élaboration d'un répéteur numérique de nouvelle génération / Echo cancellation system for iso-frequency repeaters : contribution to the development of a new generation digital repeater

Zeher, Amar 17 November 2014 (has links)
Le déploiement des répéteurs iso-fréquence est une solution économique pour étendre la couverture d’un émetteur principal aux zones d’ombre. Cependant, ce mode de déploiement fait apparaître le phénomène des échos radio-fréquence entre antennes d’émission et de réception du répéteur. Selon les standards, un écho aussi faible soit-il réduit le débit de la liaison radio, tandis qu’un écho fort fait courir au répéteur le risque d’endommager ses circuits électroniques, ces risques sont dûs aux ondulations de puissance créées par les échos. L’objectif de cette thèse à caractère industriel est d’étudier ce phénomène naturel en considérant des signaux provenant de différents standards des télécommunications. Cette étude permet une caractérisation des échos radio-fréquence pour mieux s’orienter vers une solution optimisée et industriellement réalisable.Nous nous sommes orientés vers la solution du traitement du signal avancé en favorisant le filtrage adaptatif pour sa rapidité de convergence et sa simplicité relative d’implantation matérielle. Les circuits reconfigurables sont retenus pour leur prix et leur souplesse. L’implantation des solutions est effectuée en virgule fixe afin de satisfaire les exigences de réactivité. Durant la mise en oeuvre de la solution anti-écho, nous avons proposé une multitude de solutions numériques souples et fiables. À partir de ce constat, notre partenaire industriel a décidé de généraliser ce mode de traitement par le développement, la fabrication et la commercialisation de répéteurs de nouvelle génération entièrement numériques. / On-frequency repeaters are a cost-effective solution to extend coverage and enhance wireless communications, especially in shadow areas. However, coupling between the receiving antenna and the transmitting antenna, called radio frequency echo, increases modulation errors and creates oscillations in the system when the echo power is high. According to the communication standards, extremely weak echoes decrease the transmission rate, while strong echoes damage electroni ccircuits because of power peaks. This thesis aims at characterizing the echo phenomenon under different modulations, and proposing an optimized solution directly integrated to industry. We have turned to digital solutions especially the adaptive because of their high convergence rate and their simplicity to be implemented. The programmable circuits are chosen for their attractive price and their flexibility. When implementing echo cancellation solution, we proposed several reliable solutions, showing that digital processing is much more beneficial. For this reason, digital solutions are generalized, and the new generation of repeaters is fully digital.
117

Impact du changement d'occupation des sols passé et à venir sur la dynamique de la circulation de la mousson ouest africaine / Impacts of land use change of the past years and the future on the dynamique of circulation of west african monsoon

Sy, Souleymane 20 July 2016 (has links)
Cette thèse vise à identifier et évaluer les impacts biogéophysiques des changements d'usage des sols depuis les 150 dernières années jusqu'à la fin du XXIe siècle sur le climat en Afrique de l’Ouest à partir des modèles LUCID et des scénarios CMIP5 utilisés dans le contexte LUCID-CMIP5. Les analyses menées dans cette thèse se sont d'abord basées dans le Sahel et dans le Golfe de Guinée où les changements passés de la couverture terrestre sont supérieurs à 5%. Les simulations LUCID ont été d'abord évaluées dans cette thèse en comparant les précipitations et la température de l'air simulées par les modèles aux données d'observation. Les analyses ont montré que la moyenne et la variabilité inter-annuelle observées des précipitations et de la température sont respectivement sous-estimées et surestimées par la plupart des modèles de climat LUCID même si la température semble mieux simulée que les précipitations. Dans cette étude, les deux simulations actuelles forcées respectivement par une distribution actuelle et pré-industrielle de la couverture terrestre ont été comparées. Les résultats montrent qu'il n'y a pas de différence évidente entre ces deux simulations par rapport aux valeurs moyennes climatiques des précipitations et de la température dans les modèles comme si les changements de la couverture terrestre n'ont pas vraiment d'importance sur la représentation de ces variables. Dans le Golfe de Guinée, les analyses montrent que l'expansion des surfaces cultivées et des pâturages s'est effectuée au détriment d'une déforestation entraînant une diminution du LAI, une augmentation d'albédo et une diminution de la rugosité de surface. Les analyses montrent que les impacts historiques des changements d'occupation des sols sur le climat dans ces régions restent très petits par rapport aux changements induits par l'augmentation des gaz à effet de serre dans l’atmosphère. Le LAI simulé par les modèles de surface LUCID et leur relation avec le climat en Afrique de l'Ouest ont été évalués, les résultats montrent que les précipitations sont fortement et positivement corrélées à la densité de feuillage avec des valeurs supérieures ou égales à 0.8 dans les deux régions. La plupart des modèles de climat montrent que la corrélation entre le LAI et la température de l'air est positive dans le Sahel et négative dans le Golfe de Guinée et suggèrent que plus de LAI dans le golfe de Guinée conduit plus d'évapotranspiration et donc une surface plus froide, alors que dans le Sahel l'effet d'albédo de l'augmentation du LAI peut dominer et augmenter la température de surface.Dans un second temps, l'impact biophysique des changements futurs de la couverture terrestre sur le climat de surface du XXIe siècle a été évalué à l'aide des simulations spécifiques similaires aux scénarios RCP8.5 mais avec une végétation fixe en 2006. Les analyses révèlent qu'à l’échelle régionale, les impacts biophysiques des changements d'occupation des sols dans les scénarios ont été globalement faibles mais statistiquement significatifs au Sahel et en Afrique centrale où la déforestation est prescrite dans le futur (>10%), mais avec une large dispersion sur la réponse du climat résultant aux différentes paramétrisations de la surface terrestre dans les modèles de climat. / By climate models developed in the LUCID project and CMIP5 models used in the LUCID-CMIP5 projet, this thesis aims to identify and evaluate biogeophysical impacts of LULCC of the past 150 years and the end of XXIst century on surface climate in West Africa. Focusing analysis in two contrasted regions of West Africa: Sahel and Guinea where land cover change is above 5% since pre-industrial times, results reveal expansion of crops and pasture and deforestation in Guinea in all LUCID models. In this work, simulations of present-day rainfall and surface air temperature have been compared with observed datasets. Results show that the observed mean and inter-annual variability of rainfall are respectively underestimated and overestimated by most of the seven climate models. Overall surface air temperature is better simulated than precipitation.Two simulations of rainfall and surface air temperature, forced respectively with present-day and pre-industrial land cover distribution are also compared. Results show that there is no obvious/visible difference between the two simulations with respect to mean climatic values of both rainfall and temperature as if the changes in land cover did not really matter for the good representation of those variables. Finally, this thesis evaluates leaf area index (LAI) in the LUCID models and its relationships with surface climate. Observations reveal that precipitation is highly and positively correlated to foliage density with values larger or equal to 0.8 in both the Sahel and Guinea. Five out of seven models show positive correlations, but not as large as in the observations. However none of the models is able to capture a larger correlation between precipitation and LAI in Guinea than in the Sahel. Most of climate models show that correlation between LAI and surface air temperature is positive in the Sahel and negative in Guinea. It suggests that more LAI in Guinea will lead to more evapotranspiration and therefore cooler surface, while in the Sahel the albedo effect of increased LAI may dominate and increase surface temperature. Finally, analysis reveals that historical effects of land-use changes are not regionally significant among the seven climate models due to a small land-cover change prescribed in these regions compared to the changes induced by large scale forcing such as sea surface temperatures changes and CO2 concentration increase.Furthermore, biogeophysical impact of land-use change in the XXIst Century climate were evaluated using specific simulations similar to RCP8.5 scenarios but with a prescribed fixed land cover map on 2006. The analysis reveals, that in contrast of last 150 years, deforestation continues in the coming years in tropical region in scenarios resulting from the extension of the cultivated area reaching 15 million km2 in 2100 over tropical Africa. Regionally, the biogeophysical impacts of projected changes in land cover in RCP8.5 scenarios were generally small but statistically significant in the Sahel and Central Africa regions where deforestation is more than 10% with a wide dispersion of climate response due to differents parameterizations of land surface in climate models.
118

Contributions à la vérification et à la validation efficaces fondées sur des modèles / contributions to efficient model-based verificarion and validation

Dreyfus, Alois 22 October 2014 (has links)
Les travaux de cette thèse contribuent au développement de méthodes automatiques de vérification et de valida-tion de systèmes informatiques, à partir de modèles. Ils sont divisés en deux parties : vérification et générationde tests.Dans la partie vérification, pour le problème du model-checking régulier indécidable en général, deux nouvellestechniques d’approximation sont définies, dans le but de fournir des (semi-)algorithmes efficaces. Des sur-approximations de l’ensemble des états accessibles sont calculées, avec l’objectif d’assurer la terminaison del’exploration de l’espace d’états. Les états accessibles (ou des sur-approximations de cet ensemble d’états)sont représentés par des langages réguliers, ou automates d’états finis. La première technique consiste à sur-approximer l’ensemble des états atteignables en fusionnant des états des automates, en fonction de critèressyntaxiques simples, ou d’une combinaison de ces critères. La seconde technique d’approximation consisteaussi à fusionner des états des automates, mais à l’aide de transducteurs. De plus, pour cette seconde technique,nous développons une nouvelle approche pour raffiner les approximations, qui s’inspire du paradigme CEGAR(CounterExample-Guided Abstraction Refinement). Ces propositions ont été expérimentées sur des exemplesde protocoles d’exclusion mutuelle.Dans la partie génération de tests, une technique qui permet de combiner la génération aléatoire avec un critèrede couverture, à partir de modèles algébriques (des grammaires algébriques, des automates à pile) est définie.Générer les tests à partir de ces modèles algébriques (au lieu de le faire à partir de graphes) permet de réduirele degré d’abstraction du modèle et donc de générer moins de tests qui ne sont pas exécutables dans le systèmeréel. Ces propositions ont été expérimentées sur la grammaire de JSON (JAvaScript Object Notation), ainsi quesur des automates à pile correspondant à des appels de fonctions mutuellement récursives, à une requête XPath,et à l’algorithme Shunting-Yard. / The thesis contributes to development of automatic methods for model-based verification and validation ofcomputer systems. It is divided into two parts: verification and test generation.In the verification part, for the problem of regular model checking undecidable in general, two new approxi-mation techniques are defined in order to provide efficient (semi-)algorithms. Over-approximations of the setof reachable states are computed, with the objective of ensuring the termination of the exploration of the statespace. Reachable states (or over-approximations of this set of states) are represented by regular languages or,equivalently, by finite-state automata. The first technique consists in over-approximating the set of reachablestates by merging states of automata, based on simple syntactic criteria, or on a combination of these criteria.The second approximation technique also merges automata states, by using transducers. For the second tech-nique, we develop a new approach to refine approximations, inspired by the CEGAR paradigm (for Counter-Example-Guided Abstraction Refinement). These proposals have been tested on examples of mutual exclusionprotocols.In the test generation part, a technique that combines the random generation with coverage criteria, fromcontext-free models (context-free grammars, pushdown automata) is defined. Generate tests from these mo-dels (instead of doing from graphs) reduces the model abstraction level, and therefore allows having moretests executable in the real system. These proposals have been tested on the JSON grammar (JavaScript ObjectNotation), as well as on pushdown automata of mutually recursive functions, of an XPath query, and of theShunting-Yard algorithm.
119

Algorithmes distribués de consensus de moyenne et leurs applications dans la détection des trous de couverture dans un réseau de capteurs / Distributed average consensus algorithms and their applications to detect coverage hole in sensors network

Hanaf, Anas 21 November 2016 (has links)
Les algorithmes distribués de consensus sont des algorithmes itératifs de faible complexité où les nœuds de capteurs voisins interagissent les uns avec les autres pour parvenir à un accord commun sans unité coordinatrice. Comme les nœuds dans un réseau de capteurs sans fil ont une puissance de calcul et une batterie limitées, ces algorithmes distribués doivent parvenir à un consensus en peu de temps et avec peu d’échange de messages. La première partie de cette thèse s’est basée sur l’étude et la comparaison des différents algorithmes de consensus en mode synchrone et asynchrone en termes de vitesse de convergence et taux de communications. La seconde partie de nos travaux concerne l’application de ces algorithmes de consensus au problème de la détection de trous de couverture dans les réseaux de capteurs sans fil.Ce problème de couverture fournit aussi le contexte de la suite de nos travaux. Il se décrit comme étant la façon dont une région d’intérêt est surveillée par des capteurs. Différentes approches géométriques ont été proposées mais elles sont limitées par la nécessité de connaitre exactement la position des capteurs ; or cette information peut ne pas être disponible si les dispositifs de localisation comme par exemple le GPS ne sont pas sur les capteurs. À partir de l’outil mathématique appelé topologie algébrique, nous avons développé un algorithme distribué de détection de trous de couverture qui recherche une fonction harmonique d’un réseau, c’est-à-dire annulant l’opérateur du Laplacien de dimension 1. Cette fonction harmonique est reliée au groupe d’homologie H1 qui recense les trous de couverture. Une fois une fonction harmonique obtenue, la détection des trous se réalise par une simple marche aléatoire dans le réseau. / Distributed consensus algorithms are iterative algorithms of low complexity where neighboring sensors interact with each other to reach an agreement without coordinating unit. As the nodes in a wireless sensor network have limited computing power and limited battery, these distributed algorithms must reach a consensus in a short time and with little message exchange. The first part of this thesis is based on the study and comparison of different consensus algorithms synchronously and asynchronously in terms of convergence speed and communication rates. The second part of our work concerns the application of these consensus algorithms to the problem of detecting coverage holes in wireless sensor networks.This coverage problem also provides the context for the continuation of our work. This problem is described as how a region of interest is monitored by sensors. Different geometrical approaches have been proposed but are limited by the need to know exactly the position of the sensors; but this information may not be available if the locating devices such as GPS are not on the sensors. From the mathematical tool called algebraic topology, we have developed a distributed algorithm of coverage hole detection searching a harmonic function of a network, that is to say canceling the operator of the 1-dimensional Laplacian. This harmonic function is connected to the homology group H1 which identifies the coverage holes. Once a harmonic function obtained, detection of the holes is realized by a simple random walk in the network.
120

Apport des indices de végétation pour l'évaluation de la couverture du sol en vue d'une modélisation spatiale de l'érosion

Cyr, Linda January 1993 (has links)
Résumé : Au Québec méridional, la principale source de dégradation du sol est l'érosion causée par la pluie. L'augmentation de la monoculture en rangs dans les secteurs à topographie accidentée, tel que l'Estrie, accroît les risques d'érosion hydrique. En effet, ce type de culture laisse les champs à découvert, sans protection, au cours des mois de l'année les plus propices à l'érosion hydrique. On peut alors affirmer que les risques d'érosion varient en fonction de plusieurs facteurs, en particulier le degré de protection offert par le couvert végétal en place. Ainsi, pour l'amélioration du calcul des pertes de sol causée par l'érosion hydrique, il devient important de pouvoir calculer le plus précisément possible le pourcentage de couverture au sol de différentes cultures pour une saison végétative, en plus de l'érosivité des pluies dont l'agressivité varie dans le temps et dont l'effet est intimement relié au couvert en place. Des mesures radiométriques (CIMEL) et photographiques furent prises sur le terrain à intervalle d'environ dix jours pour six cultures dominantes. Les mesures radiométriques nous permettent de calculer les indices de végétation tandis que les photographies servent à estimer le taux de couverture végétale pour une saison végétative. L'utilisation d'images SPOT multidates va permettre de déterminer les relations entre les indices de végétation mesurés sur le terrain et ceux calculés avec l'imagerie satellitaire. Par la suite, la relation entre le taux de couverture et les indices de végétation pour chaque culture est établie. Les résultats démontrent différents comportements en terme de couvert, qui correspondent aux périodes de forts et faibles risques d'érosion hydrique pour une saison végétative. Il est également intéressant de constater que l'indice de végétation, en général, surestime le taux de couverture en début de saison et le sous-estime en fin de saison végétative. De plus, la sénescence pose un problème au calcul du taux de couverture à l'aide des indices de végétation, ces cerniers ayant été conçu pour l'estimation de la végétation verte vivante.|| Abstract : In southern Quebec, the main source of soil degradation is erosion induced by rain fall. The growing use of in-row crop planting practices in areas of rough terrain, such as The Eastern Townships, increases the risk of water erosion. These agricultural practices leave the bare soil with no protection during the months of high erosion risk. Erosion risks are related to several factors however, the main factor is the level of protection offered by the vegetation cover. To achieve more accurate results from the Universal Soil Loss Equation, the percentage of ground cover for different crop types should be calculated as precisely as possible, for an entire growing season. It is equally important to measure the strength and quantity of rainfall over the affected area. Field radiometric and photographic data were taken on an interval of approximately ten days for six main crop types. The radiometric measurements allow us to calculate the vegetation indices and the photographic measurements are used to calculate the amount of vegetal cover throughout a growing season. The use of multitemporal SPOT imagery assisted in establishing the relationship between the vegetation indices calculated from the field data, and the ones calculated from the satellite imagery. The relationship between the amount of vegetation ground cover and the vegetation indices for each crop type was then calculated. The results show different behaviours in terms of cover, which are related to the periods of high and low water erosion over a growing season. We can also observe that as a general rule the vegetation indices over-estimate the amount of vegetation ground cover at the beginning of the growing season and under-estimate it at the end. Senescent vegetation creates a problem when calculating the amount of ground cover with the indices since the indices were created to estimate living vegetation.

Page generated in 0.0345 seconds