• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 488
  • 296
  • 197
  • 80
  • 78
  • 36
  • 36
  • 34
  • 16
  • 10
  • 10
  • 8
  • 8
  • 7
  • 7
  • Tagged with
  • 1444
  • 155
  • 148
  • 137
  • 114
  • 114
  • 113
  • 107
  • 100
  • 80
  • 69
  • 68
  • 66
  • 55
  • 54
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
861

Three topics in algebraic curves over finite fields / Três tópicos em curvas algébricas sobre corpos finitos

Coutinho, Mariana de Almeida Nery 14 March 2019 (has links)
In the present work is presented a brief data collection about the history of prime numbers and how this subject is shown in the new scenario brought by BNCC (Common Curricular National Base) . It was proved the Fundamental Arithmetic Theorem and it was presented two important ways to calculate that are the Congruence and the Fermet Theorem. It is given a teaching method and a differentiated material to be used in class. / Neste trabalho é apresentado um breve levantamento da história dos números primos e de que maneira o assunto acerca desses números aparecem no novo cenário trazido pela BNCC. Provamos o Teorema Fundamental da Aritmética e apresentamos duas ferramentas importantes de cálculo, que são as Congruências e o Pequeno Teorema de Fermat. Apresentamos ainda uma proposta didática e um material diferenciado para ser utilizado em sala de aula.
862

Application du Modèle à Distribution de Points au corps humain pour la ré-identification de personnes / Alignment of a Point Distribution Model onto the human body for person re-identification

Huynh, Olivier 31 May 2016 (has links)
L'essor des systèmes mobiles pose de nouvelles problématiques dans le domaine de vision par ordinateur. Les techniques de ré-identification s'appuyant sur un réseau de caméras fixes doivent être repensées afin de s'adapter à un décor changeant. Pour répondre à ces besoins, cette thèse explore, dans le cadre du corps humain, l'utilisation d'un modèle structurel habituellement employé pour de la reconnaissance faciale. Il s'agit de l'alignement d'un modèle à distribution de points (Point Distribution Model ou PDM). L'objectif de ce pré-traitement avant la ré-identification est triple, segmenter la personne du décor, améliorer la robustesse vis-à-vis de sa pose et extraire des points clés spatiaux pour construire une signature basée sur son comportement.Nous concevons et évaluons un système complet de ré-identification, découpé en trois modules mis en séquence. Le premier de ces modules correspond à la détection de personnes. Nous proposons de nous baser sur une méthode de l'état de l'art utilisant les Channel Features avec l'algorithme AdaBoost.Le second module est l'alignement du PDM au sein de la boîte englobante fournie par la détection. Deux approches sont présentées dans cette thèse. La première s'appuie sur une formulation paramétrique du modèle de forme. L'alignement de ce modèle est guidé par la maximisation d'un score d'un modèle d'apparence GentleBoost utilisant des caractéristiques locales de type histogrammes de gradients orientés. La seconde approche exploite une technique de cascade de régressions de forme. L'idée principale est le regroupement de déformations homogènes en clusters et la classification de ces derniers dans le but d'aligner le PDM itérativement.Enfin, le troisième module est celui de la ré-identification. Nous montrons que l'utilisation d'un PDM en support permet d'améliorer les résultats de ré-identification. Nos expérimentations portent sur des signatures d'apparence classique, les histogrammes de couleurs, et sur un descripteur de forme, le Shape Context. L'évaluation de ce dernier fournit des résultats encourageants pour une perspective d'utilisation des PDM au sein d'une reconnaissance de démarches. / The emergence of mobile systems brings new problematics in computer vision. Static camera-based methods for re-identification need to be adapted in this new context. To deal with dynamical background, this thesis proposes to employ the well known Point Distribution Model (PDM), usually applied for face alignment, on the human body. Three advantages come from this pre-processing before re-identification, segment the person from background, enhance robustness to the person pose and extract spatial key points to build a behavioural-based signature.We implement and evaluate a complete framework for re-identification, divided in three sequential modules. The first one corresponds to the pedestrian detection. We use an efficient method of the state of the art employing the Channel Features with the algorithm AdaBoost.The second one is the PDM alignment within the bounding box provided by the detection step. Two distinct approaches are presented in this thesis. The first method relies on a parametric formulation to describe the shape, similar to the ASM or AAM. To fit this shape model, we maximize the score of an appearance model defined by GentleBoost, which employs local histograms of oriented gradients. The second approach is based on the cascade regression shape scheme. The main idea is the approximation for each step into a classification of homogeneous deformations, grouped by unsupervised clustering.The third module is the re-identfication one. We show that employing a PDM as a structural support improves re-identification results. We experiment classic appearance-based signatures, color histograms and the shape descriptor Shape Context. The results are encouraging for application perspective of PDM for the gait recognition.
863

Deep learning on attributed graphs / L'apprentissage profond sur graphes attribués

Simonovsky, Martin 14 December 2018 (has links)
Le graphe est un concept puissant pour la représentation des relations entre des paires d'entités. Les données ayant une structure de graphes sous-jacente peuvent être trouvées dans de nombreuses disciplines, décrivant des composés chimiques, des surfaces des modèles tridimensionnels, des interactions sociales ou des bases de connaissance, pour n'en nommer que quelques-unes. L'apprentissage profond (DL) a accompli des avancées significatives dans une variété de tâches d'apprentissage automatique au cours des dernières années, particulièrement lorsque les données sont structurées sur une grille, comme dans la compréhension du texte, de la parole ou des images. Cependant, étonnamment peu de choses ont été faites pour explorer l'applicabilité de DL directement sur des données structurées sous forme des graphes. L'objectif de cette thèse est d'étudier des architectures de DL sur des graphes et de rechercher comment transférer, adapter ou généraliser à ce domaine des concepts qui fonctionnent bien sur des données séquentielles et des images. Nous nous concentrons sur deux primitives importantes : le plongement de graphes ou leurs nœuds dans une représentation de l'espace vectorielle continue (codage) et, inversement, la génération des graphes à partir de ces vecteurs (décodage). Nous faisons les contributions suivantes. Tout d'abord, nous introduisons Edge-Conditioned Convolutions (ECC), une opération de type convolution sur les graphes réalisés dans le domaine spatial où les filtres sont générés dynamiquement en fonction des attributs des arêtes. La méthode est utilisée pour coder des graphes avec une structure arbitraire et variable. Deuxièmement, nous proposons SuperPoint Graph, une représentation intermédiaire de nuages de points avec de riches attributs des arêtes codant la relation contextuelle entre des parties des objets. Sur la base de cette représentation, l'ECC est utilisé pour segmenter les nuages de points à grande échelle sans sacrifier les détails les plus fins. Troisièmement, nous présentons GraphVAE, un générateur de graphes permettant de décoder des graphes avec un nombre de nœuds variable mais limité en haut, en utilisant la correspondance approximative des graphes pour aligner les prédictions d'un auto-encodeur avec ses entrées. La méthode est appliquée à génération de molécules / Graph is a powerful concept for representation of relations between pairs of entities. Data with underlying graph structure can be found across many disciplines, describing chemical compounds, surfaces of three-dimensional models, social interactions, or knowledge bases, to name only a few. There is a natural desire for understanding such data better. Deep learning (DL) has achieved significant breakthroughs in a variety of machine learning tasks in recent years, especially where data is structured on a grid, such as in text, speech, or image understanding. However, surprisingly little has been done to explore the applicability of DL on graph-structured data directly.The goal of this thesis is to investigate architectures for DL on graphs and study how to transfer, adapt or generalize concepts working well on sequential and image data to this domain. We concentrate on two important primitives: embedding graphs or their nodes into a continuous vector space representation (encoding) and, conversely, generating graphs from such vectors back (decoding). To that end, we make the following contributions.First, we introduce Edge-Conditioned Convolutions (ECC), a convolution-like operation on graphs performed in the spatial domain where filters are dynamically generated based on edge attributes. The method is used to encode graphs with arbitrary and varying structure.Second, we propose SuperPoint Graph, an intermediate point cloud representation with rich edge attributes encoding the contextual relationship between object parts. Based on this representation, ECC is employed to segment large-scale point clouds without major sacrifice in fine details.Third, we present GraphVAE, a graph generator allowing to decode graphs with variable but upper-bounded number of nodes making use of approximate graph matching for aligning the predictions of an autoencoder with its inputs. The method is applied to the task of molecule generation
864

Identification of Function Points in Software Specifications Using Natural Language Processing / Identification des points de fonction dans les spécifications logicielles à l'aide du traitement automatique des langues

Asadullah, Munshi 28 September 2015 (has links)
La nécessité d'estimer la taille d’un logiciel pour pouvoir en estimer le coût et l’effort nécessaire à son développement est une conséquence de l'utilisation croissante des logiciels dans presque toutes les activités humaines. De plus, la nature compétitive de l’industrie du développement logiciel rend courante l’utilisation d’estimations précises de leur taille, au plus tôt dans le processus de développement. Traditionnellement, l’estimation de la taille des logiciels était accomplie a posteriori à partir de diverses mesures appliquées au code source. Cependant, avec la prise de conscience, par la communauté de l’ingénierie logicielle, que l’estimation de la taille du code est une donnée cruciale pour la maîtrise du développement et des coûts, l’estimation anticipée de la taille des logiciels est devenue une préoccupation répandue. Une fois le code écrit, l’estimation de sa taille et de son coût permettent d'effectuer des études contrastives et éventuellement de contrôler la productivité. D’autre part, les bénéfices apportés par l'estimation de la taille sont d'autant plus grands que cette estimation est effectuée tôt pendant le développement. En outre, si l’estimation de la taille peut être effectuée périodiquement au fur et à mesure de la progression de la conception et du développement, elle peut fournir des informations précieuses aux gestionnaires du projet pour suivre au mieux la progression du développement et affiner en conséquence l'allocation des ressources. Notre recherche se positionne autour des mesures d’estimation de la taille fonctionnelle, couramment appelées Analyse des Points de Fonctions, qui permettent d’estimer la taille d’un logiciel à partir des fonctionnalités qu’il doit fournir à l’utilisateur final, exprimées uniquement selon son point de vue, en excluant en particulier toute considération propre au développement. Un problème significatif de l'utilisation des points de fonction est le besoin d'avoir recours à des experts humains pour effectuer la quotation selon un ensemble de règles de comptage. Le processus d'estimation représente donc une charge de travail conséquente et un coût important. D'autre part, le fait que les règles de comptage des points de fonction impliquent nécessairement une part d'interprétation humaine introduit un facteur d'imprécision dans les estimations et rend plus difficile la reproductibilité des mesures. Actuellement, le processus d'estimation est entièrement manuel et contraint les experts humains à lire en détails l'intégralité des spécifications, une tâche longue et fastidieuse. Nous proposons de fournir aux experts humains une aide automatique dans le processus d'estimation, en identifiant dans le texte des spécifications, les endroits les plus à même de contenir des points de fonction. Cette aide automatique devrait permettre une réduction significative du temps de lecture et de réduire le coût de l'estimation, sans perte de précision. Enfin, l’identification non ambiguë des points de fonction permettra de faciliter et d'améliorer la reproductibilité des mesures. À notre connaissance, les travaux présentés dans cette thèse sont les premiers à se baser uniquement sur l’analyse du contenu textuel des spécifications, applicable dès la mise à disposition des spécifications préliminaires et en se basant sur une approche générique reposant sur des pratiques établies d'analyse automatique du langage naturel. / The inevitable emergence of the necessity to estimate the size of a software thus estimating the probable cost and effort is a direct outcome of increasing need of complex and large software in almost every conceivable situation. Furthermore, due to the competitive nature of the software development industry, the increasing reliance on accurate size estimation at early stages of software development becoming a commonplace practice. Traditionally, estimation of software was performed a posteriori from the resultant source code and several metrics were in practice for the task. However, along with the understanding of the importance of code size estimation in the software engineering community, the realization of early stage software size estimation, became a mainstream concern. Once the code has been written, size and cost estimation primarily provides contrastive study and possibly productivity monitoring. On the other hand, if size estimation can be performed at an early development stage (the earlier the better), the benefits are virtually endless. The most important goals of the financial and management aspect of software development namely development cost and effort estimation can be performed even before the first line of code is being conceived. Furthermore, if size estimation can be performed periodically as the design and development progresses, it can provide valuable information to project managers in terms of progress, resource allocation and expectation management. This research focuses on functional size estimation metrics commonly known as Function Point Analysis (FPA) that estimates the size of a software in terms of the functionalities it is expected to deliver from a user’s point of view. One significant problem with FPA is the requirement of human counters, who need to follow a set of standard counting rules, making the process labour and cost intensive (the process is called Function Point Counting and the professional, either analysts or counters). Moreover, these rules, in many occasion, are open to interpretation, thus they often produce inconsistent counts. Furthermore, the process is entirely manual and requires Function Point (FP) counters to read large specification documents, making it a rather slow process. Some level of automation in the process can make a significant difference in the current counting practice. Automation of the process of identifying the FPs in a document accurately, will at least reduce the reading requirement of the counters, making the process faster and thus shall significantly reduce the cost. Moreover, consistent identification of FPs will allow the production of consistent raw function point counts. To the best of our knowledge, the works presented in this thesis is an unique attempt to analyse specification documents from early stages of the software development, using a generic approach adapted from well established Natural Language Processing (NLP) practices.
865

Practically preserving and evaluating location privacy / Préservation et évaluation pratiques de la confidentialité des lieux

Primault, Vincent 01 March 2018 (has links)
Depuis quelques dizaines d’années, l’utilisation de téléphones contenant un capteur GPS a fortement augmenté. Cependant, tous ces usages ne sont pas sans menace pour la vie privée des utilisateurs. En effet, les données de mobilité qu’ils envoient à ces services peuvent être utilisées pour inférer des informations sensibles telles que leur domicile ou leur lieu de travail. C’est à ce moment qu’entrent en action les mécanismes de protection, visant à redonner aux utilisateurs le contrôle sur leur vie privée. Nous commençons par répertorier les mécanismes de protection existants et les métriques utilisées pour les évaluer. Cette première analyse met en avant une information particulièrement sensible : les points d’intérêt. Ces derniers représentent tous les lieux où les utilisateurs passent la majeure partie de leur temps. Cela nous conduit à proposer un nouveau mécanisme de protection, PROMESSE, dont le but principal est de cacher ces points d’intérêt. Les mécanismes de protection sont en général configurés par des paramètres, qui ont un grand impact sur leur efficacité. Nous proposons ALP, une solution destinée à aider les utilisateurs à configurer leurs mécanismes de protection à partir d’objectifs qu’ils ont spécifié. Enfin, nous présentons Accio, un logiciel regroupant la majeure partie du travail de cette thèse. Il permet de lancer facilement des expériences destinées à étudier des mécanismes de protection, tout en renforçant leur reproductibilité. / In the past decades, the usage of GPS-enabled smartphones has dramatically risen. However, all these usages do not come without privacy threats. Indeed, location data that users are sending to these services can be used to infer sensitive knowledge about them, such as where they live or where they work. This is were protection mechanisms come into play, whose goal is to put users back in control of their privacy. We start by surveying existing protection mechanisms and metrics used to evaluate them. This first analysis highlights a particularly sensitive information, namely the points of interest. These are all the places where users use to spend most of their time. This leads us towards building a new protection mechanism, PROMESSE, whose main goal is to hide these points of interest. Protection mechanisms tend to be configured by parameters, which highly impact their effectiveness in terms of privacy and utility. We propose ALP, a solution to help users to configure their protection mechanisms from a set of objectives they specified. Finally, we introduce Accio, which is a software encompassing most of our work. Its goal is to allow to easily launch location privacy experiments and enforce their reproducibility.
866

Traitement joint de nuage de points et d'images pour l'analyse et la visualisation des formes 3D / Joint point clouds and images processing for the analysis and visualization of 3D models

Guislain, Maximilien 19 October 2017 (has links)
Au cours de la dernière décennie, les technologies permettant la numérisation d'espaces urbains ont connu un développement rapide. Des campagnes d'acquisition de données couvrant des villes entières ont été menées en utilisant des scanners LiDAR (Light Detection And Ranging) installés sur des véhicules mobiles. Les résultats de ces campagnes d'acquisition laser, représentants les bâtiments numérisés, sont des nuages de millions de points pouvant également contenir un ensemble de photographies. On s'intéresse ici à l'amélioration du nuage de points à l'aide des données présentes dans ces photographies. Cette thèse apporte plusieurs contributions notables à cette amélioration. La position et l'orientation des images acquises sont généralement connues à l'aide de dispositifs embarqués avec le scanner LiDAR, même si ces informations de positionnement sont parfois imprécises. Pour obtenir un recalage précis d'une image sur un nuage de points, nous proposons un algorithme en deux étapes, faisant appel à l'information mutuelle normalisée et aux histogrammes de gradients orientés. Cette méthode permet d'obtenir une pose précise même lorsque les estimations initiales sont très éloignées de la position et de l'orientation réelles. Une fois ces images recalées, il est possible de les utiliser pour inférer la couleur de chaque point du nuage en prenant en compte la variabilité des points de vue. Pour cela, nous nous appuyons sur la minimisation d'une énergie prenant en compte les différentes couleurs associables à un point et les couleurs présentes dans le voisinage spatial du point. Bien entendu, les différences d'illumination lors de l'acquisition des données peuvent altérer la couleur à attribuer à un point. Notamment, cette couleur peut dépendre de la présence d'ombres portées amenées à changer avec la position du soleil. Il est donc nécessaire de détecter et de corriger ces dernières. Nous proposons une nouvelle méthode qui s'appuie sur l'analyse conjointe des variations de la réflectance mesurée par le LiDAR et de la colorimétrie des points du nuage. En détectant suffisamment d'interfaces ombre/lumière nous pouvons caractériser la luminosité de la scène et la corriger pour obtenir des scènes sans ombre portée. Le dernier problème abordé par cette thèse est celui de la densification du nuage de points. En effet la densité locale du nuage de points est variable et parfois insuffisante dans certaines zones. Nous proposons une approche applicable directement par la mise en oeuvre d'un filtre bilatéral joint permettant de densifier le nuage de points en utilisant les données des images / Recent years saw a rapid development of city digitization technologies. Acquisition campaigns covering entire cities are now performed using LiDAR (Light Detection And Ranging) scanners embedded aboard mobile vehicles. These acquisition campaigns yield point clouds, composed of millions of points, representing the buildings and the streets, and may also contain a set of images of the scene. The subject developed here is the improvement of the point cloud using the information contained in the camera images. This thesis introduces several contributions to this joint improvement. The position and orientation of acquired images are usually estimated using devices embedded with the LiDAR scanner, even if this information is inaccurate. To obtain the precise registration of an image on a point cloud, we propose a two-step algorithm which uses both Mutual Information and Histograms of Oriented Gradients. The proposed method yields an accurate camera pose, even when the initial estimations are far from the real position and orientation. Once the images have been correctly registered, it is possible to use them to color each point of the cloud while using the variability of the point of view. This is done by minimizing an energy considering the different colors associated with a point and the potential colors of its neighbors. Illumination changes can also change the color assigned to a point. Notably, this color can be affected by cast shadows. These cast shadows are changing with the sun position, it is therefore necessary to detect and correct them. We propose a new method that analyzes the joint variation of the reflectance value obtained by the LiDAR and the color of the points. By detecting enough interfaces between shadow and light, we can characterize the luminance of the scene and to remove the cast shadows. The last point developed in this thesis is the densification of a point cloud. Indeed, the local density of a point cloud varies and is sometimes insufficient in certain areas. We propose a directly applicable approach to increase the density of a point cloud using multiple images
867

Is there a relationship between oil prices and house price inflation?

Magnusson, Amanda, Makdessi, Lina January 2019 (has links)
The purpose of this thesis is to investigate further whether oil price has an effect on house price inflation and additionally if it has a link to house price turning points. The methodology is grounded on the previous research paper made by Breitenfellner et al. (2015). The results are based on quarterly data from the countries; Finland, Denmark, Norway and Sweden through the time span of 1990-2018. A linear fixed regression model was performed including the explanatory variables of monetary policy and credit developments, macroeconomic fundamentals, housing market variable and demographic variables. Secondly, a logit model was used to identify a relationship between oil price and house price turning points. The model used misalignment made from GDP per capita and real interest rate. The empirical analysis confirms that there is a positive relationship between oil prices and house price inflation. This evidence contradicts a major share of previous research papers (see Bernanke, 2010; Kaufmann et al., 2011). However, there are also some previous papers (see Yiqi, (2017); Antonakakis et al., 2016) and theoretical linkages in line with a positive correlation. Concerning, the oil price and house price inflation no empirical significance was found regarding their relationship. For future research, one could include regional aspects for the purpose of controlling for geographical differences.
868

Etude du rôle de la végétation dans la création de microclimats urbains : approche combinée de mesures et de modélisations à différentes échelles / Study of vegetation purpose in urban microclimates creation : combined approaches of measures and modellings at different scales

Bournez, Elena 19 November 2018 (has links)
Le phénomène d'îlot de chaleur urbain engendre de l'inconfort thermique auprès des habitants. Améliorer le microclimat en zone urbaine est donc l'une des préoccupations des aménageurs. La végétalisation des villes s'avère une solution prometteuse, car l'évapotranspiration des plantes etles ombres portées des arbres ont un impact significatif sur le bilan thermique de l'atmosphère alentour. Un défi majeur aujourd'hui est le développement d'un modèle de simulation microclimatique capable de reproduire les conditions climatiques d'une rue, voire d'un quartier urbain végétalisé, dans l'objectif de proposer un outil d'aide à la décision pour l'aménagement des villes durables. L'objectif de cette thèse est d'étudier comment prendre en compte la végétation et plus particulièrement les arbres, dans un modèle microclimatique 30 afin de simuler le microclimat d'un quartier. Deux modèles, LASER/F et RATP sont appliqués à l'échelle d'un arbre et d'un parc urbain pour mener à bien cette étude. / The urban heat island phenomenon causes thermal discomfort to residents. lmproving the microclimate in urban areas is therefore one of the concerns of urban plan ners. The greening of cities (with lawns, trees, green roofs, etc.) is a promising solution, as the transpiration of plants and the shadows of trees have a significant impact on the thermal balance of the surrounding atmosphere. This act must be planned to optimize the benefits of vegetation. A key challenge today is thus the development of a microclimatic simulation model capable of reproducing the climatic conditions of a street, or even a vegetated urban neighborhood, with the aim of proposinga decision support tool for the development of sustainable cities. The aim of this thesis is to study how to consider vegetation and especially trees, in a 30 microclimatic model to simulate the microclimate of a neighborhood. Two models, LASER/F and RATP were applied at the scale of a tree and an urban park to carry out this study.
869

Investigação e aplicação de métodos primal - dual pontos interiores em problemas de despacho econômico e ambiental /

Souza, Márcio Augusto da Silva. January 2010 (has links)
Orientador: Antonio Roberto Balbo / Banca: Márcia Marcondes Altimari Samed / Banca: Edmea Cassia Baptista / Resumo: Este trabalho visa a investigação e implementação de métodos Primal - Dual Previsor-Corretor de Pontos Interiores com a estratégia de busca unidimensional, e a aplicação destes em problemas de Despacho Econômico e Ambiental. Objetiva-se utilizar estes métodos para determinar soluções aproximadas e consistentes dos problemas causados citados, que forneçam a solução de minimização dos custos dos combustíveis empregados na geração termoelétrica de energia, otimizando um processo de alocação da demanda de energia elétrica entre as unidades geradoras disponíveis, de tal forma que as restrições operacionais sejam atendidas e que o custo de geração é minimizado. Pretende-se também, analisar o problema de Despacho Ambiental com um objetivo único quando se acopla a este o Problema de Despacho Econômico e busca-se, simultaneamente, a minimização dos custos de geração e a redução da emissão de poluentes na natureza. Os métodos foram implementados, testados em Problemas de Despacho Econômico e Ambiental, e o seu desempenho foi comparado com outros métodos já utilizados, cujos resultados são encontrados na literatura / Abstract: This work aims the investigation and implementation of Primal-Dual Predictor-Corrector interior points methods, with the strategy of one-dimensional search, and its application in Economic and Environmental Dispatch Problems. It pretends to use these methods to determine approximate and consistent solutions of the mentioned problems, that provide the solution to minimize the fuel costs used in thermoelectric power generation, optimizing an allocations process of eletric power demand among available generation units, such that the operational constraints are attended and that generation cost is minimized. It too pretends to analyze the Environmental Dispatch Problem with the one objective when it is joined with the Dispatch Problems and it searchs, simultaneously, the minimization of the generation costs and the reduction of emission of the polluants in the nature. The methods were implemented, tested on the Economic and Environemental Dispatch Problems and its performance was compared with others method currently used, whose results are found in the literature / Mestre
870

Tolerance towards wildlife in the Atlantic forest: an empirical test across ecological contexts and mammal specie / Tolerância à fauna silvestre na Mata Atlântica: um teste empí­rico em diferentes contextos ecológicos e espécies de mamíferos

Teixeira, Lucas Manuel Cabral 03 July 2018 (has links)
Human-wildlife conflicts (HWC) emerge as complex conservation challenges impairing human livelihood and wildlife populations. Research on HWC, however, has traditionally approached these components apart and focused on single/ similar species, hampering a broader understanding of the connections between ecological drivers and human dimensions of conflicts. We here develop and test a model integrating ecological and human components of HWC, focusing on three species - opossum, crab-eating fox and puma. We investigated the pathways through which the ecological context (forest cover) affects experiences with wildlife (contact and damage), and how such experiences influence tolerance via beliefs, emotions and attitude. We interviewed 114 landowners across 13 landscapes varying in forest cover in a region of the Brazilian Atlantic forest and tested our model using Piecewise Structural Equation Modeling. We found that: i. forest cover negatively affected tolerance, but just towards the largest species; ii. relevance and effects of distinct experiences with wildlife on beliefs and emotions varied across species; iii. beliefs and emotions influenced tolerance, but negative emotions were relevant only for the largest species. Conflicts with larger species can then be understood as disservices provided by forests, indicating the relevance of framing HWC within a broader perspective that consider the trade-offs with ecosystems services. For some species, positive experiences with wildlife may counteract the negative effects of damages to livestock in shaping human behavior. Models such as ours - that structure relationships between ecological and human components - can help identifying deeper, more effective leverage points to improve interventions to mitigate HWC / Conflitos entre seres humanos e fauna silvestre emergem como desafios complexos, ameaçando o sustento de populações humanas e a conservação de populações de animais silvestres. Contudo, pesquisas sobre conflitos tradicionalmente abordam esses componentes separadamente e focam em espécies individuais ou similares, dificultando o entendimento mais amplo das conexões entre determinantes ecológicos e dimensões humanas dos conflitos. Neste estudo, desenvolvemos e testamos um modelo conceitual integrando componentes ecológicos e humanos dos conflitos, focando em três espécies - gambá, cachorro-do-mato e onça-parda. Investigamos os caminhos através dos quais o contexto ecológico (cobertura florestal) afeta experiências (contato e dano), e como tais experiências influenciam a tolerância à fauna por meio de crenças, emoções e atitude. Entrevistamos 114 proprietários rurais em 13 paisagens com diferentes proporções de cobertura florestal em uma região da Mata Atlântica e testamos nosso modelo usando equações estruturais do tipo Piecewise. Encontramos que: i. a cobertura florestal afetou negativamente a tolerância, mas apenas para a maior espécie; ii. a importância e os efeitos de diferentes experiências com a fauna sobre crenças e emoções variaram entre as espécies; iii. crenças e emoções influenciaram a tolerância, mas emoções negativas foram relevantes apenas para a maior espécie. Conflitos com espécies maiores podem então ser entendidos como desserviços providos por florestas, indicando a relevância de inserir os conflitos humano-fauna em perspectiva mais ampla, que considere as relações com serviços ecossistêmicos. Para algumas espécies, experiências positivas podem compensar os efeitos negativos dos danos a criações na formação do comportamento humano. Modelos como o nosso - que estruturem as relações entre os componentes ecológicos e humanos - podem ajudar a identificar pontos de alavancagem mais profundos e efetivos para melhorar intervenções visando a mitigação dos conflitos com a fauna

Page generated in 0.0306 seconds