• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 504
  • 98
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 743
  • 561
  • 559
  • 129
  • 119
  • 116
  • 106
  • 77
  • 61
  • 52
  • 52
  • 48
  • 48
  • 46
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
111

Application du Lidar aéroporté pour la caractérisation des vergers

Castellanos Belalcazar, Guido Fernando 20 April 2018 (has links)
Durant les vingt dernières années, les grandes avancées technologiques de la télédétection aéroportée active de type Lidar ont permis d'étendre ses applications principalement dans le secteur forestier. Le capteur Lidar nous permet de déterminer la distance et la position d'un objet à partir du temps que met le rayon de lumière à atteindre le sol et à retourner au capteur. Cette capacité du Lidar est utilisée avec succès dans les études de foresterie car elle permet de caractériser le sol, la végétation, et les structures dans les trois dimensions tout en recueillant de telles données rapidement sans façon destructive. D’autre part, la fusion des données Lidar avec des données multispectrales a ouvert un grand nombre d’applications en foresterie car elle fournit de l’information sur les types de végétation, la densité foliaire des arbres, leur phénologie, de même que les propriétés optiques pour des espèces choisies. La Financière Agricole de Québec (FADQ) en collaboration avec le Laboratoire de Géomatique Agricole et Appliquée (GAAP) , cherche à profiter de ce type de technologie afin de mieux évaluer et caractériser les vergers en améliorant sa capacité à en faire l’inventaire, l’estimation des rendements et l’évaluation de sa qualité. Le présent projet vise à démontrer le potentiel des données Lidar pour visualiser en trois dimensions des attributs de structure des pommiers individuels tel que la taille de la couronne et l’estimation de la hauteur avec lesquelles on obtient la quantification de la biomasse foliaire, le calcul de la densité de feuillage et l’état du couvert. Les résultats des inventaires et rendements estimés sont comparés au rendement réel en démontrant ses avantages par rapport à la méthode conventionnelle. / During the last twenty years, large technological advances in active airborne remote sensing have allowed its application to the forest and agricultural sectors. The Lidar sensor determines the distance and the position of an object, based on the time taken by a beam of light to reach the ground and to return to the sensor. Lidar has been successfully used in forestry studies because it results in a characterization of the structure of forest stands in three dimensions. Data collection is fast and non-intrusive. On the other hand, the fusion of Lidar data with multi-spectral data opens a large number of potential forestry applications because it provides information about the type of vegetation, the foliar density of trees, their phenology, as well as optical properties of certain species. The Financière Agricole de Québec (FADQ) in association with the Laboratoire de géomatique agricole et appliquée (GAAP), has used this technology to assess the yield and the quality of orchards in Québec. The present project aims at demonstrating the potential of Lidar and of multi-spectral data to show in 3D attributes of structure of individual apple trees such as the size of the crown and the estimation of the tree height. This then allows us to estimate the foliar biomass, the density of foliage and individual tree geo-positioning obtained by Lidar. The results of the tree counting and apple production estimations are compared with field data and with statistics from FADQ. The correlations are high, demonstrating that the Lidar method is able to accurately evaluate the production of apple orchards.
112

Handling spatial vagueness issues in SOLAP datacubes by introducing a risk-aware approach in their design

Edoh-Alové, Djogbénuyè Akpé 23 April 2018 (has links)
Thèse en cotutelle: Université Laval Québec, Canada et Université Blaise-Pascal, Clermont-Ferrand, France / Les systèmes Spatial On-Line Analytical Processing (SOLAP) permettent de prendre en charge l’analyse multidimensionnelle en ligne d’un très grand volume de données ayant une référence spatiale. Dans ces systèmes, le vague spatial n’est généralement pas pris en compte, ce qui peut être source d’erreurs dans les analyses et les interprétations des cubes de données SOLAP, effectuées par les utilisateurs finaux. Bien qu’il existe des modèles d’objets ad-hoc pour gérer le vague spatial, l’implantation de ces modèles dans les systèmes SOLAP est encore à l’état embryonnaire. En outre, l’introduction de tels modèles dans les systèmes SOLAP accroit la complexité de l’analyse au détriment de l’utilisabilité dans bon nombre de contextes applicatifs. Dans cette thèse nous nous proposons d’investiguer la piste d’une nouvelle approche visant un compromis approprié entre l’exactitude théorique de la réponse au vague spatial, la facilité d’implantation dans les systèmes SOLAP existants et l’utilisabilité des cubes de données fournis aux utilisateurs finaux. Les objectifs de cette thèse sont donc de jeter les bases d’une approche de conception de cube SOLAP où la gestion du vague est remplacée par la gestion des risques de mauvaises interprétations induits, d’en définir les principes d’une implantation pratique et d’en démontrer les avantages. En résultats aux travaux menés, une approche de conception de cubes SOLAP où le risque de mauvaise interprétation est considéré et géré de manière itérative et en adéquation avec les sensibilités des utilisateurs finaux quant aux risques potentiels identifiés a été proposée; des outils formels à savoir un profil UML adapté, des fonctions de modification de schémas multidimensionnels pour construire les cubes souhaités, et un processus formel guidant de telles transformations de schémas ont été présentés; la vérification de la faisabilité de notre approche dans un cadre purement informatique avec la mise en œuvre de l’approche dans un outil CASE (Computed Aided Software Engineering) a aussi été présentée. Pour finir, nous avons pu valider le fait que l’approche fournisse non seulement des cubes aussi compréhensibles et donc utilisables que les cubes classiques, mais aussi des cubes où le vague n’est plus laissé de côté, sans aucun effort pour atténuer ses impacts sur les analyses et les prises de décision des utilisateurs finaux. / SOLAP (Spatial On-Line Analytical Processing) systems support the online multi-dimensional analysis of a very large volume of data with a spatial reference. In these systems, the spatial vagueness is usually not taken into account, which can lead to errors in the SOLAP datacubes analyzes and interpretations end-users make. Although there are ad-hoc models of vague objects to manage the spatial vagueness, the implementation of these models in SOLAP systems is still in an embryonal state. In addition, the introduction of such models in SOLAP systems increases the complexity of the analysis at the expense of usability in many application contexts. In this thesis we propose to investigate the trail of a new approach that makes an appropriate compromise between the theoretical accuracy of the response to the spatial vagueness, the ease of implementation in existing SOLAP systems and the usability of datacubes provided to end users. The objectives of this thesis are to lay the foundations of a SOLAP datacube design approach where spatial vagueness management in itself is replaced by the management of risks of misinterpretations induced by the vagueness, to define the principles of a practical implementation of the approach and to demonstrate its benefits. The results of this thesis consist of a SOLAP datacube design approach where the risks of misinterpretation are considered and managed in an iterative manner and in line with the end users tolerance levels regarding those risks; formal tools namely a suitable UML (Unified Modeling Language) profile, multidimensional schemas transformation functions to help tailored the datacubes to end-users tolerance levels, and a formal process guiding such schemas transformation; verifying the feasibility of our approach in a computing context with the implementation of the approach in a CASE (Computed Aided Software Engineering) tool. Finally, we were able to validate that the approach provides SOLAP datacubes that are not only as comprehensible and thus usable as conventional datacubes but also datacubes where the spatial vagueness is not left out, with no effort to mitigate its impacts on analysis and decision making for end users.
113

Évaluation de l’apport de l’intégration d’un gyro-accéléromètre à un récepteur GPS mono-fréquence pour détecter et corriger les sauts de cycle

Hickey, Jean-René 20 April 2018 (has links)
Afin d’obtenir un positionnement GPS de précision centimétrique, il est important de bien modéliser les erreurs telles que les délais ionosphérique et troposphérique ainsi que les erreurs d’horloge et d’éphémérides. Pour une solution de précision centimétrique utilisant des mesures de phase, il est également important d’être en mesure de détecter et de corriger les sauts de cycle, car ceux-ci introduisent des biais artificiels dans la solution, qui peuvent entraîner des erreurs dans l’estimation des coordonnées. Les sauts de cycle sont causés par la perte de réception des signaux occasionnée par des obstructions entre les satellites et l’antenne. Que ce soit pour un positionnement temporel relatif GPS qui n’utilise qu’un seul récepteur (aucune station de référence) ou en mode relatif conventionnel ou le PPP (Precise Point Positioning), les sauts de cycle obligent l’utilisateur à recommencer la période d’initialisation lorsqu’il reste moins de 4 satellites non obstrués. Le but de ce projet est d’évaluer l’apport d’une méthode pour détecter et corriger les sauts de cycle dans une solution GPS mono-fréquence en utilisant des mesures complémentaires provenant d’un gyro-accéléromètre. Le modèle utilisé lors des tests est le AHRS400CC-100 de la compagnie CrossBow. Avec cette méthode, il est possible de comparer, pour chaque satellite, la différence d’ ambigüités, calculée à partir des observations GPS et celle prédite à partir de la position calculée avec les mesures du gyro-accéléromètre. Dans le cadre de ce projet, plusieurs étapes ont dû être réalisées. La première étape était de valider la précision des observations du AHRS400CC-100, puis de quantifier pour chacun de ses capteurs, la marche aléatoire et l’instabilité du biais. Ensuite, d’exploiter les mesures du gyro-accéléromètre afin de calculer une solution de navigation, et d’identifier les limites de précision de l’instrument en mode statique et cinématique. La dernière étape était de combiner la solution de navigation du gyro-accéléromètre à celle du GPS pour évaluer pendant combien de temps le gyro-accéléromètre maintient un positionnement avec suffisamment de précision pour détecter et corriger un saut de cycle. Les résultats ont démontré que des sauts de cycle pourraient être détectés et corrigés instantanément après une coupure du signal GPS d’une durée de 10 secondes pour un positionnement statique et pouvant atteindre 5 secondes en mode cinématique dans des conditions idéales sinon 1 à 2 secondes. Pour augmenter l’efficacité de l’application de détection et de correction de sauts de cycle, l’implémentation d’un filtre de Kalman pour effectuer la fusion des observations GPS et du gyro-accéléromètre pourrait être réalisée dans le cadre de travaux futurs. / In order to achieve centimetre precision using GPS, one must use the carrier phase measurements. It is also important to minimise the impact of the many errors that affect GPS measurements: ionosphere and tropospheric delays, orbit and clocks errors. Another essential part of a precise GPS measurement, is the detection and correction of cycle slips. These slips, caused by the interruption of the GPS signal, introduce artificial biases in the measurement that result in erroneous coordinate estimates. For different GPS solution such as Real Time Kinematic (RTK), Time Relative positioning (TRP) or Precise Point positioning (PPP), to correct cycle slips, the user must restart the initialisation process. In this research, a method to detect and correct cycle slip in monofrequence GPS solution is explored. This methode uses inertial data provided by an attitude and heading reference system (AHRS). The model that is used here is Crossbow’s AHRS400CC-100. With this method, it is possible to compare, for each observed satellite, the ambiguity difference between the ambiguity values calculated from GPS observations and those predicted by the navigation solution calculated from the AHRS observations. It is effective to integrate AHRS to GPS. An AHRS can potentially be used for cycle slip detection and fixing. Using the AHRS measurements, one can achieve centimetre level precision for short periods of time. This method of positioning can be used during GPS signal loss to maintain the navigation solution. Once the GPS signal is retrieved, it is possible to compare the ambiguity difference between satellite line of view vector of each satellite calculated using GPS observations and satellite line of view vector calculated from the last AHRS position GPS observations. For this research project, the initial task was to validate the precision of the AHRS400CC-100 observations, and to quantify random walk error and bias instability for each of the instruments sensors using static data sets. The next task was to use the AHRS measurements to calculate a navigation solution and to identify the instruments limitations of position precision using static and kinematic data. The last task was to combine AHRS and GPS observations, to obtain an integrated navigation solution. Once the solution implemented, simulated data gaps were added to the data set in order to evaluate the maximum duration of GPS data loss after which it is possible to detect and correct GPS cycle slips using the autonomous AHRS navigation solution. According to the results of the experiments using the method proposed in this paper, AHRS positioning appears to maintain adequate precision for cycle slip detection and fixing for up to 10 seconds for static positioning and up to 5 seconds for kinematic positioning in ideal conditions.
114

Développement d'un matériau composite à base de bois laminé avec alliage d'aluminium

Segovia Abanto, Franz 22 May 2018 (has links)
Les matériaux composites sont constitués d’au moins deux matériaux dont les propriétés individuelles se combinent pour former un matériau hétérogène ayant des performances globales fortement améliorées. Parmi les types de matériaux composites, on retrouve les matériaux composites à structure sandwich, lesquels consistent en l’assemblage par collage ou soudure de deux revêtements ou peaux minces, faits d’un matériau rigide et lourd, sur un noyau épais et léger qui maintient leur écartement. Les principaux bénéfices de ces structures sont: la légèreté, la très grande rigidité, la grande résistance en flexion et l’isolation thermique. La combinaison des propriétés des matériaux utilisés comme revêtement et noyau procure aux matériaux composites à structure sandwich plusieurs avantages mécaniques, environnementaux et économiques, permettant ainsi l’élargissement du potentiel de ces matériaux composites à différentes applications. L’objectif général de ce projet de doctorat était de développer un matériau composite à base de bois laminé avec alliage d’aluminium. Les objectifs spécifiques de ce projet de recherche étaient de déterminer les propriétés physiques et mécaniques, d’estimer les coûts de production et de mesurer la performance environnementale des matériaux composites à structure sandwich. Finalement, des applications potentielles étaient évaluées en utilisant la recherche qualitative comme méthodologie. Des matériaux à structure sandwich ont été développés en utilisant quatre types de matériaux composites à base de bois (panneau de fibres à haute densité, panneau de fibres à densité moyenne, panneau de lamelles orientées et contreplaqué) comme noyau, alors qu’un alliage d’aluminium 3003 a été utilisé comme peau ou revêtement. Un adhésif polyuréthane (Macroplast UR-8346) a été utilisé pour coller les composants du matériau composite. Les paramètres de fabrication ont été déterminés à travers des essais préalables. Les propriétés physiques des matériaux composites à base de bois ont été améliorées par le laminage avec l’alliage d’aluminium. Les propriétés mécaniques en flexion, comme le module d’élasticité apparent (Eapp) et le module de rupture (MOR), ont été significativement augmentées avec le laminage d’alliage d’aluminium. L’estimation des coûts de production du matériau composite développé nous a permis de démontrer un avantage économique par rapport au panneau nid d’abeille en aluminium. La comparaison de la fabrication des matériaux composites laminés avec alliage d’aluminium par rapport au panneau nid d’abeille en aluminium a permis d’identifier les avantages environnementaux de l’utilisation des matériaux composites à base de bois comme noyau. L’analyse de l’impact environnemental (IMPACT 2002+) a montré que les émissions associées à la fabrication de tôles d'aluminium se sont avérées les plus grandes contributrices aux impacts environnementaux globaux de la fabrication des matériaux composites à structure sandwich développés. Les avantages techniques, économiques et environnementaux des matériaux composites laminés avec alliage d’aluminium ont multiplié ses applications potentielles. Enfin, la recherche qualitative basée sur la théorie ancrée a permis de déterminer les principales applications possibles à partir des suggestions des personnes interviewées. L’utilisation du Logiciel Nvivo 11 de QRS international a permis le codage des principales catégories. Les principales applications suggérées par les personnes interviewées ont été l’utilisation pour les planchers surélevés; l'application comme diviseurs de salle de bain et l’application comme panneau de contreventement ou panneau décoratif. / Composite materials consist of at least two materials whose individual properties combine to form a heterogeneous material with greatly improved overall performance. Among the types of composite materials are laminated panels or sandwich panels. These consist in the assembly by bonding or welding of two thin skins, made of a rigid and heavy material, on a thick and light core which maintains their spacing. The main benefits of these structures are: lightness, high rigidity, high flexural strength, and thermal insulation. The combination of materials used as faces and core provides laminated panels with several mechanical advantages as well as environmental and economic benefits. Consequently, the potential applications of these composite materials are extended. The overall objective of this doctoral project was to develop a wood-aluminum laminated panel. The specific objectives of this research project were: to determine physical and mechanical properties; to estimate production costs; and to verify the environmental performance of wood-aluminum laminated panels. Finally, potential applications were proposed using qualitative research methodology. Wood-aluminum laminated panel has been developed using four types of wood-based composite as core (high density fibreboard, medium density fibreboard, oriented strand board, and aspen plywood) and two 0.6-mm-thick aluminum alloy sheets as faces. The polyurethane adhesive (Macroplast UR-8346) was used to bonding laminated panels. The manufacturing parameters were determined through prior testing. The physical and mechanical properties of wood-based composites have been improved by lamination with aluminum alloy sheets. The production costs estimate concluded that the developed laminated panels have an economic advantage over the aluminum honeycomb panel. The manufacturing process of laminated composite materials with aluminum alloy shows lower environmental impacts compared to aluminum honeycomb panel. Emissions associated with the manufacturing process of aluminum sheets is the largest contributor to environmental impacts in sandwich composite materials manufacturing. The technical, economic and environmental benefits have extended the potential applications of wood-based composite materials. Qualitative research based on the grounded theory approach was used to determine the main potential applications. The main applications suggested by the interviewees were: raised flooring panels, bathroom dividers panels and decorative and bracing panels.
115

Développement d'une structure topologique de données 3D pour l'analyse de modèles géologiques

Lachance, Bernard 11 April 2018 (has links)
La géologie a exprimé, face à la géomatique, le besoin de modéliser les objets géologiques en 3D et d'analyser ces modèles pour prendre des décisions plus éclairées. La géomatique répond relativement bien à certain de ces besoins comme celui de construire des modèles géologiques tridimensionnels. Cependant, les systèmes géomatiques (tels que les systèmes d'information géographique) ne sont pas adaptés à la gestion explicite des relations topologiques s'exprimant dans un univers 3D. Ce projet de maîtrise vise à développer une structure de stockage qui régularise les relations spatiales entre des objets tridimensionnels, permettant d'élargir les possibilités d'analyse d'un modèle géologique 3D. Pour réaliser ce projet, quatre étapes ont été nécessaires : 1) inventaire des structures topologiques 2D et 3D, 2) création d'une structure de données géométriques 3D, 3) création d'un prototype et, finalement, 4) réalisation de tests avec le prototype. Avec ces développements, une requête montrant la relation spatiale contient entre des unités géologiques et des fractures a été réalisée en 3D. Les résultats obtenus montrent le grand potentiel de cette approche pour l'analyse de modèle géologique. De plus, la création d'une nouvelle structure topologique de données appliquée aux données géologiques est certes un avancement pour l'application de la géomatique au domaine des sciences de la terre.
116

Modélisation de stratégies d'aménagement durable dans un contexte de paludification : une analyse par coûts-bénéfices afin de maintenir un maximum de forêt fermée

Schab, Alexis 14 February 2020 (has links)
Les perturbations en rafales peuvent entraver la régénération naturelle des peuplements forestiers en forêt boréale. En forêt aménagée les coupes forestières sont des perturbations qui ont le potentiel d’affecter la capacité de régénération des forêts. On s’attend à un effet combiné des perturbations naturelles et de l’aménagement sur l’ouverture du couvert forestier, entravant la capacité d’y réaliser un aménagement forestier durable, notamment en réduisant la quantité de peuplements productifs. En milieu boréal, l’accumulation de la matière organique (paludification) contraint la remise en reproduction des peuplements récoltés et peut aussi affecter la productivité forestière. Or ces événements ne sont que partiellement intégrés dans les calculs des possibilités forestières. Il est donc important d’évaluer ce qui se produit si on ne tient pas compte de l’ouverture potentielle des peuplements par les perturbations, ainsi que l’impact de la perte de productivité causée par la paludification. Pour développer des stratégies d’aménagement propices au rétablissementdes peuplements tout en étant économiquement viables, je propose un calcul de possibilités mis à l’épreuve dans un modèle de dynamique des paysages qui intègre le régime de feux, la paludification, la récolte forestière et les accidents de régénération pour mesurer sa robustesse. Je teste trois stratégies d’aménagement concentrées sur le reboisement, une qui correspond aux stratégies actuelles(scénario REF), une basée sur l’accessibilité des superficies à traiter (scénario ACC) et la dernière qui consiste en une remise en production de l’ensemble des superficies brûlées et paludifiées(scénario TOT). J’évalue le succès des stratégies avec les médianes du volume récolté, de la proportion de superficies fermées, ouvertes et paludifiées, d’un indice de la productivité ainsi que du coût de reboisement. Après 150 ans, la productivité du territoire montre une diminution par rapport à l’état actuelde –7,6 % et –2,5 % pour les scénarios REF et ACC et une augmentation de 0,9 % pour le scénario TOT. La récolte sans modalités particulières des superficies paludifiées risque d’engendrer une forte augmentation des peuplements ouverts (+8 % du territoire en 50 ans) compromettant les objectifs de l’aménagement durable. La stratégie qui consiste à reboiser les secteurs accessibles apparait comme la plus propice à l’atteinte des cibles de l’aménagement forestier durable en prenant en compte la faisabilité opérationnelle. Malgré des calculs de possibilités aux 5 ans, les résultats suggèrent que l’historique de coupe du territoire d’étude amènera dans les prochaines décennies une période critique dans la gestion des peuplements paludifiés. Finalement, je montre que l’utilisation du volume maximal potentiel absolu (VMPA) comme indice de productivité a permis d’anticipé les problèmes beaucoup plus tôt qu’avec les indices usuels des calculs de possibilités. / Successive disturbances such as successive fires can hinder the natural regeneration of forest stands in the boreal forest. Futhermore, in managed forests, logging is a disturbance that has the potential to affect the regenerative capacity of forests. The combined effect of natural disturbance and management is therefore expected to have an impact on the opening of forests coverand to hinder the ability to achieve sustainable forest management notably by reducing the amount of productive forest stands. In addition, in the boreal environment, the accumulation of organic matter (paludification) causes constraints in growth of harvested stands and can affect forest productivity. These events are only partially integrated into the computations of annual allowable cuts. It is therefore important to evaluate the impacts of not considering the potential opening of stands by disturbances and the loss of productivity caused by paludification on a managed forest landscape. In addition, it isuseful to develop management and evaluate strategies able to promote the restoration of stands through growth and adequate regeneration while being economically viable. To do this, the computation of annual allowable cut is done in a model that integrates the fire regime, the paludification process, forest harvesting and regeneration failure to measure the robustness of different management strategies. Three management strategies focused on reforestation are developed and tested, one that corresponds to the current strategy (REF scenario), one based on the accessibility of the areas to be treated (ACC scenario) and the last one, which consists to return all the burned and paludified areas to production via planting (TOT scenario). The results are analyzed with different indicators of success (volume harvested, proportion of closed, open and paludified areas, reforestation costs, productivity index) and expressed as medians to ensure a reasonable level of protection. After 150 years, territory’s productivity decreases for scenarios REF and ACC (-7.6 % and -2.5 %) and increases for TOT scenario (+ 0.9 %). Harvesting paludified area without specific modalities concerning regeneration failure and stand opening may result in a sharp rise in open stands (+ 8% of the territory in 50 years) compromising the objectives of sustainable development. The strategy of reforesting accessible areas appears to be the most likely to achieve sustainable forest management targets by taking into account operational feasibility.The results suggest that despite the computation of annual allowable cuts every 5 years, the harvesting history of the study area has led to the arrival of a critical period in the management of paludified stands. Finally, I showed that using the absolute maximum potential volume (VMPA) as a productivity index made it possible to anticipate easily problems much earlier than with the usual indices of possibility calculations
117

Proposition d’un cadre conceptuel d’arrimage des savoirs géographiques locaux dans les macro-observatoires : cas de la région DIANA Madagascar

Randrianarivelo, Mamy Dina 20 April 2018 (has links)
Le recours aux données géographiques issues des macro-observatoires s’impose comme la solution incontournable pour les agences de développement et bailleurs de fonds internationaux en quête de données structurées et facilement accessibles. Ces données sont pourtant conçues selon une vision globalisante qui ne reflète pas ou pas suffisamment les contextes spécifiques locaux sur lesquels ces acteurs doivent intervenir. Dans les pays du Sud en particulier, les savoirs géographiques locaux constituent le plus souvent la seule source de données terrain disponible. Mais leur fiabilité et leur utilité sont souvent questionnées, en comparaison des données statistiques ou cartographiques des macro-observatoires. En effet, ils ne sont que peu ou pas formalisés. Ils nécessitent des processus de collecte de terrain complexes à mettre en œuvre. Leur interprétation est souvent difficile, en particulier pour les acteurs occidentaux. Ce travail de recherche a pour objectif la conception d’un cadre d’intégration des savoirs géographiques locaux dans les macro-observatoires. Il repose concrètement sur l’observation, l’analyse et la mise en relief des points communs et des différences des deux types de savoirs géographiques, à partir du cas de la région de DIANA à Madagascar; et plus précisément des savoirs locaux issues d’une démarche de Zonage À Dire d’Acteurs (ZADA) et des données globales de l’observatoire « Harvest Choice » de l’International Food Policy Research Institute (IFPRI). Mots-clés : Macro-observatoires, données locales, données globales, infrastructure de données spatiales, intégration des données, connaissances locales, connaissances experts, SIG.
118

Axiomatic studies of truth

Fujimoto, Kentaro January 2010 (has links)
In contemporary formal theory of truth, model-theoretic and non-classical approaches have been dominant. I rather pursue the so-called classical axiomatic approaches toward truth and my dissertation begins by arguing for the classical axiomatic approach and against the others. The classical axiomatic approach inevitably leads to abandonment of the nave conception of truth and revision of the basic principles of truth derived from that nave conception such as the full T-schema. In the absence of the general guiding principles based on that nave conception, we need to conduct tedious but down-to-earth eld works' of various theories of truth by examining and comparing them from various points of view in searching for satisfactory theories of truth. As such attempt, I raise two new criteria for comparison of truth theories, make a proof-theoretic study of them in connection to the foundation of mathematics.
119

Truth, deflationism and the ontology of expressions : an axiomatic study

Nicolai, Carlo January 2014 (has links)
Philosophical enquiry on the notion of truth has traditionally involved the identification of a class of objects to which truth is ascribed. At the same time, formal investigations are often required when the notion of truth is at issue: semantic paradoxes force in fact philosophers to shape their arguments in a precise way. Objects of truth, in formal context, are always reduced to other, more manageable objects that mimic their structural properties such as numbers or sets. This form of reduction renders the distinction between linguistic or syntactic objects, to which truth is usually applied, and their mathematical counterparts opaque, at least from the point of view of the theory of truth. In informal metatheoretic discussion, in fact, they are clearly different entities. In this thesis we focus on an alternative way of constructing axiomatic theories of truth in which syntactic objects and mathematical objects belong to different universes. A brief introduction tries to situate the proposed theories in the context of different investigations on axiomatic truth. Chapter 2 is devoted to the discussion of historical and more theoretical motivations behind the proposed alternative. Chapter 3 will present the syntactic koinè spoken by our theories. Morphological categories of the object language and logical concepts concerning the object theory will be formalised in a recent axiomatisation of hereditarily finite sets. In Chapter 4 we finally introduce theories of truth with a built-in syntactic theory and examine some of their consequences. We briefly focus on disquotational truth, then consider compositional axioms for truth. Chapter 5 investigates a possible application of the setting just introduced: a realisation of the all-present interaction, in metamathematical practice, between informal metatheoretic claims and their (suitably chosen) coded counterparts. In the final chapter, after a brief characterisation of the key doctrines of the delflationary conception of truth, we evaluate the impact that the theories of truth studied in this work can have on the debate on the so-called conservativeness argument, which tries to match the alleged insubstantiality of the notion of truth, advocated by deflationists, with the deductive power of deflationary acceptable theories of truth.
120

Defeasible knowledge

Moeller, Emil Frederik Lundbjerg January 2014 (has links)
This dissertation collects five papers that discuss potential consequences of the defeasibility of knowledge. Chapters 1, 2, 3, and 5 provide arguments for a number of important epistemological consequences of the defeasibility of knowledge. Chapter 4 discusses consequences that others have claimed the defeasibility of knowledge to have. Chapter 1 argues that closure principles for knowledge are in tension with the defeasibility of knowledge. Chapter 2 argues that one of Williamson's famous arguments against the KK principle relies in a problematic way on a closure principle that is incompatible with defeat. Chapter 3 argues that a view on which knowledge just is belief safe from error is in tension the defeasibility of knowledge. Chapter 4 discusses two arguments to the effect that defeat by higher-order evidence sometimes involves the violation of rational ideals or rules of rational belief formation. As part of a response to an objection to contextualism about 'know', Chapter 5 investigates a number of social epistemological consequences of the defeasibility of knowledge.

Page generated in 0.0157 seconds