• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 504
  • 98
  • 9
  • 4
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 743
  • 561
  • 559
  • 129
  • 119
  • 116
  • 106
  • 77
  • 61
  • 52
  • 52
  • 48
  • 48
  • 46
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

A naturalized theory of immediate justification

Malherbe, Jeanette Grillion 04 1900 (has links)
The starting point of the thesis is an acceptance of the principles of a moderately naturalized epistemology which allow for the traditional questions of epistemology, especially that of empirical justification, to be addressed in a recognizable way. It is argued that naturalism construed in this way is not compatible with scepticism regarding empirical knowledge, at least as far as the justification condition goes. Five general consequences of a moderately naturalistic position are deduced. It is shown how these general conclusions lead to a modest foundationalism, that is, they imply the corrigibility of all empirical beliefs and the basic status of some. The sensory character of basic beliefs is argued for, as is the claim that basic beliefs are not about the character of experience but about physical facts in the subject's immediate environment. The way in which an empirical belief is brought about (its 'dependence relations') is then examined. The important conclusion, for a theory of justification, to be drawn from this examination, is that sensory beliefs depend on no other beliefs but themselves for their empirical justification. This points to the fact that, if they are justified for their subjects, they must be self-evident and prima facie justified. Before explicating the nature of prima facie justification, the general requirements for a satisfactory theory of epistemic justification are set out. Such a theory must account for the reasonableness of the agent in believing as she does; it must accommodate deontological aspects and explain how justified belief is distinguishable from unjustified belief; and it must provide some objective link between the justified belief and its likely truth. It is shown that the theory of prima facie justification of sensory beliefs which emerges from a naturalized epistemology, satisfies these requirements, and that a conception of prima facie justification which ignores naturalistic constraints cannot explain immediate justification. / Philosophy and Systematic Theology / D. Litt. et Phil. (Philosophy)
102

Truth, paradoxes, and partiality : a study on semantic theories of naïve truth

Rossi, Lorenzo January 2015 (has links)
This work is an investigation into the notion of truth. More specifically, this thesis deals with how to account for the main features of truth, with the interaction between truth and fundamental linguistic elements such as connectives and quantifiers, and with the analysis and the solution of truth-theoretic paradoxes. In the introductory Chapter 1, I describe and justify the approach to truth I adopt here, giving some general coordinates to contextualize my work. In Part I, I examine some theories of truth that fall under the chosen approach. In Chapter 2, I discuss a famous theory of truth developed by Saul Kripke. Some difficulties of Kripke's theory led several authors, notably Hartry Field, to emphasize the importance of a well-behaved conditional connective in conjunction with a Kripkean treatment of truth. I articulate this idea in a research agenda, which I call Field's program, giving some conditions for its realizability. In Chapter 3, I analyze the main theory of truth proposed by Field to equip Kripke's theory with a well-behaved conditional, and I give a novel analysis of its shortcomings. Field's theory is remarkably successful but is technically and intuitively very complex, and it is unclear whether Field's conditional is a plausible candidate for a philosophically useful conditional. Moreover, Field's treatment of "determinate truth" and his handling of many kinds of paradoxes is not fully satisfactory. In Part II, I develop some new theories that capture the main aspects of the notion of truth and, at the same time, give a philosophically interesting meaning to connectives and quantifiers - in particular, they yield a strong and conceptually significant conditional. The theory proposed in Chapter 4 extends the inductive methods employed in Kripke's theory, showing how to adapt them to non-monotonic connectives as well. There, I also develop and defend a new, theoretically fruitful notion of gappiness. The theory proposed in Chapter 5 (and discussed further in Chapter 6), instead, employs some graph-theoretic intuitions and tools to provide a new model-theoretic construction. The resulting theory, I argue, provides a nice framework to account for the interaction between truth, connectives, and quantifiers, and it is flexible enough to be applicable to several interpretations of the logical vocabulary. Some new technical results are established with this theory as well, concerning the interplay between every Lukasiewicz semantics and some interpretations of the truth predicate, and concerning the handling of determinate truth. Finally, the theory developed in Chapter 5 provides articulate and telling solutions to truth-theoretical paradoxes.
103

Meaning, historicity, and the conceptualisation of the social

Mouzakitis, Angelos January 2002 (has links)
The notions of 'meaning' and 'historicity', of the manner in winch they inform or reflect conceptions of collective or ‘social’ being and of individuality, and of the ways in which these dimensions are primordially experienced by human beings. This investigation concerns primarily the phenomenological and hermeneutic traditions and especially Heidegger’s formulation of the notion of historicity as correlative to the 'event' of truth understood in terms of an interplay between disclosure and concealment (aAf)0eia) and Gadamer's understanding of 'meaning and historicity’ as an indispensable couplet for both philosophical hermeneutics and the social sciences. Nevertheless the present inquiry does not content itself with an exploration of the notions of 'meaning' and historicity' within the confines of the phenomenological-hermeneutic tradition, but rather attempts to attain a more adequate grasp of those concepts by a critical Juxtaposition of Heidegger and Gadamer with accounts that have the 'social' as their point of departure. Thus, Heidegger’s formulations on historicity are not only examined in relation to his 'immediate' legacy of German thought -especially Hegel and Nietzsche- but are also contrasted with conceptions of history pertaining to the Marxist tradition and especially Castoriadis’ conception of the social-historical. In effect, the contrast between 'historicity' and the workings of 'actual' history has arguably prevented a genuine dialogue between the Marxist and the phenomenological camps. Far from being concerned with a synthesis of those traditions or from being preoccupied with justifying either of them I have attempted to show that a combined reading of both is indispensable for the disclosure of the essential dimensions of historical experience. Castoriadis' emphasis on the ‘magmatic’ character of unconscious significations and his grounding of social-historical 'instituting' on the unconscious, together with Heidegger's attempt to link the primordial experience of history with myth have given me occasion to dissociate the very notion of 'meaning' from that of 'rationality'. This should not be interpreted as a rejection of rationality or as an -at bottom- ethical invocation of a return to a pre-Critical philosophical position but rather as an attempt to indicate the primordial manner in which history is accessible in experience and which arguably precedes any thematic theorizing of the historical realm. I have finally attempted to show the antinomies inherent in any attempt to grasp ‘rationally’ the social-historical by a detailed exploration of Gadamer's ambivalent conception of tradition’ and 'prejudice'. Gadamer’s conception of the ‘fusion of horizons’ gave me occasion to reflect further on the manner in which history and truth are made correlatively accessible in thought, in experience, and in historical praxis.
104

Hermann Cohens Infinitesimal-Logik - Ihre philosophische Bedeutung aus der Perspektive der zeitgenössischen Kritik und neuerer mathematischer Diskurse. / Hermann Cohen‘s Infinitesimal Logic – Its relevance from the perspective of contemporary criticism and recent philosophy of mathematics.

Veit, Bernd January 2018 (has links) (PDF)
Den Mittelpunkt des folgenden Diskurses bildet ein Projekt des Neukantianers Hermann Cohen (1842-1918), das dieser unter dem Titel „Das Prinzip der Infinitesimal-Methode und seine Geschichte“ 1883 präsentiert hat. Sein Vorhaben, die Fruchtbarkeit der infinitesimalen Größe in der Mathematik und den Naturwissenschaften auch für die Philosophie, vor allem die Kantische Transzendentalphilosophie, nutzbar zu machen, erwies sich zu damaliger Zeit als wenig populär. Infolge von Schwierigkeiten mit der Interpretation seiner komplizierten Schrift und heftiger Kritik führender Mathematiker blieb sein Werk weitgehend unbeachtet. Anhand eines Blickes auf den Gang der Wissenschaft der Infinitesimal-Mathematik soll diese Kritik im Folgenden entkräftet und neu bewertet werden. Es zeigt sich hierbei, dass, anders als zu Lebzeiten Cohens, heute gezielt versucht wird, die infinitesimale Größe in die mathematische Lehre zu integrieren – auch wenn dies mit erheblichen, vor allem philosophischen Schwierigkeiten verbunden ist. Hierbei soll auch das wieder erstarkte Interesse an den Infinitesimalien in der Nonstandard-Analysis als Anreiz dienen, die Philosophie Cohens am heutigen Forschungsdiskurs teilhaben zu lassen. In jüngerer Zeit spielt zudem auch in der Smooth Infinitesimal Analysis die Position des Intuitionismus wieder eine Rolle, welche der um Hermann Cohen und Paul Natorp entstandenen „Marburger Schule“ nahesteht. Auf den folgenden Seiten soll anhand Cohens „Logik der reinen Erkenntnis“ (1902) eine Lesart für eine „Infinitesimal-Logik“ Cohens präsentiert werden, die die Gedanken Cohens zur Infinitesimal-Methode in ein philosophisches System eingliedert. Wie schon in Cohens "`Prinzip der Infinitesimal-Methode und seine Geschichte"' soll es auch hier als "`unmittelbar nützlich"' erscheinen, "`zugleich mit der Durchführung eines systematisch entscheidenden Gedankens seine geschichtliche Entwicklung zu verfolgen."' [Cohen 1883, Vorwort] Dieser Rückblick auf die bewegte Historie des Infinitesimal-Begriffs soll grob die Entwicklungen hin zur Schaffenszeit Cohens umreißen und sodann als Prüfstein für dessen Ideen gelten. / This study focuses on a project of the neo-Kantian Philosopher Hermann Cohen (1842-1918), entitled “Das Prinzip der Infinitesimal-Methode und seine Geschichte,” which was presented in 1883. In this work, Cohen attempted to make the fruitfulness of the infinisimal magnitude in mathematics and natural science beneficial to philosophy as well, especially to Kantian transcendental philosophy. This project has proved unpopular in contemporary philosophy; difficulties in interpreting his complex writing and harsh criticism by prestigious mathematicians have resulted in his work remaining largely unnoticed. This study provides a refutation and reappraisal of this criticism in the light of subsequent historical developments in [the pedagogy of] infinitesimal analysis. Nowadays, in contrast to Cohen’s lifetime, the infinitesimal magnitude is being reintegrated into mathematical teaching – even where it is associated with significant (especially philosophical) difficulties. In addition, the renewed intensity of interest in infinitesimals in Nonstandard Analysis should be a stimulus for reintegrating Cohen‘s philosophy into contemporary research. Recently, moreover, intuitionism, which was closely affiliated with the “Marburger Schule” established by Hermann Cohen and Paul Natorp, has once again come to play a role in Smooth Infinitesimal Analysis. Following Cohen‘s “Logik der reinen Erkenntnis” (1902), this study presents an interpretation of Cohen‘s “Infinitesimal-Logik” by incorporating Cohen’s thoughts about the infinitesimal method into a philosophical system. In the spirit of Cohen’s remarks in his “Prinzip der Infinitesimal-Methode und seine Geschichte,” it should be “immediately useful. . .simultaneously to apply a systematically decisive idea and to follow its historical development” [Cohen 1883, Foreword]. A review of the colorful history of the infinitesimal traces this development up to the point of Cohen’s productive period; from that point on it is used as a performance test for his ideas.
105

Enhanced performance for GPS-PPP by resolving bias-free ambiguities

Kamali, Omid 24 April 2018 (has links)
Le Positionnement Ponctuel Précis (PPP) est une technique de positionnement qui utilise un seul récepteur GNSS. Cette approche diffère nettement des méthodes différentielles qui sont largement utilisées et qui nécessitent deux ou plusieurs récepteurs. Le PPP est une technique économique, autonome par station, avec une précision centimétrique qui a ouvert la possibilité à une large gamme d'applications. Cependant, dans les applications qui nécessitent une convergence rapide et une haute précision, la performance du PPP n'est pas encore suffisante. Le PPP peut prendre jusqu’à 30 minutes pour converger vers des solutions avec une précision décimétrique. Cette longue période d’initiation est principalement consacrée à la stabilisation des ambiguïtés de phase vers des valeurs flottantes constantes. Compte tenu de ce problème, il est démontré que la Résolution des Ambigüités (RA) améliore la stabilité du modèle d’estimation, réduit le temps de convergence et améliore la précision des coordonnées. Cette étude vise donc à améliorer la performance du PPP pour obtenir une meilleure précision plus rapidement. À cette fin, les biais de phase des satellites qui perturbent la résolution des ambiguïtés sont estimées du côté producteur et résolues du côté utilisateur. Une modélisation judicieuse de paramètres et une sélection rigoureuse des modèles de correction sont effectuées afin de réduire la propagation des erreurs non-corrigées dans les biais de phase des satellites estimés. Du côté producteur, une nouvelle approche modulaire à deux étapes est proposée et implémentée comprenant l'estimation de biais de phase des satellites à partir de chaque site et l'intégration séquentielle des solutions. Ces deux étapes ont des structures simples et elles permettent d'estimer précisément les biais de phase de chaque satellite. L’algorithme de l’intégration séquentielle garde un bon compromis entre la charge de calcul, la charge et la capacité de mémoire de l’ordinateur, l'efficacité du traitement des paramètres et la précision des estimations. Du coté producteur, chaque observation est modélisée individuellement et intégrée dans le processus d'estimation. Ceci facilite l'intégration des fréquences supplémentaires (par exemple, la troisième fréquence L5 ou des observations multi-GNSS) pour améliorer davantage la performance de PPP en fonction de la modernisation du GNSS. Du côté utilisateur, un modèle d’observation de plein rang au niveau de récepteur mono-fréquence est proposé et implémenté. Cela donne de la flexibilité aux utilisateurs avec les récepteurs mono-fréquence pour utiliser notre solution PPP-RA lorsque les produits d'ionosphère de haute précision sont disponibles. Le modèle proposé est compatible avec les horloges de satellite standards actuelles fournies par IGS, CODE, JPL, par exemple. Le délai ionosphérique est corrigé et estimé en parallèle. Cela permet à l'utilisateur d’utiliser une correction ionosphérique de faible ou de haute précision et obtenir une performance améliorée en ajustant uniquement la précision de l'estimation de ce paramètre. La performance du PPP-RA du côté utilisateur a été comparée au PPP conventionnel en termes du temps de convergence et de la précision des coordonnées. En résumé, on a obtenu une amélioration importante en temps de convergence (jusqu'à 80 %) et en précision planimétrique (jusqu'à 60 %) par rapport au PPP conventionnel. De plus, une étude comparative est effectuée pour distinguer les caractéristiques de notre approche des autres méthodes PPP-RA. L’avantage de notre PPP-RA est aussi démontré par son approche unique à éliminer les défauts de rang et résoudre les ambiguïtés libre-de-biais. / Precise Point Positioning (PPP) is a single receiver GNSS positioning technique developed in contrast to broadly used differential methods that require two or more receivers. Employing a single receiver makes PPP a cost-effective and per-site autonomous technique with centimetre precision that has opened up the possibility of a wide range of applications. In many applications where short time period is required to reach high precisions, the performance of PPP is not yet sufficient. Typically, PPP takes up to 30 minutes in order to converge to coordinate solutions with acceptable precision. This limitation is mostly due to the long period required for stabilizing the float carrier phase ambiguities to constant values. Given this problem, it is showed that Ambiguity Resolution (AR) improves drastically the stability of the estimation model that in turn reduces the convergence time, and increases the precision of estimated coordinates. Thus, this study seeks to enhance the performance of PPP to obtain higher precision at a faster convergence time. For this reason, the hardware dependent satellite phase biases are estimated at the producer-side and by applying them as corrections the integer ambiguities can be resolved at the user-side. A judicious modelling of all parameters and a careful selection of the correction models is accomplished to reduce the impact of error propagation on the precision of parameters estimation. At the producer-side, a novel modular approach is proposed and established including the per-site satellite phase bias estimation and the sequential integration of the solutions. The two-steps of the producer-side have simple structures and allows for estimating the satellite phase biases. The proposed sequential network solution, keeps a good compromise between the computational burden, the computer memory load, the efficiency of handling parameters and the precision of estimations. In addition, all observables are modelled individually and integrated in the estimation process that facilitates the extension of algorithms for integrating additional frequencies or mutli-GNSS observables with respect to the GNSS modernization. At the user side, a novel full rank design matrix in the single frequency level is proposed and implemented. This gives the flexibility to the users with single-frequency receivers to benefit from our PPP-AR while the high precision ionosphere products are available. The proposed model is compatible with the current standard satellite clocks available, for example, from IGS, CODE, and JPL. The ionosphere is corrected and estimated at the same time. This gives the user the possibility to take advantage of low or high precision ionosphere products for obtaining an enhanced performance with our PPP-AR by only adjusting the precision of the ionosphere delay estimation. The performance of our PPP-AR user-side is then compared to the conventional PPP in terms of convergence time and coordinate precision. A substantial improvement has been obtained in terms of planimetric precision (up to 60%) and the convergence time (up to 80%) compared to the conventional PPP method. In addition, the characteristics of our PPP-AR are compared in detail with other PPP-AR methods. The advantage of our method is discussed by its unique approach of removing the rank deficiencies and resolving bias-free ambiguities.
106

Modèle d'ajustement pour réduire le biais sur le modèle numérique de terrain et le modèle de hauteur de canopée à partir de données LiDAR acquises selon divers paramètres et conditions forestières

Fradette, Marie-Soleil 27 May 2019 (has links)
La sous-estimation des hauteurs LiDAR est très largement connue, mais n’a jamais été étudiée pour plusieurs capteurs et diverses conditions forestières. Cette sous-estimation varie en fonction de la probabilité que le faisceau atteigne le sol et le sommet de la végétation. Les principales causes de cette sous-estimation sont la densité des faisceaux, le patron de balayage (capteur), l'angle des faisceaux, les paramètres spécifiques du survol (altitude de vol, fréquence des faisceaux) et les caractéristiques du territoire (pente, densité du peuplement et composition d’essences). Cette étude, réalisée à une résolution de 1 x 1 m, a d’abord évalué la possibilité de faire un modèle d’ajustement pour corriger le biais du modèle numérique de terrain (MNT) et ensuite un modèle d’ajustement global pour corriger le biais sur le modèle de hauteur de canopée (MHC). Pour cette étude, le MNT et le MHC ont été calculés en soustrayant deux jeux de données LiDAR: l’un avec des pixels comportant un minimum de 20 retours (valeur de référence) et l’autre avec des pixels à faible densité (valeur à corriger). Les premières analyses ont permis de conclure que le MNT ne nécessitait pas d’ajustement spécifique contrairement au MHC. Parmi toutes les variables étudiées, trois ont été retenues pour calibrer le modèle d’ajustement final du MHC : la hauteur du point le plus haut dans le pixel, la densité de premiers retours par mètre carré et l’écart type des hauteurs maximales du voisinage à 9 cellules. La modélisation s'est déroulée en trois étapes. Les deux premières ont permis de trouver les paramètres significatifs et la forme de l'équation (modèle linéaire mixte (1) et modèle non linéaire (2)).La troisième étape a permis d’obtenir une équation empirique à l’aide d’un modèle non linéaire mixte (3) applicable à un MHC d’une résolution de 1x 1m. La correction de la sous-estimation du MHC peut être utilisée comme étape préliminaire à plusieurs utilisations du MHC comme le calcul de volumes et la création de modèles de croissance ou d’analyses multi-temporelles.
107

Structure, dynamique et évolution du transcriptome chez les conifères

Raherison, Solonirina Mahefasoa Elie 23 April 2018 (has links)
Les analyses transcriptomiques contribuent à la compréhension des fonctions du génome des organismes non modèles comme les conifères, qui ont une importance économique et écologique au Canada. La majorité des études transcriptomiques sur les conifères ont abordé des questions biologiques spécifiques, en se penchant tout particulièrement sur les gènes différentiellement exprimés entre les stades de développement et les conditions biologiques. Ces études sont faites à partir d’un nombre limité de tissus. Notre étude avait des objectifs plus fondamentaux qui étaient d’étudier la structure, la dynamique et l’évolution du transcriptome chez les conifères. Nous avons mené deux études d’expression pour comparer différents tissus (études sur plusieurs tissus), une dont le but était de comparer des espèces et une autre pour analyser la variation temporelle de l’expression de gènes d’un type de tissu au cours d’une saison de croissance. Les données d’expression ont été générées grâce à la méthode d’hybridation utilisant des puces à ADN. Nous avons construit la première puce à oligonucléotide pour les conifères. Comparée aux puces à ADNc utilisées dans d’autres études, notre puce a une plus large couverture du génome avec près de 24 000 gènes de l’épinette blanche (Picea glauca [Moench] Voss.). L’analyse sur plusieurs espèces a montré la conservation des profils d’expression préférentiels aux tissus vasculaires entre des espèces d’épinettes. Nous avons créé la première base de données d’expression tissulaire chez les conifères. Cette base de données, appelée PiceaGenExpress, est issue d’une analyse sur plusieurs tissus qui se base sur des données semi-quantitatives. Pour une autre étude sur plusieurs tissus, nous avons analysé des données quantitatives. Ces analyses ont permis de mettre en évidence l’organisation modulaire du transcriptome et de construire un réseau transcriptionnel du xylème. Dans ce réseau, PgNAC-7 est le gène le mieux connecté et préférentiellement exprimé pendant la formation du bois initial, indiquant ainsi son rôle variable dans le temps. Nos résultats constituent une base des connaissances qui permettent des études sur des sujets indépendants par d’autres auteurs. Nos découvertes sont aussi une base pour le développement de marqueurs pour la sélection génétique des conifères dans une perspective de conservation et d’amélioration. / Transcriptome analyses contribute to the understanding of genome function in non-model organisms such as conifers trees, which are of economic and ecological importance in Canada. Most transcriptome profiling experiments in conifers have addressed specific biological questions, focusing on differential expressed genes between developmental stages or biological conditions and have analysed only a few different tissue types at a time. Our study had more fundamental goals which were to investigate transcriptome structure, dynamics and evolution in conifers. We conducted two gene expression studies comparing different tissues (multi-tissue analysis), as well as an analysis comparing species and another that monitored changes over the course of a growth season within a tissue type. Expression data were generated from microarray hybridizations. We developed the first oligonucleotide microarray in conifers. Compared to the cDNA-based microarrays used in previous studies, it has broader genome coverage with about 24 000 white spruce (Picea glauca [Moench] Voss.) genes. Analysis across species revealed the conservation of vascular tissue preferential expression patterns between spruce species. We built the first gene expression database of tissues in conifers. This database, called PiceaGenExpress, comes from a multi-tissue analysis based on semi-quantitative data. A separate multi-tissue analysis used quantitative data, highlighted the modular organization of transcriptome and, lead to the construction of a xylem transcriptional network. The gene PgNAC-7 was the most connected gene in the network and was preferentially expressed during earlywood formation indicating that its role is temporally variable. Ours results represent a knowledge foundation which has enabled research on several independent topics by other researchers. Our findings are also a basis for the development of genetic selection markers for conifer tree breeding and conservation.
108

Aspects liés à la résolution des ambiguïtés de phase dans le positionnement ponctuel de précision (PPP) par GPS

Banville, Simon 13 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2007-2008. / Le positionnement ponctuel de précision (PPP) par satellites GPS requiert encore une longue période d’observations pour atteindre une précision centimétrique, car la résolution des ambiguïtés de phase en mode absolu est contrainte par la présence d’erreurs non modélisées et de biais de phase au récepteur et aux satellites. Afin de mieux comprendre le contexte lié à la résolution des ambiguïtés de phase dans le PPP, un bilan d’erreurs affectant les observations de phase a d’abord été effectué pour évaluer les possibilités de fixer les ambiguïtés à l’entier adéquat. Puis, une approche utilisant un simulateur de signaux GPS a été proposée pour le calibrage des biais de phase d’un récepteur GPS, mais les biais estimés subissent, entre autres, l’influence des biais de code non modélisés et des effets thermiques du récepteur. Finalement, des modifications ont été apportées à la méthodologie actuelle du calibrage des biais de phase des satellites afin d’améliorer la cohérence des biais estimés avec le mod`ele fonctionnel du PPP. Des erreurs non modélisées se propagent toutefois dans les résultats obtenus et, à cet effet, des pistes d’améliorations sont suggérées. Le calibrage des biais de phase est certainement un élément essentiel à l’obtention instantanée d’une précision centimétrique en mode absolu. / GPS Precise Point Positioning (PPP) still requires long observation sessions in order to achieve cm-level accuracy because ambiguity resolution in point positioning is affected by unmodeled errors and by the presence of receiver and satellite phase biases. In order to gain a better understanding of ambiguity resolution in PPP, an error budget has been made to assess the possibilities of accurate ambiguity fixing. Then, an approach using a GPS simulator has been proposed to calibrate receiver phase biases, and the results show evidence of unmodeled code biases and thermal effects in the receiver. Finally, modifications to the actual calibration methods of satellite phase biases have been suggested to improve compatibility with PPP’s functional model. Residual errors still affect the estimated values and suggestions are made to improve the proposed methodology. The calibration of phase biases is an important issue in achieving instantaneous cm-level point positioning.
109

Évaluation de l'efficacité environnementale de différents fossés avaloirs adaptés au milieu agricole

Mailhot, Roxanne 24 April 2018 (has links)
Les fossés avaloirs sont des aménagements hydro-agricoles formés d'un remblai et d'un tuyau vertical perforé, nommé avaloir, permettant de retenir temporairement l'eau de ruissellement dans un bassin de sédimentation. La littérature scientifique actuellement disponible suggère une réduction de plus de 80 % des matières en suspension, de plus de 75 % de l'azote total et de plus de 50 % du phosphore total grâce à ces fossés avaloirs. Dans le cadre de la présente étude, l'élaboration d'un protocole expérimental a permis d'analyser des centaines d'échantillons d'eau de ruissellement provenant de différents types de fossés avaloirs installés dans un champ agricole où des pratiques standard de travail minimal du sol étaient utilisées. Les résultats obtenus démontrent que, dans les conditions étudiées, les fossés avaloirs ne permettent pas d'atteindre les proportions de rétention des matières en suspension généralement rapportée dans la littérature scientifique. Lorsque comparé à un fossé témoin, nos observations démontrent une réduction des matières en suspension de 22 % et de 71 % respectivement pour le fossé avaloir Hickenbottom et le fossé avaloir doté d'une écumoire flottante. Pour ce qui est des nutriments, la réduction des phosphates, qui est la forme dissoute la plus abondante du phosphore, a été plus faible. Nos observations démontrent une réduction de 15 % pour le fossé avaloir Hickenbottom et de 34 % pour le fossé avaloir équipé d'une écumoire flottante. Quant à l'azote total, les valeurs sont plus élevées que celle d'un fossé témoin de 5 % pour le fossé avaloir Hickenbottom et de 120 % pour le fossé avaloir avec écumoire flottante. Sans pour autant déconseiller l'usage de ce type d'aménagement hydro-agricole en milieu agricole québécois, les résultats obtenus pourraient en diminuer les attentes environnementales. Des travaux supplémentaires pourraient permettre de développer ces aménagements pour les rendre plus efficaces dans les conditions du Québec.
110

La construction de modèles géologiques 3D à l'ère de la normalisation / Construction de modèles géologiques tridimensionnelles à l'ère de la normalisation

Bédard, Karine 12 April 2018 (has links)
L’utilisation de modèles tridimensionnels représente une approche intéressante pour visualiser, comprendre et analyser un environnement géologique. La construction de modèles 3D et leur utilisation demeurent cependant peu répandues dans le domaine de la géologie. Cela peut être expliqué, entre autres, par la diversité des données à disposition et les nombreuses étapes à réaliser afin de construire un modèle 3D valide et cohérent par rapport à son utilisation. Afin d’aider les modélisateurs et les guider dans leur procédure de construction de modèles 3D, ce projet de maîtrise vise l’élaboration d’un guide procédural qui assemble logiquement les étapes de construction d’un modèle géologique 3D tout en décrivant formellement les données géométriques (ponctuelle, linéaire, surfacique et volumique) utilisées. Cette description formelle est basée sur la norme en information géographique ISO/TC211 à laquelle est ajoutée une extension pour la représentation des objets volumiques. Le guide proposé facilite la construction des modèles 3D par des modélisateurs non experts. Il a été testé par des non experts qui ont réussi dans 80% des cas à construire des modèles géologiques 3D ce qui permet d’en confirmer son efficacité et son utilité. / The use of three-dimensional models represents an interesting approach to visualize, understand and analyze a geological environment. In Earth sciences, construction of 3D models and their use remain however not very widespread. That can be explained, in part, by the diversity of available data and the numerous steps required to build a valid and coherent 3D model. The purpose of this project is thus to propose a procedural guide that logically assembles 3D geological model construction steps while formally describing geometrical data (point, line, surface and volume) used. This formal description is based on ISO/TC211 geographic information standards to which an extension for the representation of the volumetric objects is added. The proposed guide facilitates the construction of 3D models by non-expert modellers. It was tested by non-experts who succeeded, in a proportion of 80%, in building 3D geological models which allows us to confirm the effectiveness and utility of the guide.

Page generated in 0.0567 seconds