• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2340
  • 673
  • 269
  • 15
  • 1
  • 1
  • 1
  • Tagged with
  • 3304
  • 1084
  • 1080
  • 921
  • 823
  • 634
  • 474
  • 427
  • 364
  • 345
  • 342
  • 329
  • 323
  • 290
  • 279
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
61

Implémentation de la technique de simulation des grandes échelles dans un solveur parallèle de dynamique des fluides

Lepage, Patrick January 2012 (has links)
Ce mémoire de maîtrise en milieu industriel présente les travaux réalisés chez Maya Heat Transfer Technologies afin d'implémenter la technique de la simulation des grandes échelles dans le solveur de dynamique des fluides parallèle NIECE. Les modèles de sous-maille [sic] algébriques de Smagorinsky, WALE (Wale Adapting Local Eddy-Viscosity) et le modèle de Vreman ont été retenus et validés.Ce projet de maîtrise se divise [entre] quatre volets. La première partie présente l'implémentation et l'analyse d'un nouveau schéma de discrétisation spatial et temporel dans le contexte d'un algorithme de résolution des équations de Navier-Stokes par une approche mixte [de] volumes éléments finis sur maillage non structuré. Une étude comparative sur la stabilité, la diffusion et [la] dipersion [sic] numérique des nouveaux schémas et ceux déjà existants dans le code permet d'identifier le schéma centré de second ordre en espace, couplé au schéma de Crank-Nicolson en temps comme un compromis adéquat pour la simulation des grandes échelles dans un contexte industriel. Le second volet détaille les résulats [i.e. résultats] de la simulation de la décroissance d'une turbulence homogène isotrope. La décroissance des spectres d'énergie est présentée pour chacun des modèles de sous-maille, puis comparée à la solution sans modèle. L'effet du raffinement du maillage est investigué.Ce volet détaille également l'implémentation et la validation de l'algorithme permettant l'initialisation d'une turbulence isotrope incompressible. Une discussion sur les formulations analytiques des spectres d'énergie de Passot-Pouquet et de von Karman-Pao est finalement présentée. Le problème de la répresentation [i.e. représentation] de l'écoulement à l'entrée du domaine de calcul est ensuite abordé.Ce troisième volet détaille la méthode de génération de turbulence, appelée méthode des tourbillons synthétiques, servant à générer un champ de vitesse cohérent et représentatif d'une turbulence réelle. Une étude de l'influence des paramètres numériques de la méthode permet de dériver un critère automatique de sélection pour l'utilisateur. Pour terminer, une étude comparative de la méthode des tourbillons synthétiques à une méthode d'injection aléatoire est présentée. En dernier lieu, la réalisation du cas de validation du canal plan périodique permet d'investiguer la capacité du code à simuler les propriétés d'une turbulence cisaillée. Les résultats des modèles de sous-maille sont comparés au cas sans modèle de turbulence. L'effet du raffinement du maillage est étudié sur trois différentes grilles. Les statistiques de premier ordre (profil de vitesse moyenne) et les satistiques [i.e. statistiques] de second ordre (profils des composantes du tenseur de Reynolds) sont détaillées et analysées. Finalement, la contribution de l'énergie cinétique résolue et de l'énergie de sous-maille permet de quantifier la contribution des modèles de turbulence sur la solution.
62

Modélisation physique et numérique de la mise en place des colonnes ballastées dans un sable fin

Hurley, Olivier January 2014 (has links)
L’amélioration des sols par la technique de vibrosubstitution est habituellement utilisée pour les sols cohésifs, mais peut toutefois être utilisée dans les sols pulvérulents avec potentiel de liquéfaction. Cette technique permet la création d’un réseau de colonnes ballastées (CB) qui réduit le tassement et augmente la capacité portante d’un sol. L'intérêt est certes bien affiché. En effet, Geopac Inc. (entreprise spécialisée) se propose d'évaluer sa méthode d'amélioration des sols par CB en vue de réduire (voire éliminer) le potentiel de liquéfaction des sols grenus. Geopac a fait recours à une collaboration avec l'UdeS pour analyser expérimentalement et numériquement l'influence de la mise en place des CB sur les propriétés d'un sol pulvérulent. Un programme expérimental a été élaboré dans le but d’étudier l’effet de la mise en place des CB sur le sol encaissant par cette technique. À cet effet, un modèle réduit unique a été conçu, instrumenté et calibré à l’UdeS pour permettre dans un premier temps, de simuler l’incorporation de pierre nette (ballast) dans un sol lâche non saturé tout en maintenant une contrainte verticale et en mesurant la contrainte latérale générée durant l’incorporation. Le modèle réduit permet l’étude de l’expansion de cavité telle qu’obtenue durant la construction des CB par vibrosubstitution. Les colonnes sont construites à l’intérieur d’une cellule de PVC de 600 mm de haut et de 382 mm de diamètre. Un total de trois colonnes ballastées ont été construites sous une contrainte de 60, 80 et 100 kPa respectivement représentant un taux d’incorporation de près de 4 %. L’incorporation démontre une augmentation de la pression latérale caractérisée par le coefficient de pression latérale K jusqu’à 1.37 et une augmentation de la densité de 44 % à 55 % en moyenne. Une modélisation numérique a ensuite permis de confirmer les résultats expérimentaux et de vérifier le comportement du montage expérimental. La modélisation numérique a été réalisée avec le logiciel PLAXIS 2D 2012 en axisymétrie de révolution et considérant une loi comportementale de type Hardening Soil Model pour le sol encaissant et de type Mohr-Coulomb pour la colonne de pierre. La modélisation numérique a permis de déterminer que la forme de la contrainte verticale sur le sol est parabolique, c’est-à-dire maximale au centre et nulle à l’interface sol-paroi. L’expansion du sol a été simulée par l’imposition d’une déformation volumique anisotropique en cinq couches dans le sens radial et circonférentiel équivalent aux dimensions de la colonne obtenue expérimentalement. Les résultats numériques ont démontré une erreur de < 1 % pour la CB #1, de pour la CB #2 et de < 30 % pour la CB #3. L’erreur rencontrée sur la dernière colonne effectuée sous une contrainte verticale de 60 kPa peut-être associés à une mesure erronée lors de l'expérimentation. L’obtention des résultats expérimentaux par modélisation numérique a confirmé la fonctionnalité du montage expérimental et de la procédure de construction des CB en laboratoire. Cela ouvre la porte à des études subséquentes de l’effet de la mise en place des CB sur le sol encaissant en incorporant la vibration et la saturation du sable reproduisant la technique de vibrosubstitution.
63

Étude de l'extrusion monovis de mélanges d'élastomères : approche expérimentale et simulation numérique

Koscher, Matthieu 03 February 2003 (has links) (PDF)
La compréhension et la modélisation des phénomènes physiques qui sont mis en jeu au cours du procédé d'extrusion monovis de mélange d'élastomère constituent l'objectif du travail de recherche. Après formulation d'un mélange clair, celui-ci a fait l'objet de plusieurs campagnes d'essais rhéologiques. Le même mélange a été rendu plus glissant par l'ajout de stéarate de zinc. Nous avons pu montrer que la rhéologie de volume restait proche de celle du mélange précédent et proposer différentes lois de glissement, dépendantes de la géométrie, par l'intermédiaire des dépouillements classiques de la littérature. Une étude expérimentale systématique a été entreprise, tout d'abord, sur une extrudeuse industrielle (5 vis différentes représentatives des vis utilisées en production), puis sur une extrudeuse de laboratoire (profils simples et modulaires). Des informations ont été obtenues par le relevé de paramètres tels que la pression, la température, le débit, le taux de remplissage (démontage)... Ainsi, à partir des résultats expérimentaux et de leurs interprétations, nous avons pu comparer les performances des différentes géométries et mélanges, et extrapoler les résultats d'une machine à l'autre. L'approche de modélisation 1D a mis en évidence la grande importance des effets de bord, liée au caractère très pseudoplastique du produit utilisé. En conséquence, le modèle 1D est inutilisable. On s'est alors dirigé vers un calcul en deux dimensions par éléments finis. Il intègre différents couplages qui ont été réalisés et validés au fur et à mesure. La comparaison à l'expérience montre un certain nombre de désaccords. La comparaison entre un vrai calcul 3D et le calcul à deux dimensions couplé montre un écart grandissant lorsque le coefficient de pseudoplasticité diminue. Comme pour l'approche 1D, le couplage longitudinal/transversal est pris en défaut pour des caoutchoucs à cause d'un indice de pseudoplasticité très faible. L'avenir semble donc passer par un vrai calcul tridimensionnel. Nous en avons montré la faisabilité en simulant l'écoulement dans de petits tronçons de vis. L'accord avec l'expérience est satisfaisant.
64

Caractérisation mécanique et simulation numérique d'une anode tournante de rayons X

Lemarchand, Gwénaël 03 April 2003 (has links) (PDF)
Ce travail a concerné les anodes tournantes légères utilisées pour la production de rayons X dans les scanners médicaux. Ces anodes sont constituées de graphite revêtu de tungstène par projection plasma à basse pression. Nous nous sommes intéressés au comportement mécanique des matériaux constituants (particulièrement le tungstène) dans les conditions de sollicitations thermomécaniques intenses rencontrées durant la vie en service des anodes. La première étape de ce travail a été une phase d'identification du problème posé. Nous avons ainsi cerné les conditions de sollicitation en service en termes de fréquence d'excitation, de température, de déformation et de vitesse de déformation. Des expertises d'anodes usagées ont permis de dégager les principaux modes d'endommagement en service. Pour caractériser le comportement mécanique des matériaux, un dispositif d'essai existant a été adapté pour pouvoir travailler sur des éprouvettes de flexion de petite taille. Les procédures d'essai ont, quant à elles, été choisies pour générer des sollicitations proches de celles associées au fonctionnement. Dans toute la plage de température investiguée (ambiante à 1800°C), notre graphite s'est avéré posséder un comportement élastique fragile. Le comportement du tungstène s'est révélé plus complexe: élastique-fragile jusqu'à 400°C, il devient ensuite plastique pour devenir sensible au fluage à partir de 1200°C. Des trajets de chargement originaux ont permis de mettre en évidence l'existence d'une contrainte interne de rappel, ainsi qu'un couplage entre déformations plastiques et déformations visqueuses. Une loi phénoménologique originale de comportement, à double déformation inélastique, plastique et viscoplastique avec un terme d'interaction entre les deux mécanismes d'écoulement, a donc été nécessaire pour décrire le comportement mécanique du tungstène. L'écrouissage par chacun des écoulements est traduit par des variables cinématiques. L'identification numérique des paramètres a été réalisée par un optimiseur, couplé à un code de calcul par éléments finis simulant l'essai de flexion. La loi ainsi établie a été finalement validée en confrontant ses prévisions au comportement observé expérimentalement pour des trajets de chargement complexes. Cette loi de comportement a finalement été utilisée pour simuler les conditions d'utilisation d'une anode réelle. On a ainsi calculé, à l'aide d'un maillage bidimensionnel axisymétrique, les contraintes générées par le refroidissement post-recuit, une puis plusieurs séries de clichés radiographiques, et enfin un refroidissement total après utilisation. La répétition de séries de clichés conduit rapidement à des cycles stabilisés. Contrairement aux simples simulations thermoélastiques réalisées préalablement à ce travail, les niveaux de contraintes calculés sont réalistes et demeurent inférieurs à la résistance à la rupture des matériaux. Cette simulation peut d'ores et déjà être utilisée industriellement pour évaluer l'influence d'une modification de la géométrie de l'anode et/ou des conditions de sollicitation sur les contraintes en service.
65

Modélisation de matériaux supraconducteurs : application à un limiteur de courant

Duron, Joseph 24 March 2006 (has links) (PDF)
L'objectif principal de cette thèse est la modélisation de matériaux supraconducteurs, et plus particulièrement, de ceux dits à haute température critique. Ce travail est divisé en deux parties distinctes : dans un premier temps, nous nous intéressons à la reconstruction de la distribution dynamique du courant dans la section d'un ruban supraconducteur à l'aide d'un modèle décrivant son comportement global. Ensuite, nous nous focalisons sur la modélisation électromagnétique et thermique par éléments finis des supraconducteurs en régime sur-critique, c'est à dire au-delà du courant critique Ic. Une introduction à la supraconductivité est faite dans le premier chapitre de ce travail, présentant les propriétés physiques principales que possède un matériau supraconducteur. Ensuite, nous décrirons les différents modèles existants permettant de décrire le comportement d'un échantillon supraconducteur. En se basant sur le modèle de Bean, nous proposons une nouvelle méthode permettant d'évaluer la distribution du courant dans la section d'un ruban monofilamentaire à partir de la mesure du profil magnétique à sa surface. Les résultats obtenus sont comparés avec ceux données par une modélisation certes plus précise, mais aussi plus complexe : l'utilisation de la méthode des éléments finis. Cette dernière sera largement utilisée dans la seconde partie de ce travail, qui traite de la modélisation de matériaux en régime sur-critique. Ceci nécessite d'introduire une formulation différente de l'habituelle loi de puissance Ec(J/Jc)^n pour décrire le comportement électrique du matériau dans une plage de courant plus importante, incluant les régimes sur-critiques. Pour cela, nous proposons une méthode originale, permettant d'approcher des mesures effectuées sur des échantillons d'YBCO et autorisant la description de la transition de l'état supraconducteur vers l'état normal. La dépendance en température a aussi été introduite afin d'étudier les phénomènes thermiques qui se produisent. Il est ainsi possible de résoudre de manière couplée les équations électromagnétiques et thermiques du problème : la résolution d'un pas de temps électromagnétique conduit à la connaissance des pertes locale. Ces pertes sont injectées dans le modèle thermique, et permet de calculer l'augmentation de température correspondante. Ce résultat est alors utilisé pour modifier les paramètres électriques en vue de la résolution du prochain pas de temps. Finalement, cette méthode a été utilisée afin de simuler le comportement d'un limiteur de courant supraconducteur. Le comportement global du système peut être reproduit par le modèle numérique implémenté, autorisant ainsi l'étude des variables locales, telles que la densité de courant ou le profil de température. Les résultats obtenus peuvent être utilisés afin d'optimiser les performances du dispositif selon des critères spécifiques. C'est ainsi que nous avons proposé une modification de la géométrie permettant d'éviter un possible emballement thermique qui pourrait conduire à la destruction du système. Sur la base de cette proposition, des modifications ont été apportées au design du dispositif, et sont actuellement testées.
66

Méthode des réseaux de Lagrange en mécanique quantique

Hesse, Michel 31 October 2001 (has links)
<p align="justify">Les fonctions de Lagrange sont des fonctions indéfiniment dérivables qui s'annulent en tous les points d'un réseau sauf un. Ces fonctions sont utilisées comme fonctions de base d'un calcul variationnel. Les éléments de matrice de ce calcul sont évalués à l'aide de la règle de quadrature de Gauss définie par le réseau de points. Les équations à résoudre prennent ainsi la forme d'équations sur réseau.</p> <p align="justify">La méthode des réseaux de Lagrange allie simplicité et précision. La matrice représentant le potentiel est diagonale et ne dépend que des valeurs prises par le potentiel aux points du réseau. Contrairement à la méthode des différences finies, une expression analytique est obtenue pour la solution. Nous cherchons clans cette thèse à cerner les avantages et inconvénients de la méthode des réseaux de Lagrange, ainsi qu'à étendre son champ d'application en mécanique quantique. Nous montrons notamment que cette méthode peut être reliée à d'autres méthodes sur réseau, telles que les méthodes de la variable discrétisée (DVR) ou du réseau de Fourier, qui sont fort utilisées en physique atomique et moléculaire.</p> <p align="justify">Dans les problèmes à deux corps, nous appliquons la méthode à l'étude des états liés et nous l'étendons au cas des collisions, c'est-à-dire aux états libres. Une nouvelle technique de calcul de la longueur de diffusion et de la portée effective est également considérée. Dans certains cas, la solution exacte du problème à deux corps existe sous forme analytique, ce qui permet une étude de la précision de la méthode en ce qui concerne les valeurs propres et les vecteurs propres de la matrice hamiltonienne. L'extension de la méthode aux problèmes à deux corps régis par une dynamique semi-relativiste est également examinée.</p> <p align="justify">Dans le cas des problèmes à trois corps, nous effectuons une comparaison entre plusieurs systèmes de coordonnées auxquels sont couplés différents réseaux de Lagrange. Les résultats de cette comparaison dépendent de la présence de singularités dans les potentiels, celles-ci pouvant limiter fortement la précision de la méthode.</p> <p align="justify">En physique nucléaire, nous comparons deux approches sur réseaux de Lagrange lors de l'étude de l'état fondamental du noyau 6He. Il s'agit d'un noyau à halo de neutrons, pour lequel il existe une forte probabilité de trouver deux des neutrons loin des autres nucléons. Le noyau 6He peut ainsi être traité comme un système à trois corps, constitué d'une particule alpha et de deux neutrons. Nous étendons également le modèle à trois corps pour ce noyau au cas d'interactions à deux corps plus générales, c'est-à-dire contenant différents opérateurs agissant sur les spins des nucléons.</p> <p align="justify">En physique atomique et moléculaire, où les interactions sont, en première approximation, purement coulombiennes, nous nous sommes intéressé aux états S et P des principaux systèmes à trois corps que sont l'atome d'hélium He, les ions hydrogène H-et positronium Ps-, l'ion moléculaire d'hydrogène HZ et la molécule muonique dt"mu". Les fonctions d'onde approchées obtenues lors de la détermination des états liés sont utilisées pour évaluer des rayons quadratiques moyens et les rayons de masse de ces systèmes.</p>
67

Quelques programmes graphiques d'analyse numérique

Petit, Marc 25 September 1971 (has links) (PDF)
.
68

Étude de procédés d'extrapolation en analyse numérique

Laurent, Pierre-Jean 15 June 1964 (has links) (PDF)
.
69

Circulation générale et photochimie dans l'atmosphère de Titan

Lebonnois, Sébastien 14 June 2000 (has links) (PDF)
Depuis une vingtaine d'années, l'atmosphère de Titan fait l'objet de très nombreuses observations et études théoriques. Ce système complexe pose beaucoup de questions, en particulier quant aux relations entre ses différentes composantes, microphysique des aérosols, photochimie et dynamique atmosphérique. Ce travail de thèse s'inscrit dans une volonté d'approfondir notre connaissance de ces interactions. Le développement d'un modèle photochimique à deux dimensions (altitude-latitude) permet le couplage entre photochimie, jusqu'à présent étudiée sur la seule dimension verticale, et dynamique atmosphérique, qui apporte une description plus pertinente du transport des espèces chimiques dans la basse atmosphère. Nous avons développé une description tridimensionnelle du flux ultraviolet permettant d'aborder les effets saisonniers sur l'ensemble de la planète. Les données photochimiques ont été mises à jour. La partie dynamique comprend la prise en compte de la circulation méridienne, ainsi que des diffusions turbulentes verticale et horizontale. Les simulations de la composition de l'atmosphère en fonction de la latitude et de la saison, complétées par des études de sensibilité et d'impact purement dynamique, démontrent le rôle de ce transport sur les profils latitudinaux observés dans la basse stratosphère par la mission Voyager. La comparaison entre les diverses observations et les simulations est globalement satisfaisante. Les incertitudes importantes sur les données chimiques restent une source majeure de difficultés. L'étude de la rétroaction radiative des variations de composition sur le champ de température a été abordée grâce à l'introduction du suivi de la composition dans le GCM. Cet outil, permettant un couplage complet entre photochimie, dynamique atmosphérique et microphysique des aérosols sera, une fois finalisé, un outil puissant pour l'étude des nombreuses données attendues de la mission Cassini-Huygens.
70

Amélioration des données altimétriques dans la région du Grand Lac des Esclaves à partir d’images Radarsat-2

Proulx-Bourque, Jean-Samuel January 2016 (has links)
Résumé : En raison de sa grande étendue, le Nord canadien présente plusieurs défis logistiques pour une exploitation rentable de ses ressources minérales. La TéléCartographie Prédictive (TCP) vise à faciliter la localisation de gisements en produisant des cartes du potentiel géologique. Des données altimétriques sont nécessaires pour générer ces cartes. Or, celles actuellement disponibles au nord du 60e parallèle ne sont pas optimales principalement parce qu’elles sont dérivés de courbes à équidistance variable et avec une valeur au mètre. Parallèlement, il est essentiel de connaître l'exactitude verticale des données altimétriques pour être en mesure de les utiliser adéquatement, en considérant les contraintes liées à son exactitude. Le projet présenté vise à aborder ces deux problématiques afin d'améliorer la qualité des données altimétriques et contribuer à raffiner la cartographie prédictive réalisée par TCP dans le Nord canadien, pour une zone d’étude située au Territoire du Nord-Ouest. Le premier objectif était de produire des points de contrôles permettant une évaluation précise de l'exactitude verticale des données altimétriques. Le second objectif était de produire un modèle altimétrique amélioré pour la zone d'étude. Le mémoire présente d'abord une méthode de filtrage pour des données Global Land and Surface Altimetry Data (GLA14) de la mission ICESat (Ice, Cloud and land Elevation SATellite). Le filtrage est basé sur l'application d'une série d'indicateurs calculés à partir d’informations disponibles dans les données GLA14 et des conditions du terrain. Ces indicateurs permettent d'éliminer les points d'élévation potentiellement contaminés. Les points sont donc filtrés en fonction de la qualité de l’attitude calculée, de la saturation du signal, du bruit d'équipement, des conditions atmosphériques, de la pente et du nombre d'échos. Ensuite, le document décrit une méthode de production de Modèles Numériques de Surfaces (MNS) améliorés, par stéréoradargrammétrie (SRG) avec Radarsat-2 (RS-2). La première partie de la méthodologie adoptée consiste à faire la stéréorestitution des MNS à partir de paires d'images RS-2, sans point de contrôle. L'exactitude des MNS préliminaires ainsi produits est calculée à partir des points de contrôles issus du filtrage des données GLA14 et analysée en fonction des combinaisons d’angles d'incidences utilisées pour la stéréorestitution. Ensuite, des sélections de MNS préliminaires sont assemblées afin de produire 5 MNS couvrant chacun la zone d'étude en totalité. Ces MNS sont analysés afin d'identifier la sélection optimale pour la zone d'intérêt. Les indicateurs sélectionnés pour la méthode de filtrage ont pu être validés comme performant et complémentaires, à l’exception de l’indicateur basé sur le ratio signal/bruit puisqu’il était redondant avec l’indicateur basé sur le gain. Autrement, chaque indicateur a permis de filtrer des points de manière exclusive. La méthode de filtrage a permis de réduire de 19% l'erreur quadratique moyenne sur l'élévation, lorsque que comparée aux Données d'Élévation Numérique du Canada (DNEC). Malgré un taux de rejet de 69% suite au filtrage, la densité initiale des données GLA14 a permis de conserver une distribution spatiale homogène. À partir des 136 MNS préliminaires analysés, aucune combinaison d’angles d’incidences des images RS-2 acquises n’a pu être identifiée comme étant idéale pour la SRG, en raison de la grande variabilité des exactitudes verticales. Par contre, l'analyse a indiqué que les images devraient idéalement être acquises à des températures en dessous de 0°C, pour minimiser les disparités radiométriques entre les scènes. Les résultats ont aussi confirmé que la pente est le principal facteur d’influence sur l’exactitude de MNS produits par SRG. La meilleure exactitude verticale, soit 4 m, a été atteinte par l’assemblage de configurations de même direction de visées. Par contre, les configurations de visées opposées, en plus de produire une exactitude du même ordre (5 m), ont permis de réduire le nombre d’images utilisées de 30%, par rapport au nombre d'images acquises initialement. Par conséquent, l'utilisation d'images de visées opposées pourrait permettre d’augmenter l’efficacité de réalisation de projets de SRG en diminuant la période d’acquisition. Les données altimétriques produites pourraient à leur tour contribuer à améliorer les résultats de la TCP, et augmenter la performance de l’industrie minière canadienne et finalement, améliorer la qualité de vie des citoyens du Nord du Canada. / Abstract : Due to its vast extent, Northern Canada faces several logistical challenges for a profitable exploitation of its mineral resources. Remote Predictive Mapping (RPM) aims to help in targeting mineral deposits through the production of geological potential maps. Elevation data is necessary for the generation of these maps. However, the currently available elevation data north of the 60th parallel are not optimal primarily because it has been derived from contours with values at a metric precision. Additionally, exact knowledge of the vertical accuracy of elevation data is essential to insure a suitable use, within its accuracy constraints. This project aimed to improve the quality of elevation data and to contribute to the refinement of RPM products for a study site located in the Northwest Territories. The first objective was to generate control points to evaluate vertical accuracy with precision. The second objective was to generate an improved elevation model for the study site. First, a filtering method for Global Land and Surface Altimetry Data (GLA14) from the ICESat (Ice, Cloud and land Elevation SATellite) mission is presented. This filtering is based on indicators, derived from information available in GLA14 data and terrain conditions, which are then applied successively to remove potentially contaminated elevation points. The points are filtered based on the attitude calculation, signal saturation, equipment noise, atmospheric conditions, slope and number of peaks. Next, a method to generate an improved Digital Surface Models (DSM) using StereoRadarGrammetry (SRG) with Radarsat-2 (RS-2) images is described. In the first part of the adopted methodology, DSM are stereorestituted from RS-2 image pairs, without control point. Then, the vertical accuracy of the DSM is calculated using the control points resulting from the filtering of GLA14 data, and analysed according to the incidence angles combination used for the stereorestitution. Next, selections from the preliminary DSM are assembled to generate 5 DSM, each covering entirely the study site. Finally, the DSM are analysed to identify the optimal selection for the area of interest. The selected indicators were found to be efficient and complementary, except for the indicator based on the noise/signal ratio. Otherwise, all indicators allowed to filter out points exclusively. A 19% reduction of the elevation mean square error was achieved with the filtering method, when compared to Canadian Digital Elevation Data (CDED). The initial density of the GLA14 allowed maintaining a spatially homogeneous distribution of the post-filtering elevation points despite a 69% rejection rate. From the analysis of the 136 preliminary DSM, no specific combination of the acquired RS-2 images incidence angles stood out as being ideal with SRG due to high variability in vertical accuracy. Nonetheless, the analysis showed that images should be ideally acquired at sub-zero temperatures to minimize radiometric discrepancies between scenes. Results also showed that the slope is the main factor influencing the accuracy of DSM generated with SRG. The best vertical accuracy (4 m) was achieved with same-side view configurations. Opposite-side view configurations, despite achieving a vertical accuracy of 5 m, allowed a 30% reduction in the amount of images initially acquired. Therefore, the use of opposite-side view configurations could help to improve the efficiency of SRG projects by reducing considerably the acquisition period. Elevation data generated using the proposed method could help to improve results from RPM and increase the efficiency of the mining industry in Northern Canada and finally contribute to the betterment of the lives of Northern Canada’s citizens.

Page generated in 0.0323 seconds