• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 8
  • 1
  • Tagged with
  • 38
  • 38
  • 13
  • 12
  • 9
  • 9
  • 7
  • 6
  • 6
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Designing a method to estimate the quality of airborne LiDAR-derived DTM

Pashaei, Zahra 20 March 2023 (has links)
Le balayage lidar aéroporté permet la production de modèles numériques de terrain (MNT) précis et à haute résolution. Cette thèse fait partie d'un projet où le DTM est utilisé pour évaluer la hauteur d'eau en crue et estimer le risque qu'elle atteigne les ouvertures inférieures des bâtiments. Ce travail est fait pour aider les décideurs à évaluer les dommages causés par les inondations. Cependant, le DTM est souvent présenté sans estimation de sa précision. La comparaison avec la vérité terrain est une approche courante pour estimer la qualité du DTM. Alors que la fiabilité d'une telle approche dépend de divers facteurs dont la taille de l'échantillon, l'accessibilité sur le terrain, la distribution et une assez grande diversité de vérité terrain, ce qui a un coût et est quelque peu irréalisable à l'échelle de la province de Québec. Par conséquent, l'objectif principal de cette recherche est de concevoir une méthode qui pourrait fournir une estimation locale de l'erreur sans aucune dépendance à des ensembles de données tiers. À cet égard, nous profitons du krigeage géostatistique comme estimateur alternatif de la qualité. Le défi de considérer une variation constante dans l'espace nous amène à proposer une méthode non stationnaire qui aboutit à l'estimation locale de l'erreur d'élévation du MNT. La performance de la méthode présentée a été validée par la comparaison avec l'évaluation de la vérité terrain. Les résultats ont révélé que notre méthode est fiable dans les zones urbaines et semi-urbaines, en particulier dans les zones agricoles et résidentielles sauf dans les forêts qui sont dues à leur plus faible densité. / Airborne lidar scanning allows the production of accurate and high-resolution digital terrain models (DTM). This thesis is part of a project where the DTM is used to assess the water height in flood and estimate the risk it reaches the lower openings in buildings. This work is done to support decision-makers in estimating damages caused by floods. However, DTM is often presented without an estimation of its accuracy. Comparison with ground truth is a common approach to estimating the quality of DTM. Whereas the reliability of such an approach depends on various factors including sample size, accessibility on the field, distribution, and a large enough diversity of ground truth, which comes at a cost and is somewhat unfeasible in the scale of Quebec province. Therefore, the main objective of this research is to design a method that could provide a local estimation of error without any dependency on third-party datasets. In this regard, we take advantage of geostatistical kriging as an alternative quality estimator. The challenge of considering constant variation across the space brings us to propose a non-stationary method that results in the local estimation of DTM elevation error. The performance of the presented method was validated with the comparison with ground truth assessment. The results revealed that our method is reliable in urban and semi-urban areas, especially in farmland and residential areas except in forests which are due to their lowest density.
2

Krigeage et cokrigeage, méthodes d’interpolation spatiale pour les systèmes d’information géographique

Mangapi, Augustin Assonga January 1994 (has links)
Résumé: Tel que le notent si bien Oliver et al. (1990), la plupart des méthodes d’interpolation classiques sont basées sur les modèles des méthodes numériques différents des modèles probabilistes de variation spatiale. Les distributions des variables des données spatiales se comportent plus comme des variables aléatoires et la théorie des variables régionalisées comporte un ensemble de méthodes stochastiques pour les analyser. Le krigeage et le cokrigeage, basés sur cette théorie, expriment les variations spatiales de variables en termes de variogrammes et ils minimisent les erreurs de prédiction qui sont elles-mêmes estimées. Appliquées aux données des variables pédologiques des champs de la Station de recherches de Lennoxville, les méthodes ou techniques d’interpolation de la géostatistique: les krigeages et cokrigeages ordinaires, universels et par bloc, ainsi dénommées, sont explorées et comparées en vue d’en identifier la méthode appropriée intégrable dans un système d’information géographique, pour obtenir l’optimum de la modélisation, la présentation et celui de l’analyse spatiale. Les valeurs krigées et cokrigées des techniques choisies sont obtenues à l’aide de l’algorithme Cokri (Marcotte, 1991, 1993) et sont comparées aux valeurs initiales dont elles en sont les estimations. Des tests de similarité appliqués à ces données et résultats attestent la similarité de leurs distributions respectives. En d’autres termes, les types de krigeage et de cokrigeage examinés bénéficient de la même homogénéité des données qui est vérifiée par des outils de comparaison visuels et des traitements géostatistiques. De plus l’utilisation de ces méthodes donne des erreurs minimes proches de la réalité. Ainsi, selon la nature spécifique des données spatiales, en l’occurence les données homogènes sans structure spatiale particulière cachée, un estimateur linéaire simple ou la moyenne arithmétique de ces données, suffit pour représenter les variables étudiées.||Abstract: As Oliver et al. (1990) pointed it out so well, most of iraditional methods of interpolation are based on numerical method models as distinct from stochastic models of spatial variation. Spatially distributed data behave more like random variables, however, and regionalized variable theory provides a set of stochastic methods for analyzing them. Kriging and cokriging, based on that theory, depend on expressing spatial variation of the property in terms of variograms, and they minimize the prediction erros which are themselves estimated. Used on pedological parameters data, oridinary, universai and block krigings and cokrigings, geostatistical interpolation methods or techniques, are expiored and compared in order to identify the appropriate method which can be integrated into a Geographic Information System to provide optimum modelting, presentation and spatial analysis. Kriged and cokriged values are obtained by Cokri algorithm (Marcotte, 1991, 1993), and are compared to estimated initial data. Similarity tests applied to these data and values show that their respective distributions are similar. In othe words, the examined kriging and cokriging types perfom equally well. They ail take advantage of the data homogeneity, verified by visual comparison and geostatiatical tools or techniques, for providing doser minimum error terms. Thus, according to the special nature of spatial data, namely the homogeneous ones without a hiden particular spatial structure, a simple linear estimator, such as the data arithmetical mean, is sufficient for representing die variables under consideration.
3

The magmatic crust of Vesta / La croûte magmatique de Vesta

Mizzon, Hugau 22 September 2015 (has links)
Les astéroïdes Cérès et Vesta ont motivé la mission spatiale Dawn parce qu'ils représentent deux embryons planétaires différents restés relativement intacts depuis leur formation. Vesta est large- ment considéré comme le corps parent des météorites HED témoins d'une activité magmatique probablement due à la présence de l'isotope radioactif 26Al qui était suffisamment abondant pour permettre la fusion interne des corps rocheux primitifs. La composition d'une surface planétaire peut être mesurée grâce à l'analyse des rayons gammas qu'elle produit. Pour la sonde Dawn cela est rendu possible par l'instrument GRaND et la scintillation d'un cristal de BGO. Cette thèse présente l'analyse des spectres gammas de Vesta par deux outils de séparation aveugle de source: l'analyse en composantes indépendantes (ICA) et la factorisation en matrice non-négative (NMF). Ces méthodes sont aussi appliquées à un jeu de données lunaire comparable et déjà bien interprété. Des spectres synthétiques lunaires permettent de tester ICA et NMF. La séparation de spectres élémentaires s'avère délicate même si on peut distinguer les éléments K, Th et Fe en raison des propriétés statistiques de leur signaux sources plus favorables. On mesure la sensibilité d'ICA-NMF à la variabilité chimique de la surface pour des Lunes artificielles, ce qui permet d'expliquer l'absence de séparation d'un signal élémentaire clair dans le cas de Vesta. Malgré les observations de la sonde Dawn et le nombre important d'informations fournies par les HED, il n'y a pas de consensus sur la formation des HED. On met souvent en avant l'existence d'un océan magmatique global sur Vesta, alors que la migration de la principale source chaleur, contenue dans le premier minéral fondu, le plagioclase, ne permet pas la fusion totale. On met en oeuvre un modèle de migration des magmas, basé sur les équations de la compaction. On adapte ce modèle en utilisant un diagramme d'équilibre de phase olivine-anorthite-quartz. Cela permet de calculer l'évolution de la minéralogie en fonction du temps et de la profondeur. Les résultats montrent que les eucrites et les diogénites pourraient être une caractéristique commune des gros corps accrétés tôt dans l'histoire du système solaire. / Asteroids Vesta and Ceres motivated the space mission Dawn because they represent two different planetary embryos that remained relatively intact since their formation. Vesta is broadly considered as the parent body of the HED meteorites suite that are witnesses of a magmatic activity probably due to the presence of the radioactive isotope 26 Al which was present in significant amount to cause internal melting of primitive rocky bodies. The composition of a planetary surface can be quantified through the analysis of the gamma rays it produces. This is made possible for the Dawn spacecraft by the instrument GRaND and the scintillation of a BGO crystal. This thesis presents the analysis of gamma ray spectra from Vesta by two blind source separation methods: the independent component analysis and the non negative matrix factorization. These methods are also applied to an equivalent lunar dataset already well interpreted. Lunar synthetic spectra are used to test ICA and NMF. The separation of elementary spectra is delicate although K, Th and Fe can be discriminated due to the more favorable statistical properties of their source signals. The sensitivity of separation to the chemical variability is assessed based on artificial lunar spectra, which allows to explain the lack of separation of a clear elemental signal in the case of Vesta. Despite the observations of Dawn and the important collection of HED data, there is no consensus on the conditions of the vestan magmatism. A global magma ocean is often put forward, whereas the migration of the heat source, contained in the easiest mineral to melt, plagioclase, does not allow it. A model of melt migration is implemented, based on two-phase flow equations. This model is combined with the olivine-anorthite-quartz equilibrium phase diagram. This allows to predict the mineralogy as a function of depth and time. Results obtained show that eucrites and diogenites may be a common feature of large bodies accreted early in solar system history.
4

Proposition et simulation de modèles numériques de compréhension d'un patrimoine : le théâtre romain de Byblos au Liban

El-Khoury, Nada 09 June 2008 (has links) (PDF)
Notre thèse présente les résultats d'expériences effectuées à l'aide des nouvelles technologies de l'information et de la communication (TIC) dans un contexte de conception d'un projet d'aménagement d'un site où l'on doit intégrer une dimension patrimoniale. Les nouvelles technologies disponibles aujourd'hui offrent des caractéristiques qui ne limitent pas leur rôle à de simples outils de communication ou de représentation. En effet, de plus en plus de recherches sont axées sur l'intervention de l'outil informatique comme assistant dans un processus de conception. Il est possible, à l'aide de cet assistant, d'intégrer certains facteurs qui seront pris en compte lors de la création d'un espace architectural, en l'occurrence le patrimoine du lieu. Précédée par une recherche exploratoire, cette étude propose des modèles de compréhension d'un patrimoine, qui jouent le rôle d'aide à la conception en intégrant des thématiques liées au patrimoine. En fonction de ces thématiques, nous avons sélectionné un lieu propice aux expériences envisagées et dont l'avantage est d'offrir des informations sur le riche patrimoine du lieu pour en faciliter la compréhension. Il s'agit du site historique de Byblos au Liban. En considérant cette étude de cas, nous avons construit des modèles utilisant une méthode de simulation numérique. Nous avons ainsi réalisé des dispositifs numériques qui ont la particularité de pouvoir intégrer le patrimoine spécifique d'un lieu de manière à fournir des réponses aux exigences du concepteur d'un espace architectural qui souhaiterait en tenir compte. Les modèles numériques présentés ont un caractère dynamique, interactif et renouvelable avec une approche multidisciplinaire. Les expériences ont été effectuées et testées dans un espace de travail collaboratif et ont permis de répondre à la question de la recherche : Comment à l'aide des TIC, est-il possible de prendre en compte un patrimoine spécifique lors d'un processus de conception ? Notre démarche nous a permis de vérifier l'hypothèse de recherche qui consiste à dire qu'il est possible de simuler des modèles numériques de compréhension d'un patrimoine, des modèles susceptibles d'aider le concepteur d'un espace à prendre en compte le patrimoine spécifique du lieu dans le processus de conception. Les résultats obtenus montrent que les TIC peuvent être mises à contribution pour améliorer la conception d'un espace architectural en fonction de son caractère patrimonial. Ils pourront servir de base pour une mise en application ultérieure à la conception d'espaces en fonction du caractère patrimonial d'un lieu. Comme apport à la connaissance, cette recherche contribue, non seulement à la mise au point de modèles numériques de compréhension capables d'aider un concepteur dans sa tâche d'aménagement d'un espace, en intégrant une dimension patrimoniale, mais elle contribue aussi à ouvrir des voies de développement vers de nouveaux outils d'aide à la conception liés aux TIC, et à créer des lieux d'échange de connaissances dans une approche multidisciplinaire. Parmi les retombées, cette recherche ouvre la voie au développement d'outils de sensibilisation au patrimoine et favorise son enseignement. En s'appuyant sur les dernières évolutions du Web vers le Web 2.0 et des nouvelles approches pour la gestion de contenus de site web, comme les wikis, cette recherche fournit les connaissances nécessaires à la création de nouveaux systèmes de gestion du patrimoine par la proposition d'espaces de travail collaboratifs à l'aide des technologies de l'information et de la communication.
5

Restitution du relief à partir d'images radar par radarclinométrie

PAQUERAULT, Sophie 06 April 1998 (has links) (PDF)
La disponibilité des images radar à ouverture synthétique ouvre la possibilité de cartographier des zones du globe difficilement accessibles, et généralement peu visibles par les systèmes satellitaires optiques du fait d'une couverture nuageuse souvent importante. C'est le cas des régions tropicales et équatoriales, régions du globe qui sont aussi très mal cartographiées. L'objectif de la thèse est de proposer un procéde de reconstruction à partir d'images radar donnant accès à des informations altimétriques des surfaces terrestres. Face au succès de deux grandes méthodes de reconstruction du relief, l'interférométrie et la radargrammetrie, nous exploitons en détails dans nos travaux une troisième méthode, la radarclinométrie. Son principal avantage est de permettre le calcul de données altimétriques à partir d'une seule et unique image SAR. Notre procédé de restitution développé comporte deux phases principales, une phase d'intégration suivie d'une phase dite corrective qui consiste en une restauration markovienne, permettant de vérifier la condition de continuité des surfaces du terrain. Les reliefs résultant de ce procédé sont ensuite largement évaluées qualitativement et quantitativement, par des moyens très divers fonction des données de référence utilisées. La dernière étape du travail porte sur la vérification de deux principales hypothèses, portant l'une sur le modèle de rétrodiffusion choisi et l'autre sur la connaissance de la radiométrie d'un sol de référence. Cette vérification donne alors lieu au développement de plusieurs méthodes d'estimation. La thèse a permis d'apporter des solutions originales pour le développement de la radarclinométrie. Elle permet d'obtenir, au prix de coûts humains et informatiques modestes, des reliefs de bonne qualité visuelle, sur des régions du globes, telles que la Guyane française, pour lesquelles les deux autres méthodes de restitution se soldent souvent par un échec.
6

De la caractérisation mécanique du comportement des matériaux à la modélisation biomécanique par éléments finis ; Applications à la simulation chirurgicale et au développement de dispositifs médicaux

Tillier, Yannick 02 May 2013 (has links) (PDF)
Cette HDR est l'occasion pour moi de présenter les travaux que je mène depuis plus de 10 ans dans le cadre du développement de l'activité en biomécanique au CEMEF. Ces travaux se structurent autour de deux axes : le comportement des tissus vivants et la modélisation numérique en biomécanique. Axe " caractérisation du comportement mécanique des matériaux vivants " Une partie de mon activité de recherche a consisté à mettre en place une méthodologie de caractérisation des matériaux, notamment biologiques. Concernant les tissus mous, mes collaborations étroites avec des praticiens hospitaliers m'ont permis de mettre au point un protocole de recueil de données au bloc opératoire et dans le service d'imagerie médicale. Ce protocole a nécessité la conception et la réalisation d'un dispositif expérimental d'indentation portable (" la pince Rhéobiol "), permettant l'acquisition de données au plus proche du bloc opératoire. Cet outil original - utilisé maintenant dans d'autres laboratoires de recherche - a permis de caractériser le comportement mécanique de plusieurs tissus, comme l'utérus, les trompes de Fallope et le placenta. Axe " développement de modèles numériques pour la biomécanique " La modélisation du comportement mécanique du corps humain recèle toutes les difficultés liées à la modélisation de structures complexes et hétérogènes. Je présenterai ici la démarche mise en œuvre, partant de modèles simplifiés monocorps, homogènes, élastiques linéaires, faiblement déformés, pour parvenir finalement à des modèles multicorps, hétérogènes, visco-hyperélastiques et soumis à de grandes déformations. Une attention toute particulière a été portée aux protocoles d'imagerie médicale dans le but de construire le plus fidèlement possible les modèles géométriques des organes et tissus étudiés. Les modèles éléments finis obtenus à l'issue de ces différents étapes ont été appliqués à de nombreuses problématiques biomédicales ou chirurgicales parmi lesquelles la modélisation d'une suite d'opérations chirurgicales en gynécologie et en ophtalmologie, l'aide à la conception de dispositifs médicaux (prothèses mammaires, implants dentaires) ou encore l'évaluation des conséquences d'une intervention en chirurgie maxillo-faciale. Outre une synthèse de mon parcours scientifique, de mes activités en termes d'enseignement et d'encadrement de formation à la recherche, cette soutenance d'Habilitation à Diriger les Recherches est l'occasion pour moi de passer en revue un certain nombre de résultats issus de travaux personnels, de collaborations avec d'autres chercheurs - tant du monde de la mécanique que du monde médical - et de travaux des étudiants que j'ai eu le plaisir d'encadrer et de former et qui ont largement contribué au succès de cette activité.
7

Interface de simulation située urbaine : conception et développement d’une solution sur tablette tactile

Duinat, Benoit 19 April 2018 (has links)
Dans un contexte de développement durable où les impacts sur les infrastructures doivent être fréquemment évalués, des procédures efficaces de contrôle et d’intervention sont requises. Bien que les solutions de réalité augmentée mobiles (RAM) présentent un fort potentiel pour améliorer l'efficacité d'intervention sur site par les professionnels, notamment dans le cas d’infrastructures souterraines, cette technologie n’est pas encore suffisamment mature pour permettre de telles applications. Reposant sur des principes similaires à la RAM, la simulation située propose une représentation virtuelle 3D congruente avec la réalité. L’immersion y est moins importante mais les interactions avec l’environnement 3D plus nombreuses. Le présent travail de recherche porte sur la conception et le développement d’une application de simulation située. Il aborde notamment les défis relatifs à la modélisation 3D d’environnement et à l’intégration de données géospatiales dans des moteurs de jeux vidéo. / In a context of sustainable development in which impacts on infrastructure should be assessed frequently, effective procedures for monitoring and intervention are required. Although mobile augmented reality (MAR) solutions have a great potential to improve the on-site efficiency for professionals, particularly in the case of underground infrastructures, this technology is not yet mature enough to allow such applications. Based on principles similar to MAR, situated simulation offers a virtual 3D representation congruent with reality. In situated simulation, the immersion is less important, but there are more interactions possible with 3D environment. This work focuses on the design and development of a situated simulation application. It tackles the particular challenges related to 3D modeling of the environment and integration of geospatial data in video game engines.
8

Forest inventory with a lidar-equipped robot for difficult environments

Tremblay, Jean-François 20 December 2019 (has links)
La foresterie est une industrie majeure dans plusieurs parties du monde. Elle dépend de l’inventaire forestier, qui consiste en la mesure des attributs des arbres. Dans ce mémoire, nous proposons l’utilisation de la cartographie 3D, basée sur l’algorithme itervative closest point, pour automatiquement mesurer des diamètres d’arbres à partir d’observations d’un robot mobile. Bien que des études précédentes démontraient le potentiel d’une telle technologie, elles présentaient des lacunes en terme de rigueur d’analyse et ne fonctionnaient pas dans des environnements forestiers difficiles. Nous avons validé plusieurs méthodes pour l’estimation de diamètre, dont deux nouvelles, avec un jeu de données nouveau et varié comportant quatre sites forestiers, 11 trajectoires de robot totalisant 1458 observations d’arbre et 1.4 hectares de forêt. De plus, nous faisons des recommendations sur le déploiement de robots mobiles dans un contexte forestier. Nous concluons que notre méthode de cartographie est utilisable dans le contexte de l’inventaire forestier automatisé, avec notre meilleure méthode donnant une erreur quadratique de 3:45 cm pour notre jeu de données en entier et 2:04 cm dans des conditions idéales, c’est-à-dire une forêt mature et espacée. / Forestry is a major industry in many parts of the world. It relies on forest inventory, which consists of measuring tree attributes. In this thesis, we propose the use of 3D mapping, based on the iterative closest point algorithm, to automatically measure tree diameters in forests from mobile robot observations. While previous studies showed the potential for such technology, they lacked a rigorous analysis of diameter estimation methods in challenging forest environments. Here, we validated multiple diameter estimation methods, including two novel ones, in a new varied dataset of four different forest sites, 11 trajectories, totalling 1458 tree observations and 1.4 hectares. We provide recommendations for the deployment of mobile robots in a forestry context. We conclude that our mapping method is usable in the context of automated forest inventory, with our best method yielding a root mean square error of 3:45 cm for our whole dataset, and 2:04 cm in ideal conditions consisting of mature forest with well spaced trees.
9

Analysis of error functions for the iterative closest point algorithm

Babin, Philippe 06 February 2020 (has links)
Dans les dernières années, beaucoup de progrès a été fait dans le domaine des voitures autonomes. Plusieurs grandes compagnies travaillent à créer un véhicule robuste et sûr. Pour réaliser cette tâche, ces voitures utilisent un lidar pour la localisation et pour la cartographie. Iterative Closest Point (ICP)est un algorithme de recalage de points utilisé pour la cartographie basé sur les lidars. Ce mémoire explore des approches pour améliorer le minimisateur d’erreur d’ICP. La première approche est une analyse en profondeur des filtres à données aberrantes. Quatorze des filtres les plus communs (incluant les M-estimateurs) ont été testés dans différents types d’environnement, pour un total de plus de 2 millions de recalages. Les résultats expérimentaux montrent que la plupart des filtres ont des performances similaires, s’ils sont correctement paramétrés. Néanmoins, les filtres comme Var.Trim., Cauchy et Cauchy MAD sont plus stables à travers tous les types environnements testés. La deuxième approche explore les possibilités de la cartographie à grande échelle à l’aide de lidar dans la forêt boréale. La cartographie avec un lidar est souvent basée sur des techniques de Simultaneous Localization and Mapping (SLAM) utilisant un graphe de poses, celui-ci fusionne ensemble ICP, les positions Global Navigation Satellite System (GNSS) et les mesures de l’Inertial Measurement Unit (IMU). Nous proposons une approche alternative qui fusionne ses capteurs directement dans l’étape de minimisation d’ICP. Nous avons réussi à créer une carte ayant 4.1 km de tracés de motoneige et de chemins étroits. Cette carte est localement et globalement cohérente. / In recent years a lot of progress has been made in the development of self-driving cars. Multiple big companies are working on creating a safe and robust autonomous vehicle . To make this task possible, theses vehicles rely on lidar sensors for localization and mapping. Iterative Closest Point (ICP) is a registration algorithm used in lidar-based mapping. This thesis explored approaches to improve the error minimization of ICP. The first approach is an in-depth analysis of outlier filters. Fourteen of the most common outlier filters (such as M-estimators) have been tested in different types of environments, for a total of more than two million registrations. The experimental results show that most outlier filters have a similar performance if they are correctly tuned. Nonetheless, filters such as Var.Trim., Cauchy, and Cauchy MAD are more stable against different environment types. The second approach explores the possibilities of large-scale lidar mapping in a boreal forest. Lidar mapping is often based on the SLAM technique relying on pose graph optimization, which fuses the ICP algorithm, GNSS positioning, and IMU measurements. To handle those sensors directly within theICP minimization process, we propose an alternative technique of embedding external constraints. We manage to create a crisp and globally consistent map of 4.1 km of snowmobile trails and narrow walkable trails. These two approaches show how ICP can be improved through the modification of a single step of the ICP’s pipeline.
10

The accuracy and reliability of plaster vs digital study models : a comparison of three different impression materials

Lands, Bradley 04 1900 (has links)
Introduction: Le but de l’étude était d’examiner l’effet des matériaux à empreintes sur la précision et la fiabilité des modèles d’études numériques. Méthodes: Vingt-cinq paires de modèles en plâtre ont été choisies au hasard parmi les dossiers de la clinique d’orthodontie de l’Université de Montréal. Une empreinte en alginate (Kromopan 100), une empreinte en substitut d’alginate (Alginot), et une empreinte en PVS (Aquasil) ont été prises de chaque arcade pour tous les patients. Les empreintes ont été envoyées chez Orthobyte pour la coulée des modèles en plâtre et la numérisation des modèles numériques. Les analyses de Bolton 6 et 12, leurs mesures constituantes, le surplomb vertical (overbite), le surplomb horizontal (overjet) et la longueur d’arcade ont été utilisés pour comparaisons. Résultats : La corrélation entre mesures répétées était de bonne à excellente pour les modèles en plâtre et pour les modèles numériques. La tendance voulait que les mesures répétées sur les modèles en plâtre furent plus fiables. Il existait des différences statistiquement significatives pour l’analyse de Bolton 12, pour la longueur d’arcade mandibulaire, et pour le chevauchement mandibulaire, ce pour tous les matériaux à empreintes. La tendance observée fut que les mesures sur les modèles en plâtre étaient plus petites pour l’analyse de Bolton 12 mais plus grandes pour la longueur d’arcade et pour le chevauchement mandibulaire. Malgré les différences statistiquement significatives trouvées, ces différences n’avaient aucune signification clinique. Conclusions : La précision et la fiabilité du logiciel pour l’analyse complète des modèles numériques sont cliniquement acceptables quand on les compare avec les résultats de l’analyse traditionnelle sur modèles en plâtre. / Introduction: The purpose of this study was to examine the effects of different impression materials on the accuracy and reliability of digital models. Methods: Models from 25 patients selected at random from the files of the Department of Orthodontics at the University of Montreal were used in this study. One alginate (Kromopan 100 alginate, Italy), 1 alginate alternative (Alginot, Kerr Dentistry, Orange, CA), and 1 PVS (Aquasil, Dentsply Caulk, Milford, DE) impression was taken of both arches of each patient and sent to Orthobyte (Othobyte Digital Technology inc., Calgary, AB) for fabrication of a plaster model and scanning for production of a digital model. The Bolton 6 and 12 analyses and their constituent measurements, overbite, overjet, and arch length were used for the comparison. Results: The repeatability of measurements using both the plaster and digital methods was good to excellent, with the plaster measurements tending to be more reliable. There were statistically significant differences in the Bolton 12 and mandibular arch length and spacing measurements for all impression materials, with the plaster models tending to give a smaller measurement for the Bolton 12 and a higher measurement for the mandibular arch length and spacing. Although statistically significant differences in some measurements were found for the reliability and validity of digital models, none was clinically significant. Conclusions: The accuracy and reliability of the software for comprehensive cast analysis is clinically acceptable and reproducible when compared with traditional plaster study model analysis.

Page generated in 0.3001 seconds