• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 8
  • 1
  • Tagged with
  • 26
  • 26
  • 12
  • 10
  • 9
  • 7
  • 7
  • 7
  • 6
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Map making from transit interferometers observations for 21cm Intensity Mapping experiments : Application to Tianlai and PAON-4 / Reconstruction de cartes à partir des observations d'interféromètres radio en mode transit pour les expériences de cartographie d'intensité à 21 cm : application à Tianlai et PAON-4

Zhang, Jiao 26 June 2017 (has links)
L'analyse des propriétés statistiques de la distribution de la matière dans le cosmos (Grandes Structures, LSS or Large Scale Structure) est l'une des principales sondes cosmologiques qui permettent l'étude du modèle standard cosmologique, en particulier les paramètres caractérisant la matière noire et l'énergie noire. Les Oscillations Acoustiques Baryoniques (BAO's) sont l'une des mesures qui peuvent être extraites de l'étude de la distribution de matière à grande échelle (LSS).L'observation de la distribution cosmique de la matière à partir de l'émission à 21 cm de l'hydrogène atomique neutre (HI) est une nouvelle méthode, complémentaire des relevés optiques pour cartographier la distribution de la matière dans le cosmos. La méthode de cartographie d'intensité (Intensity Mapping) a été proposée depuis moins d'une dizaine d'années comme une méthode efficace pour cartographier en trois dimensions l'émission radio à 21 cm. Elle n'implique en particulier pas la détection des objets individuels (galaxies), et peut donc être effectué avec des instruments plus modestes en taille que ceux comme SKA ou FAST qui sont conçus pour détecter les galaxies à 21 cm à des distances cosmologiques. Des interféromètres radio utilisant un ensemble de réflecteurs cylindriques ou paraboliques fixes, observant le ciel en mode transit sont adaptés à la cartographie d'intensité. Le mode d'observation spécifique de ce type de radio télescope en cartographie d'intensité est étudié dans le cadre de ce travail de thèse. On montre en particulier qu'une méthode spécifique de reconstruction des cartes du ciel à partir des visibilités peut être appliquée aux observations de ces interféromètres fonctionnant en mode transit. Cette méthode correspond à la décomposition en modes m des harmoniques sphériques et est très performante pour la reconstruction de grandes zones du ciel observées en mode transit. Un code de reconstruction fondé sur ce principe a été développé, ainsi que différents critères de comparaison des performances instrumentales, comme le lobe d'antenne synthétisé, le spectre de bruit sur les cartes reconstruites et la réponse globale de l'instrument dans le plan (l,m) des harmoniques sphériques. La méthode a été appliquée à différentes configurations des interféromètres composés de réflecteurs paraboliques ou cylindriques dans le cadre des projets PAON-4 et Tianlai. Outre l'optimisation des configurations des interféromètres Tianlai et PAON-4, le travail présenté inclut une première application de la méthode aux données PAON-4. / The analysis of the statistical properties of the distribution of matter in the cosmos (LSS or Large Scale Structure) is one of the main cosmological probes that allow the study of the cosmological standard model, in particular the parameters characterizing dark matter and dark energy. Baryonic Acoustic Oscillations (BAO's) are one of the measurements that can be extracted from the study of matter distribution in large-scale structure (LSS).The observation of the cosmic distribution of the matter from neutral atomic hydrogen (HI) 21 cm emission is a new method, complementary to the optical observation to map the distribution of matter in the cosmos. In the last decade, the Intensity Mapping method has been proposed as an effective method for mapping the 21cm radio emission in three dimensions. In particular, it does not require the detection of individual objects (galaxies), and can therefore be performed with instruments smaller in size than those such as SKA or FAST, which are designed to detect 21 cm galaxies at cosmological distances. A radio interferometer using a set of fixed cylindrical or parabolic reflectors observing the sky in transit mode are suitable instruments for intensity mapping surveys. The specific observational mode from this type of radio telescope by intensity mapping is studied in the context of this thesis. We show in particular that a specific sky maps reconstruction method from the visibilities can be applied to the observations of these interferometers operating in transit mode. This method corresponds to the m-modes decomposition of the spherical harmonics and is very efficient for the reconstruction of large sky areas observed in transit mode. A reconstruction code based on this principle has been developed, as well as different criteria for the comparison of instrumental performances, such as the synthesized antenna lobe, the noise spectrum of the reconstructed maps and the overall instrument response in the spherical harmonics (l,m) plane. The method has then been applied to different configurations of interferometers composed of parabolic or cylindrical reflectors in the PAON-4 and Tianlai projects. In addition to optimizing the Tianlai and PAON-4 interferometer configurations, the work presented here includes a first application of the method to the PAON-4 data.
22

Efficient frequency-space methods for light transport caching

Dubouchet, Renaud Adrien 04 1900 (has links)
Le transport de la lumière permet de simuler physiquement le movement de photons dans un environnement virtuel. En rendu d’images, la lumière se propage une dernière fois vers un capteur virtuel la transformant en une image, affichée pour un observateur. Durant ce voyage la lumière peut être analysée fréquentiellement pour comprendre ses variations spatiales et angulaires afin d’accélerer le rendu. La génération d’images réalistes a subit de grandes avancées au cours des dernières années, réduisant l’écart entre simulation et réalité. Cependant les contraintes en terme de performance et de mémoire empêchent toujours aux applications interactives et en temps-réel de bénéficier des effets de rendu les plus complexes. Pour cela, les moteurs de rendu professionels modernes dépendent toujours de méthodes de pré-calculation de données et de procédures asynchrones de traitement. Cette thèse par article présente deux projets traitant du transport de la lumière à travers une perspective fréquentielle dans le contexte d’applications interactives et en temps-réel. Nous proposons premièrement une méthode pour réutiliser efficacement le calcul préalable de chemins de lumière par méthode Monte Carlo pour des séquences animées. Nous prenons avantage de l’analyse fréquentielle du transport de la lumière réalisée dans des travaux antérieurs, étendue ici à l’échantillonement et reconstruction spatial, angulaire et temporel. Notre seconde méthode pré-calcule le transport de la lumière à travers les volumes participatifs jusqu’aux surfaces, que nous encodons comme réponse impulsive. Cet opérateur compacte et efficace nous permet d’accélerer le transport à travers des volumes jusqu’aux surfaces dans le contexte de diffusion multiple dans des conditions arbitraires de média participatifs. / Light transport is the method of physically simulating the movement of photons in an environment. Applied to rendering, light travels one last time to a virtual sensor that captures it as an image displayed to an observer. As it travels, light is analysable frequentially to understand how it varies spatially and angularly to accelerate rendering. Recent advances in physically-based realistic rendering have been closing the gap between reality and simulation but the memory and performance costs still preclude the inclusion of the more computationally expensive effects in interactive and real-time applications. Because of this, modern production renderers rely on the ahead-of-time precomputation of data for efficient reuse in the form of offline computational processes and asynchronously distributed procedures. This thesis by publication investigates with two papers the simulation of light transport from a frequency-based perspective for interactive and precomputed real-time applications. We first propose a method for efficiently reusing light path computations over time in interactive Monte Carlo path-traced animation sequences. We leverage to this end the frequency analysis of light transport introduced in previous works, extended to spatial, angular and temporal sampling and reconstruction. Our second method investigates the precomputation of participating volume-to-surface light transport as impulse responses, a compact and efficient frequency-based transport operator. In turn, these operators accelerate by orders of magnitude the computation of multi-scattered volume-to-surface transport in arbitrary, potentially heterogeneous media conditions.
23

Modélisation et simulation du remplissage de moules verriers : "Prise en compte du transfert radiatif" / Modeling and simulation of glass mould filling taking into account radiative transfer

Nguyen, Hoang Quan 02 October 2009 (has links)
L’objet de ce travail est de proposer un modèle adapté pour la simulation du remplissage de moules qui réponde au meilleur compromis entre temps de calcul et précision des résultats. La difficulté est double. Il faut prendre en compte le phénomène de remplissage qui est un problème complexe à frontières libres et les spécificités liées au Verre : viscosité fortement thermodépendante et température de fusion élevée qui nécessite de prendre en compte le rayonnement. Le Chapitre I est consacrée à la partie écoulement du Verre liquide. La bibliothèque numérique Aquilon/Thétis, adaptée pour traiter ce type de problèmes et les couplages thermique air/verre/parois, a été utilisée (Méthode V.O.F pour le suivi de l’interface, méthodes de type Lagrangien augmenté/Projection vectorielle pour le couplage Vitesse-Pression). Pour l’aspect radiatif, différentes approches sont proposées : conductivité radiative équivalente (Chapitre II), méthode explicite directe pour la validation (Chapitre III) et méthode d’harmoniques sphériques ou méthode PN (Chapitre IV). Dans le Chapitre V, la méthode PN retenue est validée dans des cas simples et est appliquée ensuite à des cas avec couplage convectif en géométries complexes et obstacles semi-transparents (1D, 2D et 3D, 2D axi-symétrique et milieu non gris). Une version P1 modifiée est présentée. Les résultats sont assez proches de ceux donnés par la méthode P3 avec des temps de calcul modestes. L’intérêt de ce modèle est qu’il est facilement intégrable dans des codes numériques existants : une seule équation différentielle du second ordre stationnaire à résoudre en 3D / The aim of this study is to propose an adapted model for the simulation of mould filling that must be a compromise solution between computational time and results accuracy. The double difficulty is to take into account the filling phenomenon that is a complex problem due to the presence of free boundaries and to the Glass specificities: viscosity that is highly thermal dependant and high melting temperature that requires taking into account radiation effects. Chapter I is devoted to the melting Glass flow. The numerical libraries Aquilon/Thétis, adapted for solving such type of problems and the thermal coupling between Air/Glass/Walls, has been used. (V.O.F method for front tracking, Augmented Lagrangian/Vector Projection methods for solving Pressure/Velocity coupling). For radiative aspect, different approaches are proposed: equivalent radiative conductivity (Chapter II), direct explicit method for validation (Chapter III) and spherical harmonics method or PN method (Chapter IV). In the Chapter V, the selected PN method is validated through simple cases and is then applied in other cases with convective coupling in complex geometries including semi-transparent inclusions (1D, 2D and 3D, 2D axi-symmetric and non grey medium). A P1 modified version is presented. The results are close to those given by P3 method but with reduced computational time. The main interest of this model is that it can be easily implemented in existing numerical codes: a single stationary second order partial differential equation to solve in 3D
24

Évolution Temporelle et Spatiale du Système d'Interaction entre le point chaud de Tristan da Cunha et la Dorsale de l'Atlantique Sud.

Machado Pessanha, Ivo Bruno 21 November 2011 (has links) (PDF)
Dans ce travail nous avons abordé l'évolution spatiale et temporelle du système d'interaction entre le point chaud de Tristan da Cunha et la dorsale de l'Atlantique Sud. Le point chaud de Tristan da Cunha et les structures associées du fond océanique (à savoir la chaîne volcanique de Walvis dans la plaque africaine et l'élévation du Rio Grande dans la plaque sud-américaine) sont parmi les plus importantes de l'océan l'Atlantique Sud. Cependant, ce système est moins étudié que les systèmes présents dans l'Atlantique Nord (par exemple Açores et Islande), et leur origine et évolution restent sujets à débat. La compilation des données de sondage bathymétrique hébergées auprès du Centre National de Données Géophysique (National Geophysical Data Center - NGDC), et les données de bathymétrie dérivées de l'altimétrie de satellites furent utilisées pour l'élaboration d'un modèle numérique de terrain (MNT) de l'ensemble de l'Atlantique Sud. Les données d'anomalie à l'air libre dérivées de l'altimétrie de satellites et les données d'épaisseurs sédimentaires furent utilisées pour le calcul de l'anomalie de Bouguer réduite au manteau (Mantle Bouguer Anomaly - MBA) et avec les données des isochrones du fond océanique furent calculées l'anomalie résiduelle de Bouguer réduite au manteau (Residual Mantle Bouguer Anomaly - RMBA), la bathymétrie résiduelle et des nouveaux pôles du mouvement relatif entre les plaques de l'Amérique du Sud et Afrique. Les données de géoïde dérivées de l'altimétrie de satellites et le Modèle Gravitationnel de la Terre (Earth Gravitational Model - EGM2008) furent utilisés pour la séparation des différentes composantes dans le signal du géoïde, grâce à des filtres retenant différents ordres et degrés d'harmoniques sphériques. À partir des reconstructions cinématiques basées sur les nouveaux pôles calculés dans ce travail, et en se basant surl'hypothèse communément admise que l'île volcanique de Tristan da Cunha se situe à l'aplomb dela position actuelle du point chaud, la chronologie des phases de mise en place des structures volcaniques a pu être précisée. Ceci a mis en évidence l'existence de plusieurs sauts d'axes et des variations périodiques de l'apport magmatique à l'axe entrainant une alternance entre périodes de construction et de rupture du plateau axial. La comparaison détaillée de la position estimée pour le point chaud de Tristan da Cunha et de la localisation des structures volcaniques de la chaine Walvis dont les âges sont connus a souligné que la formation de la chaîne Walvis ne peut pas être expliquée dans sa totalité par un modèle d'évolution faisant appel à une interaction entre la dorsale de l'Atlantique Sud et un point chaud dont la position actuelle serait l'île de Tristan da Cunha. Ensuite, nous avons évalué l'évolution temporelle de l'influence du point chaud à l'axe de la dorsale, sur aux variations de la bathymétrie résiduelle (BR) et de l'anomalie résiduelle de Bouguer réduite au manteau (RMBA), et avec l'analyse des variations du taux d'ouverture et de la distance point chaud-dorsale. Les valeurs des anomalies de RMBA et BR, lors des premières étapes d'ouverture de l'Atlantique Sud, sont plus fortes sur la plaque africaine que sur la plaque sud-américaine. Cela suggère que la position du point chaud a été sous la plaque africaine depuis le début de l'ouverture. En synthèse, on observe trois différentes périodes dans le système d'interaction entre le point chaud de Tristan da Cunha et la dorsale de l'Atlantique Sud. Une période de rapprochement de la dorsale vers le point chaud entre 115 Ma et 100 Ma, lors de laquelle on remarque l'influence du point chaud sur la dorsale sur une distance d'au moins 150 km. Ensuite, entre 95 Ma et 60 Ma, on observe que la dorsale est à l'aplomb ou très proche (< 50 km) du point chaud. Et depuis 60 Ma, un éloignement graduel et progressif de la dorsale par rapport à la position du point chaud est observé. On a pu montrer que lors des périodes de rapprochement et de proximité de la dorsale au point chaud, les variations périodiques d'apport magmatique observées sont liées aux variations du flux de panache. A partir de l'analyse de l'évolution des structures volcaniques, en association avec les données d'anomalie à l'air libre et de géochimie, les structures volcaniques ont pu être divisées en deux groupes. Un groupe formé par la bordure nord-ouest de la chaîne Walvis et appelé première phase, cohérent avec l'évolution des structures dans un contexte de transition d'une mise en place à l'axe vers une situation intraplaque, en accord avec les trois étapes (rapprochement, fixation à l'aplomb et éloignement) décrites ci-dessus. L'autre groupe, formé par la bordure sud-est de la chaîne Walvis et appelé deuxième phase, montre une signature gravimétrique caractéristique d'une mise en place intraplaque, y compris pour les structures à l'âge desquelles la dorsale est à l'aplomb du point chaud. Les deux groupes possèdent signatures géochimiques différentes en termes de rapports Zr/Nb et d'abondance en Ti. Ensuite, à partir de l'analyse comparative des différents degrés d'harmoniques sphériques du géoïde et des nouveaux résultats de tomographie sismique disponibles dans la littérature, nous avons pu montrer l'existence d'une association en profondeur entre les panaches responsables des structures volcaniques de l'élévation du Rio Grande et de la chaîne Walvis et le superpanache africain. L'identification de trois anomalies mantéliques proches des îles de Gough et RSA semblent en faire une meilleure alternative d'emplacement que l'île de Tristan da Cunha, qui est l'hypothèse communément acceptée aujourd'hui.
25

Contributions aux méthodes de détection visuelle de fermeture de boucle et de segmentation topologique de l'environnement.

Alexandre, Chapoulie 10 December 2012 (has links) (PDF)
Dans le contexte de la localisation globale et, plus largement, dans celui de la Localisation et Cartographie Simultanées, il est nécessaire de pouvoir déterminer si un robot revient dans un endroit déjà visité. Il s'agit du problème de la détection de fermeture de boucle. Dans un cadre de reconnaissance visuelle des lieux, les algorithmes existants permettent une détection en temps-réel, une robustesse face à l'aliasing perceptuel ou encore face à la présence d'objets dynamiques. Ces algorithmes sont souvent sensibles à l'orientation du robot rendant impossible la fermeture de boucle à partir d'un point de vue différent. Pour palier ce problème, des caméras panoramiques ou omnidirectionnelles sont employées. Nous présentons ici une méthode plus générale de représentation de l'environnement sous forme d'une vue sphérique ego-centrée. En utilisant les propriétés de cette représentation, nous proposons une méthode de détection de fermeture de boucle satisfaisant, en plus des autres propriétés, une indépendance à l'orientation du robot. Le modèle de l'environnement est souvent un ensemble d'images prises à des instants différents, chaque image représentant un lieu. Afin de grouper ces images en lieux significatifs de l'environnement, des lieux topologiques, les méthodes existantes emploient une notion de covisibilité de l'information entre les lieux. Notre approche repose sur l'exploitation de la structure de l'environnement. Nous définissons ainsi un lieu topologique comme ayant une structure qui ne varie pas, la variation engendrant le changement de lieu. Les variations de structure sont détectées à l'aide d'un algorithme efficace de détection de rupture de modèle.
26

Analysis of the human corneal shape with machine learning

Bouazizi, Hala 01 1900 (has links)
Cette thèse cherche à examiner les conditions optimales dans lesquelles les surfaces cornéennes antérieures peuvent être efficacement pré-traitées, classifiées et prédites en utilisant des techniques de modélisation géométriques (MG) et d’apprentissage automatiques (AU). La première étude (Chapitre 2) examine les conditions dans lesquelles la modélisation géométrique peut être utilisée pour réduire la dimensionnalité des données utilisées dans un projet d’apprentissage automatique. Quatre modèles géométriques ont été testés pour leur précision et leur rapidité de traitement : deux modèles polynomiaux (P) – polynômes de Zernike (PZ) et harmoniques sphériques (PHS) – et deux modèles de fonctions rationnelles (R) : fonctions rationnelles de Zernike (RZ) et fonctions rationnelles d’harmoniques sphériques (RSH). Il est connu que les modèles PHS et RZ sont plus précis que les modèles PZ pour un même nombre de coefficients (J), mais on ignore si les modèles PHS performent mieux que les modèles RZ, et si, de manière plus générale, les modèles SH sont plus précis que les modèles R, ou l’inverse. Et prenant en compte leur temps de traitement, est-ce que les modèles les plus précis demeurent les plus avantageux? Considérant des valeurs de J (nombre de coefficients du modèle) relativement basses pour respecter les contraintes de dimensionnalité propres aux taches d’apprentissage automatique, nous avons établi que les modèles HS (PHS et RHS) étaient tous deux plus précis que les modèles Z correspondants (PZ et RR), et que l’avantage de précision conféré par les modèles HS était plus important que celui octroyé par les modèles R. Par ailleurs, les courbes de temps de traitement en fonction de J démontrent qu’alors que les modèles P sont traités en temps quasi-linéaires, les modèles R le sont en temps polynomiaux. Ainsi, le modèle SHR est le plus précis, mais aussi le plus lent (un problème qui peut en partie être remédié en appliquant une procédure de pré-optimisation). Le modèle ZP était de loin le plus rapide, et il demeure une option intéressante pour le développement de projets. SHP constitue le meilleur compromis entre la précision et la rapidité. La classification des cornées selon des paramètres cliniques a une longue tradition, mais la visualisation des effets moyens de ces paramètres sur la forme de la cornée par des cartes topographiques est plus récente. Dans la seconde étude (Chapitre 3), nous avons construit un atlas de cartes d’élévations moyennes pour différentes variables cliniques qui pourrait s’avérer utile pour l’évaluation et l’interprétation des données d’entrée (bases de données) et de sortie (prédictions, clusters, etc.) dans des tâches d’apprentissage automatique, entre autres. Une base de données constituée de plusieurs milliers de surfaces cornéennes antérieures normales enregistrées sous forme de matrices d’élévation de 101 by 101 points a d’abord été traitée par modélisation géométrique pour réduire sa dimensionnalité à un nombre de coefficients optimal dans une optique d’apprentissage automatique. Les surfaces ainsi modélisées ont été regroupées en fonction de variables cliniques de forme, de réfraction et de démographie. Puis, pour chaque groupe de chaque variable clinique, une surface moyenne a été calculée et représentée sous forme de carte d’élévations faisant référence à sa SMA (sphère la mieux ajustée). Après avoir validé la conformité de la base de donnée avec la littérature par des tests statistiques (ANOVA), l’atlas a été vérifié cliniquement en examinant si les transformations de formes cornéennes présentées dans les cartes pour chaque variable étaient conformes à la littérature. C’était le cas. Les applications possibles d’un tel atlas sont discutées. La troisième étude (Chapitre 4) traite de la classification non-supervisée (clustering) de surfaces cornéennes antérieures normales. Le clustering cornéen un domaine récent en ophtalmologie. La plupart des études font appel aux techniques d’extraction des caractéristiques pour réduire la dimensionnalité de la base de données cornéennes. Le but est généralement d’automatiser le processus de diagnostique cornéen, en particulier en ce qui a trait à la distinction entre les cornées normales et les cornées irrégulières (kératocones, Fuch, etc.), et dans certains cas, de distinguer différentes sous-classes de cornées irrégulières. L’étude de clustering proposée ici se concentre plutôt sur les cornées normales afin de mettre en relief leurs regroupements naturels. Elle a recours à la modélisation géométrique pour réduire la dimensionnalité de la base de données, utilisant des polynômes de Zernike, connus pour leur interprétativité transparente (chaque terme polynomial est associé à une caractéristique cornéenne particulière) et leur bonne précision pour les cornées normales. Des méthodes de différents types ont été testées lors de prétests (méthodes de clustering dur (hard) ou souple (soft), linéaires or non-linéaires. Ces méthodes ont été testées sur des surfaces modélisées naturelles (non-normalisées) ou normalisées avec ou sans traitement d’extraction de traits, à l’aide de différents outils d’évaluation (scores de séparabilité et d’homogénéité, représentations par cluster des coefficients de modélisation et des surfaces modélisées, comparaisons statistiques des clusters sur différents paramètres cliniques). Les résultats obtenus par la meilleure méthode identifiée, k-means sans extraction de traits, montrent que les clusters produits à partir de surfaces cornéennes naturelles se distinguent essentiellement en fonction de la courbure de la cornée, alors que ceux produits à partir de surfaces normalisées se distinguent en fonction de l’axe cornéen. La dernière étude présentée dans cette thèse (Chapitre 5) explore différentes techniques d’apprentissage automatique pour prédire la forme de la cornée à partir de données cliniques. La base de données cornéennes a d’abord été traitée par modélisation géométrique (polynômes de Zernike) pour réduire sa dimensionnalité à de courts vecteurs de 12 à 20 coefficients, une fourchette de valeurs potentiellement optimales pour effectuer de bonnes prédictions selon des prétests. Différentes méthodes de régression non-linéaires, tirées de la bibliothèque scikit-learn, ont été testées, incluant gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, et multi-layer perceptron. Les prédicteurs proviennent des variables cliniques disponibles dans la base de données, incluant des variables géométriques (diamètre horizontal de la cornée, profondeur de la chambre cornéenne, côté de l’œil), des variables de réfraction (cylindre, sphère et axe) et des variables démographiques (âge, genre). Un test de régression a été effectué pour chaque modèle de régression, défini comme la sélection d’une des 256 combinaisons possibles de variables cliniques (les prédicteurs), d’une méthode de régression, et d’un vecteur de coefficients de Zernike d’une certaine taille (entre 12 et 20 coefficients, les cibles). Tous les modèles de régression testés ont été évalués à l’aide de score de RMSE établissant la distance entre les surfaces cornéennes prédites (les prédictions) et vraies (les topographies corn¬éennes brutes). Les meilleurs d’entre eux ont été validés sur l’ensemble de données randomisé 20 fois pour déterminer avec plus de précision lequel d’entre eux est le plus performant. Il s’agit de gradient boosting utilisant toutes les variables cliniques comme prédicteurs et 16 coefficients de Zernike comme cibles. Les prédictions de ce modèle ont été évaluées qualitativement à l’aide d’un atlas de cartes d’élévations moyennes élaborées à partir des variables cliniques ayant servi de prédicteurs, qui permet de visualiser les transformations moyennes d’en groupe à l’autre pour chaque variables. Cet atlas a permis d’établir que les cornées prédites moyennes sont remarquablement similaires aux vraies cornées moyennes pour toutes les variables cliniques à l’étude. / This thesis aims to investigate the best conditions in which the anterior corneal surface of normal corneas can be preprocessed, classified and predicted using geometric modeling (GM) and machine learning (ML) techniques. The focus is on the anterior corneal surface, which is the main responsible of the refractive power of the cornea. Dealing with preprocessing, the first study (Chapter 2) examines the conditions in which GM can best be applied to reduce the dimensionality of a dataset of corneal surfaces to be used in ML projects. Four types of geometric models of corneal shape were tested regarding their accuracy and processing time: two polynomial (P) models – Zernike polynomial (ZP) and spherical harmonic polynomial (SHP) models – and two corresponding rational function (R) models – Zernike rational function (ZR) and spherical harmonic rational function (SHR) models. SHP and ZR are both known to be more accurate than ZP as corneal shape models for the same number of coefficients, but which type of model is the most accurate between SHP and ZR? And is an SHR model, which is both an SH model and an R model, even more accurate? Also, does modeling accuracy comes at the cost of the processing time, an important issue for testing large datasets as required in ML projects? Focusing on low J values (number of model coefficients) to address these issues in consideration of dimensionality constraints that apply in ML tasks, it was found, based on a number of evaluation tools, that SH models were both more accurate than their Z counterparts, that R models were both more accurate than their P counterparts and that the SH advantage was more important than the R advantage. Processing time curves as a function of J showed that P models were processed in quasilinear time, R models in polynomial time, and that Z models were fastest than SH models. Therefore, while SHR was the most accurate geometric model, it was the slowest (a problem that can partly be remedied by applying a preoptimization procedure). ZP was the fastest model, and with normal corneas, it remains an interesting option for testing and development, especially for clustering tasks due to its transparent interpretability. The best compromise between accuracy and speed for ML preprocessing is SHP. The classification of corneal shapes with clinical parameters has a long tradition, but the visualization of their effects on the corneal shape with group maps (average elevation maps, standard deviation maps, average difference maps, etc.) is relatively recent. In the second study (Chapter 3), we constructed an atlas of average elevation maps for different clinical variables (including geometric, refraction and demographic variables) that can be instrumental in the evaluation of ML task inputs (datasets) and outputs (predictions, clusters, etc.). A large dataset of normal adult anterior corneal surface topographies recorded in the form of 101×101 elevation matrices was first preprocessed by geometric modeling to reduce the dimensionality of the dataset to a small number of Zernike coefficients found to be optimal for ML tasks. The modeled corneal surfaces of the dataset were then grouped in accordance with the clinical variables available in the dataset transformed into categorical variables. An average elevation map was constructed for each group of corneal surfaces of each clinical variable in their natural (non-normalized) state and in their normalized state by averaging their modeling coefficients to get an average surface and by representing this average surface in reference to the best-fit sphere in a topographic elevation map. To validate the atlas thus constructed in both its natural and normalized modalities, ANOVA tests were conducted for each clinical variable of the dataset to verify their statistical consistency with the literature before verifying whether the corneal shape transformations displayed in the maps were themselves visually consistent. This was the case. The possible uses of such an atlas are discussed. The third study (Chapter 4) is concerned with the use of a dataset of geometrically modeled corneal surfaces in an ML task of clustering. The unsupervised classification of corneal surfaces is recent in ophthalmology. Most of the few existing studies on corneal clustering resort to feature extraction (as opposed to geometric modeling) to achieve the dimensionality reduction of the dataset. The goal is usually to automate the process of corneal diagnosis, for instance by distinguishing irregular corneal surfaces (keratoconus, Fuch, etc.) from normal surfaces and, in some cases, by classifying irregular surfaces into subtypes. Complementary to these corneal clustering studies, the proposed study resorts mainly to geometric modeling to achieve dimensionality reduction and focuses on normal adult corneas in an attempt to identify their natural groupings, possibly in combination with feature extraction methods. Geometric modeling was based on Zernike polynomials, known for their interpretative transparency and sufficiently accurate for normal corneas. Different types of clustering methods were evaluated in pretests to identify the most effective at producing neatly delimitated clusters that are clearly interpretable. Their evaluation was based on clustering scores (to identify the best number of clusters), polar charts and scatter plots (to visualize the modeling coefficients involved in each cluster), average elevation maps and average profile cuts (to visualize the average corneal surface of each cluster), and statistical cluster comparisons on different clinical parameters (to validate the findings in reference to the clinical literature). K-means, applied to geometrically modeled surfaces without feature extraction, produced the best clusters, both for natural and normalized surfaces. While the clusters produced with natural corneal surfaces were based on the corneal curvature, those produced with normalized surfaces were based on the corneal axis. In each case, the best number of clusters was four. The importance of curvature and axis as grouping criteria in corneal data distribution is discussed. The fourth study presented in this thesis (Chapter 5) explores the ML paradigm to verify whether accurate predictions of normal corneal shapes can be made from clinical data, and how. The database of normal adult corneal surfaces was first preprocessed by geometric modeling to reduce its dimensionality into short vectors of 12 to 20 Zernike coefficients, found to be in the range of appropriate numbers to achieve optimal predictions. The nonlinear regression methods examined from the scikit-learn library were gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, and multilayer perceptron. The predictors were based on the clinical variables available in the database, including geometric variables (best-fit sphere radius, white-towhite diameter, anterior chamber depth, corneal side), refraction variables (sphere, cylinder, axis) and demographic variables (age, gender). Each possible combination of regression method, set of clinical variables (used as predictors) and number of Zernike coefficients (used as targets) defined a regression model in a prediction test. All the regression models were evaluated based on their mean RMSE score (establishing the distance between the predicted corneal surfaces and the raw topographic true surfaces). The best model identified was further qualitatively assessed based on an atlas of predicted and true average elevation maps by which the predicted surfaces could be visually compared to the true surfaces on each of the clinical variables used as predictors. It was found that the best regression model was gradient boosting using all available clinical variables as predictors and 16 Zernike coefficients as targets. The most explicative predictor was the best-fit sphere radius, followed by the side and refractive variables. The average elevation maps of the true anterior corneal surfaces and the predicted surfaces based on this model were remarkably similar for each clinical variable.

Page generated in 0.0774 seconds