Spelling suggestions: "subject:"3analyse d'images"" "subject:"analanalyse d'images""
1 |
Caractérisation automatique d'immeuble depuis une image de façadeBlanc, Cyril 13 December 2023 (has links)
Une façade étant la face représentative de tout bâtiment, nous pouvons en estimer les caractéristiques immobilières d'un simple coup d'œil : structure, composantes ou état, sont autant d'indices permettant d'estimer les propriétés de l'ensemble de l'édifice sans même y entrer. Modéliser cette capacité d'évaluation offrirait de multiples applications : valorisation automatique d'un bien, suggestion d'offre d'assurance adaptée ou comme outil d'étude du marché immobilier d'une ville. Les méthodes d'apprentissage profond ont tellement évoluées afin de copier la perception humaine et nous ont même dépassés en classification ou reconnaissance d'objets, en imitation de style artistique et aussi sur certains jeux vidéos ou de plateau. Néanmoins, ces performances sont souvent acquises au détriment de l'intelligibilité : considérées comme des boîtes noires, la manière dont est obtenue la prédiction n'est ni explicite ni facilement compréhensible. Récemment, de nombreux progrès en explicabilité des réseaux de neurones cherchent à résoudre ce problème. Aussi, peut-on employer les réseaux de neurones dans la création d'un expert compréhensible du marché immobilier d'une ville, depuis ses façades uniquement ? Nous proposons d'utiliser des données libres de rôles d'évaluation et des photographies de façades obtenues par Google Street View afin de constituer un jeu de données. On peut alors entraîner un réseau à convolutions pour caractériser fidèlement une propriété à partir de sa façade. Différentes architectures sont explorées pour prédire, par exemple, l'année de construction à 4 ans près ou sa valeur avec moins de 27 kCAD d'erreur en moyenne. Ensuite, la représentation latente obtenue est mise à profit afin d'expliquer les phénomènes sous-jacents à la valorisation immobilière : la méthode proposée révèle clairement différentes classes de propriétés et leur associe des attributs quantitatifs, géographiques et visuels. / A facade being the representative face of any building, we can gauge its real estate features by just looking at it. We naturally deduce from its structure, components, size or condition, diverse properties of the whole edifice without going inside it. Being able to model this skill could lead to multiple housing-related applications: automated property valuation, custom insurance contract suggestion, or as a market studying tool. Deep learning methods have evolved to mimic human perception and they now out perform us on object classification/recognition, artistic style imitation, and even on some video or board games. However, these performances are often at the expense of understandability: depicted as black boxes, their predictions are obtained in an inexplicit or inexplicable way. Recently, great progress in explainable AI is trying to solve this issue. From here, can we use neural networks to craft an understandable expert of a city housing market solely from building facades ? We propose to use open source assessment data and facade photographs obtained via Google Street View to constitute a dataset. We then train a convolutional neural network at characterizing a property given its facade. Different network architectures are explored to, for instance, predict its construction year within 4 years and its property value with less than 27 kCAD average error. Then, we leverage the learned representation to better understand the phenomena at use in housing assessment: our proposed method reveals different groups within a particular city real estate and their corresponding quantitative, geographic, and visual properties.
|
2 |
Topics in image reconstruction for high resolution positron emission tomographySelivanov, Vitali. January 2002 (has links)
Thèses (Ph.D.)--Université de Sherbrooke (Canada), 2002. / Titre de l'écran-titre (visionné le 20 juin 2006). Publié aussi en version papier.
|
3 |
Segmentation supervisée d'imagesDebeir, Olivier January 2001 (has links)
Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
4 |
Détection d'anomalies basée sur les représentations latentes d'un autoencodeur variationnelCaron, Stéphane 10 February 2024 (has links)
Dans ce mémoire, nous proposons une méthodologie qui permet de détecter des anomalies parmi un ensemble de données complexes, plus particulièrement des images. Pour y arriver, nous utilisons un type spécifique de réseau de neurones, soit un autoencodeur variationnel (VAE). Cette approche non-supervisée d'apprentissage profond nous permet d'obtenir une représentation plus simple de nos données sur laquelle nous appliquerons une mesure de distance de Kullback-Leibler nous permettant de discriminer les anomalies des observations "normales". Pour déterminer si une image nous apparaît comme "anormale", notre approche se base sur une proportion d'observations à filtrer, ce qui est plus simple et intuitif à établir qu'un seuil sur la valeur même de la distance. En utilisant notre méthodologie sur des images réelles, nous avons démontré que nous pouvons obtenir des performances de détection d'anomalies supérieures en termes d'aire sous la courbe ROC, de précision et de rappel par rapport à d'autres approches non-supervisées. De plus, nous avons montré que la simplicité de l'approche par niveau de filtration permet d'adapter facilement la méthode à des jeux de données ayant différents niveaux de contamination d'anomalies. / In this master's thesis, we propose a methodology that aims to detect anomalies among complex data, such as images. In order to do that, we use a specific type of neural network called the varitionnal autoencoder (VAE). This non-supervised deep learning approach allows us to obtain a simple representation of our data on which we then use the Kullback-Leibler distance to discriminate between anomalies and "normal" observations. To determine if an image should be considered "abnormal", our approach is based on a proportion of observations to be filtered, which is easier and more intuitive to establish than applying a threshold based on the value of a distance metric. By using our methodology on real complex images, we can obtain superior anomaly detection performances in terms of area under the ROC curve (AUC),precision and recall compared to other non-supervised methods. Moreover, we demonstrate that the simplicity of our filtration level allows us to easily adapt the method to datasets having different levels of anomaly contamination.
|
5 |
Méthodes quantitatives d'analyse d'images rayons x pour usage en test non destructif et en reconnaissance assistée de défautsBélanger, Yohan 02 February 2024 (has links)
Ce mémoire porte sur l’étude de nouvelles méthodes quantitatives d’analyse d’images rayons x en test non destructif. Ces méthodes permettent d’obtenir plus d’information à partir d’images radiographiques numériques et devraient faciliter l’automatisation de l’inspection industrielle de pièces. Le travail se sépare en trois parties. Premièrement, le contexte de radiographie industrielle qui a mené à ce travail de recherche sera détaillé. Ensuite, il sera question d’un article publié dans le cadre de la conférence de recherche de l’ASNT en avril 2019 [5]. Cet article propose une nouvelle méthode quantitative d’analyse radiographique pour le craquement par corrosion sous contrainte des pipelines. Il est parfait pour introduire le reste de ce mémoire puisque le travail fait dans le cadre de cet article a directement contribué au reste de la recherche. Il sera ensuite question du travail effectué pour obtenir des images rayons x de défauts internes de pièces d’inspection industrielle. Nous parlerons des nouvelles méthodes ayant été appliquées, telles que la simulation, le recalage itératif d’une image simulée et l’optimisation de la courbe d’atténuation globale de la pièce. Pour terminer, nous montrerons le résultat de ce projet sous la forme d’images de différences entre les images simulées et les images réelles.
|
6 |
Comportement des interfaces fragiles des ouvrages hydroélectriquesRousseau, Baptiste January 2010 (has links)
In Quebec, the concrete dams over fifty years are systematically studied since the Saguenay earthquake (1988, 6.2 on the Richter scale) because they were not sized for such hazards. For calculation of the reliability codes for Hydro-Quebec structures, different parameters on the morphology of structure and the physical and mechanical parameters are needed. Among these, the shear strength of interfaces (concrete-concrete, concrete-rock, rock-rock) is particularly important because it determines the safety factor in large part. Moreover, it is commonly accepted that the roughness of the surfaces of rock discontinuities determines the mechanical behavior in shear. This study is divided into two parts: a study of taking samples from two dams of Hydro-Quebec and the conception of an artificial rock-concrete contact. Firstly, from shear tests realized under constant normal load, achieved on contacts from two dams, the principal component study of mechanical and roughness parameters was conducted to determine the parameters dominate (Z[subscript 2], Z[subscript 4], Extent).In addition, a field classification of discontinuities is proposed. The latter depends on various parameters such as the angularity of the surface, filling or oxidation of the surfaces of the discontinuity. Artificial rock-concrete contact has been studied in its entirety by various statistical and geostatistical methods in order to describe as precisely as possible its surface roughness. Once the last known, a map of coring with a 150 mm diameter core sampler has been decided. The collected areas are those with features of roughness, for example, a high angularity. Once the coring performed, samples were tested for shear resistance under a constant normal load It follows a study of mechanical and roughness parameter and an underline of scale effect.
|
7 |
Contrôle adaptatif, techniques de régularisation et applications en analyse d'images / Adaptive control, regularization techniques and their applications in imageAmur, Khua Bux 19 September 2011 (has links)
Dans cette thèse nous nous intéressons à l'étude de problèmes d'analyse mathématique d'images issus du domaine de la vision par ordinateur. Nous considérons des modèles variationnels d'estimation du flot optique et des problèmes de correspondance en stéréo-vision. La résolution de ces modèles variationnels est basée sur la minimisation de fonctionnelles énergies qui comportent deux termes : un terme de données et un terme de régularisation. Ce dernier est du au caractère mal posé de ces problèmes. L'objet du travail de thèse est d'étudier et mettre en œuvre un contrôle adaptatif du paramètre de régularisation qui permette de la choisir au mieux en chaque point du domaine de calcul. Ce contrôle est rendu possible par les estimations a posteriori qui fournissent un critère de sélection « optimal » du paramètre. Cette technique a été introduite par Z. Belhachmi et F, Hecht et appliquée avec succès au problème d'optique flot dans le cas de la régularisation de Tikhonov. Nous la considérons ici pour l'estimation de l'optique flot et la problème de correspondance en stéréo-vision dans le cas de la régularisation par variation totale. L'efficacité de la méthode est manifeste pour faire ressortir les arêtes (discontinuités de champs optiques. En effet, à ces endroits le paramètre de régularisation diminue et aux endroits plus homogènes le paramètre augmente. Ce comportement nous a encouragé à l'expérimenter pour d'autres problèmes d'analyse d'images comme de débruitage, nous avons rajouté un chapitre préliminaire sur le modèle de Perona-Malik / An adaptive control and regularization techniques are studied for some linear and nonlinear ill-posed problems in image processing and computer vision. These methods are based on variational approach which constitutes the minimization of a suitable energy functional made up of two parts data term obtained from constancy of grey value assumption and regularization term which cope with ill-posed problem by its filling in effect property. We have provided a novel adaptive approach for optic flow and stero vision problems. Which is based on adaptive finite element method using unstructutred grid as the domain of computation, which allow the automatic choice of local optimal regularization parameters. Various linear and nonlinear variational models have been considered in this thesis for scientific computations of optic flow and stereo vision problems and an efficient adaptive control is obtained. This novel regularization strategy is controlled by the regularization parameter [alpha] which depends on space and a posteriori error estimator called residual error indicator. This local adptive behavior has encouraged us to experiment with other problems in image analysis such as denoising, we add a preliminary chapter on hte model of Perona-Malik. This work falls in to the category novel and advanced numerical strategies for scientific computations specifically for image motion problems
|
8 |
Localisation de mobiles par construction de modèles en 3D en utilisant la stéréovisionNogueira, Sergio 09 December 2009 (has links) (PDF)
Les travaux présentés dans cette thèse contribuent aux systèmes de localisation pour un robot mobile en utilisant la stéréovision. Ces travaux s'inscrivent dans le cadre d'une collaboration entre le LORIA-INRIA de Nancy et le laboratoire SeT de l'UTBM. L'approche proposée est décomposée en deux étapes. La première étape constitue une phase d'apprentissage qui permet de construire un modèle 3D de l'environnement de navigation. La deuxième étape est consacrée à la localisation du véhicule par rapport au modèle 3D. La phase d'apprentissage a pour objectif de construire un modèle tridimensionnel, à partir de points d'intérêt pouvant être appariés sous différentes contraintes géométriques (translation, rotation, changement d'échelle) et/ou contraintes de changements d'illumination. Dans l'objectif de répondre à toutes ces contraintes, nous utilisons la méthode SIFT (Scale Invariant Feature Transform) permettant des mises en correspondance de vues éloignées. Ces points d'intérêt sont décrits par de nombreux attributs qui font d'eux des caractéristiques très intéressantes pour une localisation robuste. Suite à la mise en correspondance de ces points, un modèle tridimensionnel est construit, en utilisant une méthode incrémentale. Un ajustement des positions est effectué afin d'écarter les éventuelles déviations. La phase de localisation consiste à déterminer la position du mobile par rapport au modèle 3D représentant l'environnement de navigation. Elle consiste à apparier les points 3D reconstruits à partir d'une pose du capteur stéréoscopie et les points 3D du modèle. Cet appariement est effectué par l'intermédiaire des points d'intérêt, issus de la méthode d'extraction SIFT. L'approche proposée a été évaluée en utilisant une plate-forme de simulation permettant de simuler un capteur stéréoscopique, installé sur véhicule naviguant dans un environnement 3D virtuel. Par ailleurs, le système de localisation développé a été testé en utilisant le véhicule instrumenté du laboratoire SeT afin d'évaluer ses performances en conditions réelles d'utilisation.
|
9 |
Caractérisation des Scènes Urbaines par Analyse des Images HyperspectralesHomayouni, Saeid 08 December 2005 (has links) (PDF)
La caractérisation d'un environnement tel que le milieu urbain est une tâche délicate car ce milieu est un phénomène complexe par différents aspects. Parmi ceux-ci, l'aspect géographique est considéré comme le plus important qui puisse être étudié par les technologies d'acquisition et les techniques d'analyse de la télédétection. En particulier, la télédétection hyperspectrale a montré son potentiel pour l'acquisition de données et l'extraction d'informations nécessaires pour la modélisation du milieu urbain. Dans cette thèse, pour l'analyse d'image hyperspectrale, deux stratégies supervisée et non supervisée ont été choisi. Nous avons appliqué les techniques de Mise en Correspondance Spectrale, en tant que les méthodes supervisées, en vue de la cartographie des matériaux urbains. Afin d'améliorer les résultats de ces techniques, nous avons proposé une technique de fusion au niveau de la décision. Par ailleurs, une technique non supervisée basée sur l'Analyse en Composantes Indépendantes pour la séparation spectrale et la classification, comme une solution de problème de mélange, est proposée. Elle emploie la technique de groupage C-Moyens Flou, afin d'obtenir une carte de classification floue et sub-pixelique. Ces techniques sont employées sur les données images hyperspectrales acquises par le capteur CASI sur la ville de Toulouse, en France. Elles sont enregistrées en 32 canaux spectraux avec la résolution spatiale de 2 mètres et 48 canaux en 4 mètres de résolution spatiale. Enfin, nous avons comparé les résultats de ces méthodes avec des données de vérité terrain et une évaluation du taux d'erreur de classification a été réalisée pour toutes les techniques.
|
10 |
Extraction de l'objet de référence par la transformation multiéchelle Beamlet : détection de pistes d'atterrissage dans une image aérienne /Sahli, Samir. January 2008 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2008. / Bibliogr.: f. [81]-83. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
|
Page generated in 0.0355 seconds