• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 9
  • 1
  • Tagged with
  • 10
  • 10
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Text Line Extraction Using Seam Carving

Stoll, Christopher A. 28 May 2015 (has links)
No description available.
2

Navigation Using Optical Tracking of Objects at Unknown Locations

Bates, Dustin P. 13 April 2007 (has links)
No description available.
3

Building Extraction in 2D Imagery Using Hough Transform

Zou, Rucong, Sun, Hong January 2014 (has links)
The purpose of this paper is to find out whether Hough transform if it is helpful to building extraction or not. This paper is written with the intention to come up with a building extraction algorithm that captures building areas in images as accurately as possible and eliminates background interference information, allowing the extracted contour area to be slightly larger than the building area itself. The core algorithm in this paper is based on the linear feature of the building edge and it removes interference information from the background. Through the test with ZuBuD database in Matlab, we can detect images successfully.  So according to this study, the Hough transform works for extracting building in 2D images.
4

Pose Estimation using Genetic Algorithm with Line Extraction using Sequential RANSAC for a 2-D LiDAR

Kumat, Ashwin Dharmesh January 2021 (has links)
No description available.
5

Laser line extraction with sub-pixel accuracy for 3D measurements

Mattsson, Mirjam January 2020 (has links)
One 3D measurement method is laser scanning. By projecting and photographing a laser line, the centre line coordinates of the laser can be obtained with centre line detection methods and then be used to generate 3D model of the scanned object. This thesis compares three centre line detection algorithms with respect to their utility for the purpose of 3D reconstruction. The investigated algorithms were Steger’s method, Gaussian fitting and Centre of Mass. The algorithms were evaluated regarding noise sensitivity and their ability to detect jagged laser lines. It was concluded that Steger’s method was the most noise resistant, but less accurate than the others when the jagged line was at an acute angle. The performance of the Gaussian fitting and Centre of Mass algorithms was relatively equal for all investigated test cases.
6

Matching And Reconstruction Of Line Features From Ultra-high Resolution Stereo Aerial Imagery

Ok, Ali Ozgun 01 September 2011 (has links) (PDF)
In this study, a new approach for the matching and reconstruction of line features from multispectral stereo aerial images is presented. The advantages of the existing multispectral information in aerial images are fully taken into account all over the steps of pre-processing and edge detection. To accurately describe the straight line segments, a principal component analysis technique is adapted. The initial correspondences between the stereo images are generated using a new pair-wise stereo matching approach which involves a total of seven relational constraints. The final line to line correspondences between the stereo images are established in a precise matching stage in which the final line matches are assigned by means of three novel measures and a final similarity voting scheme. Once the line matches are established, the stereo reconstruction of those matches is performed by an innovative reconstruction approach that manipulates the redundancy inherent in line pair-relations. By this way, the reconstruction of the stereo matches that are observed in a nearly-parallel geometry with the epipolar lines can also be performed accurately. The proposed approach is tested over two different urban test sites with various built-up characteristics, and as a result, very successful and promising stereo line matching and reconstruction performances are reached. Besides, the comparison of the results of the proposed approach with the results of one of the state-of-the-art stereo matching approaches proves the superiority and the potential of proposed approach.
7

A Cumulative Framework for Image Registration using Level-line Primitives / Décision cumulative de vote pour la mise en correspondance des primitives de lignes de niveaux

Almehio, Yasser 04 September 2012 (has links)
Nous proposons dans cette thèse une nouvelle approche cumulative de recalage d'images basée sur des primitives construites à partir des lignes de niveaux. Les lignes de niveaux sont invariantes par rapport aux diverses perturbations affectant l'image tels que les changements de contraste. Par ailleurs, leur abondance dans une image suggère naturellement un processus de décision cumulatif. Nous proposons alors un algorithme récursif d'extraction des lignes de niveaux simple et efficace qui extrait les lignes par groupes rectiligne appelés ``segments''. Les segments sont ensuite groupés -- sous contrainte de proximité -- en fonction du modèle de transformation recherchée et afin de faciliter le calcul des invariants. Les primitives construites ont alors la forme de Z, Y ou W et sont classées en fonction de leur fiabilité, ce qui participe au paramétrage du processus de décision cumulatif. Le vote est multi-tours et constitué d'une phase préliminaire de construction de listes de préférences inspiré de la technique des mariages stables. Les primitives votent à une itération donnée en fonction de leur fiabilité. Chaque itération fournit ainsi un estimé de la transformation recherchée que le tour suivant peut raffiner. Ce procédé multi-tours permet, de ce fait, d'éliminer les ambiguïtés d'appariement générées par les motifs répétitifs présents dans les images. Notre approche a été validée pour recaler des images sous différents modèles de transformations allant de la plus simple (similarité) à la plus complexe (projective). Nous montrons dans cette thèse comment le choix pertinent de primitives basées sur les lignes de niveaux en conjonction avec un processus de décision cumulatif permet d'obtenir une méthode de recalage d'images robuste, générique et complète, fournissant alors différents niveaux de précision et pouvant ainsi s'appliquer à différents contextes. / In this thesis, we propose a new image registration method that relies on level-line primitives. Level-lines are robust towards contrast changes and proposed primitives inherit their robustness. Moreover, their abundance in the image is well adapted to a cumulative matching process based on a multi-stage primitive election procedure. We propose a simple recursive tracking algorithm to extract level lines by straight sets called "segments". Segments are then grouped under proximity constraints to construct primitives (Z, Y and W shapes) that are classified into categories according to their reliability. Primitive shapes are defined according to the transformation model. The cumulative process is based on a preliminary step of preference lists construction that is inspired from the stable marriage matching algorithm. Primitives vote in a given voting stage according to their reliability. Each stage provides a coarse estimate of the transformation that the next stage gets to refine. This process, in turn, eliminate gradually the ambiguity happened by incorrect correspondences. Our additional contribution is to validate further geometric transformations, from simple to complex ones, completing the path "similarity, affine, projective". We show in this thesis how the choice of level lines in conjunction with a cumulative decision process allows defining a complete robust registration approach that is tested and evaluated on several real image sequences including different type of transformations.
8

Quantification des pools de nucléotides à l'aide de la chromatographie liquide couplée à la spectrométrie de masse en tandem : applications à l'étude de la progression tumorale / Quantification of nucleotides pools with liquid chromatography coupled with tandem mass spectrometry : applications in cancer research

Machon, Christelle 13 November 2015 (has links)
Les nucléotides, terme regroupant les nucléosides monophosphate, diphosphate et triphosphate, sont impliqués dans de nombreux processus cellulaires. Ils représentent les éléments constitutifs des acides nucléiques, fournissent de l'énergie à des réactions métaboliques, jouent le rôle de transporteurs et seconds messagers. L'exploration des pools nucléotidiques apparaît indispensable afin de connaître leur rôle précis dans des situations physiologiques ou pathologiques. Nous avons développé une méthode de dosage des nucléotides endogènes (formes mono-, di- et triphosphate) par extraction en ligne sur colonne WAX couplée à la LC-MS/MS. La séparation analytique est réalisée sur colonne Hypercarb, sans agent de paire d'ions dans la phase mobile. Grâce à l'utilisation d'un triple quadripôle et une ionisation en mode positif, les nucléotides endogènes sont identifiés sans équivoque, y compris ceux possédant la même masse molaire. L'extraction et la séparation des nucléotides sont réalisées en 20 min. L'ensemble de la méthode, en comptant la ré- équilibration des colonnes, dure 37 min. La méthode de dosage a été validée pour les formes mono- et triphosphate et est applicable à des séries d'une vingtaine d'échantillons biologiques. D'autre part, dans une étude pré-analytique basée sur les plans d'expériences, nous avons comparé les conditions de préparation d'échantillons en vue du dosage de nucléotides intracellulaires dans 4 lignées cellulaires : 2 adhérentes (Messa et NCI-H292) et 2 en suspension (RL et L1210). Nous avons montré que les conditions pré-analytiques optimales dépendent de la lignée cellulaire soulignant ainsi l'importance de cette phase dans l'analyse des nucléotides. Enfin, l'expérience et les connaissances acquises lors du développement de la méthode de dosage des nucléotides ainsi que la large palette de molécules analysables avec cette méthode (nucléosides, nucléotides sucrés, autres métabolites), nous ont permis de développer des collaborations dans le domaine de la cancérologie avec différentes équipes de recherche. Par exemple, nous avons étudié l'implication des pools nucléotidiques dans le stress réplicatif induit par le stress oxydant et dans la reprogrammation cellulaire observée dans les cellules cancéreuses. Ainsi, les informations apportées par notre approche analytique, complémentaires des autres approches utilisées, ont montré l'implication des pools nucléotidiques dans la tumorigénèse. En conclusion, ce travail a permis de développer une technique analytique et de mettre en place une méthode de travail pour le dosage des nucléotides endogènes dans différents milieux biologiques / Nucleotides, term including nucleoside mono-, di- and triphosphates, are endogenous compounds playing various roles in biology. They are components of nucleic acids, provide energy to metabolic reactions and act as carriers or second messenger. The study of endogenous nucleotides has become of great interest in physiological and pathological conditions. We developed a method for the quantification of endogenous nucleotides, using an on-line extraction on a WAX column coupled with LC-MS/MS. Analytical separation is performed on a Hypercarb column, without ion pairing agent in the mobile phase. The use of a triple quadrupole mass spectrometer following positive mode ionization allows the unambiguous identification of nucleotides presenting the same mass. Extraction and separation of nucleotides are achieved within 20 min and the method including re-equilibration of the two columns within 37 min. The method was validated for the quantification of nucleoside mono- and triphosphates, and could be applied to series of more than twenty biological samples. Secondly, in a study based on design of experiments, pre-analytical parameters influencing results of intracellular nucleotides were compared in four cell lines. We demonstrated that optimal pre-analytical parameters depend on cell lines. This clearly highlights the importance of pre- analytical conditions for the quantification of intracellular nucleotides to be as representative as possible of the real levels in cells. Then, thanks to experience acquired during the development and the validation of the analytical method, scientific collaborations have been established with several cancer research teams. For example, implication of nucleotide metabolism in replicative stress induced by oxidative stress or in the metabolic reprogramming in cancer cells was studied. Results obtained by our analytical approach were complementary to those obtained by other techniques. To conclude, our work consisted on the study of the entire workflow for the analysis of endogenous nucleotides in various biological samples
9

Neural Networks for Document Image and Text Processing

Pastor Pellicer, Joan 03 November 2017 (has links)
Nowadays, the main libraries and document archives are investing a considerable effort on digitizing their collections. Indeed, most of them are scanning the documents and publishing the resulting images without their corresponding transcriptions. This seriously limits the document exploitation possibilities. When the transcription is necessary, it is manually performed by human experts, which is a very expensive and error-prone task. Obtaining transcriptions to the level of required quality demands the intervention of human experts to review and correct the resulting output of the recognition engines. To this end, it is extremely useful to provide interactive tools to obtain and edit the transcription. Although text recognition is the final goal, several previous steps (known as preprocessing) are necessary in order to get a fine transcription from a digitized image. Document cleaning, enhancement, and binarization (if they are needed) are the first stages of the recognition pipeline. Historical Handwritten Documents, in addition, show several degradations, stains, ink-trough and other artifacts. Therefore, more sophisticated and elaborate methods are required when dealing with these kind of documents, even expert supervision in some cases is needed. Once images have been cleaned, main zones of the image have to be detected: those that contain text and other parts such as images, decorations, versal letters. Moreover, the relations among them and the final text have to be detected. Those preprocessing steps are critical for the final performance of the system since an error at this point will be propagated during the rest of the transcription process. The ultimate goal of the Document Image Analysis pipeline is to receive the transcription of the text (Optical Character Recognition and Handwritten Text Recognition). During this thesis we aimed to improve the main stages of the recognition pipeline, from the scanned documents as input to the final transcription. We focused our effort on applying Neural Networks and deep learning techniques directly on the document images to extract suitable features that will be used by the different tasks dealt during the following work: Image Cleaning and Enhancement (Document Image Binarization), Layout Extraction, Text Line Extraction, Text Line Normalization and finally decoding (or text line recognition). As one can see, the following work focuses on small improvements through the several Document Image Analysis stages, but also deals with some of the real challenges: historical manuscripts and documents without clear layouts or very degraded documents. Neural Networks are a central topic for the whole work collected in this document. Different convolutional models have been applied for document image cleaning and enhancement. Connectionist models have been used, as well, for text line extraction: first, for detecting interest points and combining them in text segments and, finally, extracting the lines by means of aggregation techniques; and second, for pixel labeling to extract the main body area of the text and then the limits of the lines. For text line preprocessing, i.e., to normalize the text lines before recognizing them, similar models have been used to detect the main body area and then to height-normalize the images giving more importance to the central area of the text. Finally, Convolutional Neural Networks and deep multilayer perceptrons have been combined with hidden Markov models to improve our transcription engine significantly. The suitability of all these approaches has been tested with different corpora for any of the stages dealt, giving competitive results for most of the methodologies presented. / Hoy en día, las principales librerías y archivos está invirtiendo un esfuerzo considerable en la digitalización de sus colecciones. De hecho, la mayoría están escaneando estos documentos y publicando únicamente las imágenes sin transcripciones, limitando seriamente la posibilidad de explotar estos documentos. Cuando la transcripción es necesaria, esta se realiza normalmente por expertos de forma manual, lo cual es una tarea costosa y propensa a errores. Si se utilizan sistemas de reconocimiento automático se necesita la intervención de expertos humanos para revisar y corregir la salida de estos motores de reconocimiento. Por ello, es extremadamente útil para proporcionar herramientas interactivas con el fin de generar y corregir la transcripciones. Aunque el reconocimiento de texto es el objetivo final del Análisis de Documentos, varios pasos previos (preprocesamiento) son necesarios para conseguir una buena transcripción a partir de una imagen digitalizada. La limpieza, mejora y binarización de las imágenes son las primeras etapas del proceso de reconocimiento. Además, los manuscritos históricos tienen una mayor dificultad en el preprocesamiento, puesto que pueden mostrar varios tipos de degradaciones, manchas, tinta a través del papel y demás dificultades. Por lo tanto, este tipo de documentos requiere métodos de preprocesamiento más sofisticados. En algunos casos, incluso, se precisa de la supervisión de expertos para garantizar buenos resultados en esta etapa. Una vez que las imágenes han sido limpiadas, las diferentes zonas de la imagen deben de ser localizadas: texto, gráficos, dibujos, decoraciones, letras versales, etc. Por otra parte, también es importante conocer las relaciones entre estas entidades. Estas etapas del pre-procesamiento son críticas para el rendimiento final del sistema, ya que los errores cometidos en aquí se propagarán al resto del proceso de transcripción. El objetivo principal del trabajo presentado en este documento es mejorar las principales etapas del proceso de reconocimiento completo: desde las imágenes escaneadas hasta la transcripción final. Nuestros esfuerzos se centran en aplicar técnicas de Redes Neuronales (ANNs) y aprendizaje profundo directamente sobre las imágenes de los documentos, con la intención de extraer características adecuadas para las diferentes tareas: Limpieza y Mejora de Documentos, Extracción de Líneas, Normalización de Líneas de Texto y, finalmente, transcripción del texto. Como se puede apreciar, el trabajo se centra en pequeñas mejoras en diferentes etapas del Análisis y Procesamiento de Documentos, pero también trata de abordar tareas más complejas: manuscritos históricos, o documentos que presentan degradaciones. Las ANNs y el aprendizaje profundo son uno de los temas centrales de esta tesis. Diferentes modelos neuronales convolucionales se han desarrollado para la limpieza y mejora de imágenes de documentos. También se han utilizado modelos conexionistas para la extracción de líneas: primero, para detectar puntos de interés y segmentos de texto y, agregarlos para extraer las líneas del documento; y en segundo lugar, etiquetando directamente los píxeles de la imagen para extraer la zona central del texto y así definir los límites de las líneas. Para el preproceso de las líneas de texto, es decir, la normalización del texto antes del reconocimiento final, se han utilizado modelos similares a los mencionados para detectar la zona central del texto. Las imagenes se rescalan a una altura fija dando más importancia a esta zona central. Por último, en cuanto a reconocimiento de escritura manuscrita, se han combinado técnicas de ANNs y aprendizaje profundo con Modelos Ocultos de Markov, mejorando significativamente los resultados obtenidos previamente por nuestro motor de reconocimiento. La idoneidad de todos estos enfoques han sido testeados con diferentes corpus en cada una de las tareas tratadas., obtenie / Avui en dia, les principals llibreries i arxius històrics estan invertint un esforç considerable en la digitalització de les seues col·leccions de documents. De fet, la majoria estan escanejant aquests documents i publicant únicament les imatges sense les seues transcripcions, fet que limita seriosament la possibilitat d'explotació d'aquests documents. Quan la transcripció del text és necessària, normalment aquesta és realitzada per experts de forma manual, la qual cosa és una tasca costosa i pot provocar errors. Si s'utilitzen sistemes de reconeixement automàtic es necessita la intervenció d'experts humans per a revisar i corregir l'eixida d'aquests motors de reconeixement. Per aquest motiu, és extremadament útil proporcionar eines interactives amb la finalitat de generar i corregir les transcripcions generades pels motors de reconeixement. Tot i que el reconeixement del text és l'objectiu final de l'Anàlisi de Documents, diversos passos previs (coneguts com preprocessament) són necessaris per a l'obtenció de transcripcions acurades a partir d'imatges digitalitzades. La neteja, millora i binarització de les imatges (si calen) són les primeres etapes prèvies al reconeixement. A més a més, els manuscrits històrics presenten una major dificultat d'analisi i preprocessament, perquè poden mostrar diversos tipus de degradacions, taques, tinta a través del paper i altres peculiaritats. Per tant, aquest tipus de documents requereixen mètodes de preprocessament més sofisticats. En alguns casos, fins i tot, es precisa de la supervisió d'experts per a garantir bons resultats en aquesta etapa. Una vegada que les imatges han sigut netejades, les diferents zones de la imatge han de ser localitzades: text, gràfics, dibuixos, decoracions, versals, etc. D'altra banda, també és important conéixer les relacions entre aquestes entitats i el text que contenen. Aquestes etapes del preprocessament són crítiques per al rendiment final del sistema, ja que els errors comesos en aquest moment es propagaran a la resta del procés de transcripció. L'objectiu principal del treball que estem presentant és millorar les principals etapes del procés de reconeixement, és a dir, des de les imatges escanejades fins a l'obtenció final de la transcripció del text. Els nostres esforços se centren en aplicar tècniques de Xarxes Neuronals (ANNs) i aprenentatge profund directament sobre les imatges de documents, amb la intenció d'extraure característiques adequades per a les diferents tasques analitzades: neteja i millora de documents, extracció de línies, normalització de línies de text i, finalment, transcripció. Com es pot apreciar, el treball realitzat aplica xicotetes millores en diferents etapes de l'Anàlisi de Documents, però també tracta d'abordar tasques més complexes: manuscrits històrics, o documents que presenten degradacions. Les ANNs i l'aprenentatge profund són un dels temes centrals d'aquesta tesi. Diferents models neuronals convolucionals s'han desenvolupat per a la neteja i millora de les dels documents. També s'han utilitzat models connexionistes per a la tasca d'extracció de línies: primer, per a detectar punts d'interés i segments de text i, agregar-los per a extraure les línies del document; i en segon lloc, etiquetant directament els pixels de la imatge per a extraure la zona central del text i així definir els límits de les línies. Per al preprocés de les línies de text, és a dir, la normalització del text abans del reconeixement final, s'han utilitzat models similars als utilitzats per a l'extracció de línies. Finalment, quant al reconeixement d'escriptura manuscrita, s'han combinat tècniques de ANNs i aprenentatge profund amb Models Ocults de Markov, que han millorat significativament els resultats obtinguts prèviament pel nostre motor de reconeixement. La idoneïtat de tots aquests enfocaments han sigut testejats amb diferents corpus en cadascuna de les tasques tractad / Pastor Pellicer, J. (2017). Neural Networks for Document Image and Text Processing [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/90443
10

Intelligent pattern recognition techniques for photo-realistic 3D modeling of urban planning objects / Techniques intelligentes motif de reconnaissance pour photo-réaliste modélisation 3D de la planification urbaine objets

Tsenoglou, Theocharis 28 November 2014 (has links)
Modélisation 3D réaliste des bâtiments et d'autres objets de planification urbaine est un domaine de recherche actif dans le domaine de la modélisation 3D de la ville, la documentation du patrimoine, tourisme virtuel, la planification urbaine, la conception architecturale et les jeux d'ordinateur. La création de ces modèles, très souvent, nécessite la fusion des données provenant de diverses sources telles que les images optiques et de numérisation de nuages ​​de points laser. Pour imiter de façon aussi réaliste que possible les mises en page, les activités et les fonctionnalités d'un environnement du monde réel, ces modèles doivent atteindre de haute qualité et la précision de photo-réaliste en termes de la texture de surface (par exemple pierre ou de brique des murs) et de la morphologie (par exemple, les fenêtres et les portes) des objets réels. Rendu à base d'images est une alternative pour répondre à ces exigences. Il utilise des photos, prises soit au niveau du sol ou de l'air, à ajouter de la texture au modèle 3D ajoutant ainsi photo-réalisme.Pour revêtement de texture pleine de grandes façades des modèles de blocs 3D, des images qui dépeignent la même façade doivent être correctement combinée et correctement aligné avec le côté du bloc. Les photos doivent être fusionnés de manière appropriée afin que le résultat ne présente pas de discontinuités, de brusques variations de l'éclairage ou des lacunes. Parce que ces images ont été prises, en général, dans différentes conditions de visualisation (angles de vision, des facteurs de zoom, etc.) ils sont sous différentes distorsions de perspective, mise à l'échelle, de luminosité, de contraste et de couleur nuances, ils doivent être corrigés ou ajustés. Ce processus nécessite l'extraction de caractéristiques clés de leur contenu visuel d'images.Le but du travail proposé est de développer des méthodes basées sur la vision par ordinateur et les techniques de reconnaissance des formes, afin d'aider ce processus. En particulier, nous proposons une méthode pour extraire les lignes implicites à partir d'images de mauvaise qualité des bâtiments, y compris les vues de nuit où seules quelques fenêtres éclairées sont visibles, afin de préciser des faisceaux de lignes parallèles 3D et leurs points de fuite correspondants. Puis, sur la base de ces informations, on peut parvenir à une meilleure fusion des images et un meilleur alignement des images aux façades de blocs. / Realistic 3D modeling of buildings and other urban planning objects is an active research area in the field of 3D city modeling, heritage documentation, virtual touring, urban planning, architectural design and computer gaming. The creation of such models, very often, requires merging of data from diverse sources such as optical images and laser scan point clouds. To imitate as realistically as possible the layouts, activities and functionalities of a real-world environment, these models need to attain high photo-realistic quality and accuracy in terms of the surface texture (e.g. stone or brick walls) and morphology (e.g. windows and doors) of the actual objects. Image-based rendering is an alternative for meeting these requirements. It uses photos, taken either from ground level or from the air, to add texture to the 3D model thus adding photo-realism. For full texture covering of large facades of 3D block models, images picturing the same façade need to be properly combined and correctly aligned with the side of the block. The pictures need to be merged appropriately so that the result does not present discontinuities, abrupt variations in lighting or gaps. Because these images were taken, in general, under various viewing conditions (viewing angles, zoom factors etc) they are under different perspective distortions, scaling, brightness, contrast and color shadings, they need to be corrected or adjusted. This process requires the extraction of key features from their visual content of images. The aim of the proposed work is to develop methods based on computer vision and pattern recognition techniques in order to assist this process. In particular, we propose a method for extracting implicit lines from poor quality images of buildings, including night views where only some lit windows are visible, in order to specify bundles of 3D parallel lines and their corresponding vanishing points. Then, based on this information, one can achieve better merging of the images and better alignment of the images to the block façades. Another important application dealt in this thesis is that of 3D modeling. We propose an edge preserving interpolation, based on the mean shift algorithm, that operates jointly on the optical and the elevation data. It succeeds in increasing the resolution of the elevation data (LiDAR) while improving the quality (i.e. straightness) of their edges. At the same time, the color homogeneity of the corresponding imagery is also improved. The reduction of color artifacts in the optical data and the improvement in the spatial resolution of elevation data results in more accurate 3D building models. Finally, in the problem of building detection, the application of the proposed mean shift-based edge preserving smoothing for increasing the quality of aerial/color images improves the performance of binary building vs non-building pixel classification.

Page generated in 0.0864 seconds