• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 440
  • 117
  • 102
  • 48
  • 33
  • 25
  • 14
  • 13
  • 13
  • 6
  • 6
  • 5
  • 5
  • 4
  • 3
  • Tagged with
  • 975
  • 135
  • 120
  • 111
  • 99
  • 86
  • 82
  • 73
  • 72
  • 71
  • 71
  • 71
  • 70
  • 63
  • 62
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
571

Least-squares optimal interpolation for direct image super-resolution : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand

Gilman, Andrew January 2009 (has links)
Image super-resolution aims to produce a higher resolution representation of a scene from an ensemble of low-resolution images that may be warped, aliased, blurred and degraded by noise. There are a variety of methods for performing super-resolution described in the literature, and in general they consist of three major steps: image registration, fusion and deblurring. This thesis proposes a novel method of performing the first two of these steps. The ultimate aim of image super-resolution is to produce a higher-quality image that is visually clearer, sharper and contains more detail than the individual input images. Machine algorithms can not assess images qualitatively and typically use a quantitative error criterion, often least-squares. This thesis aims to optimise leastsquares directly using a fast method, in particular one that can be implemented using linear filters; hence, a closed-form solution is required. The concepts of optimal interpolation and resampling are derived and demonstrated in practice. Optimal filters optimised on one image are shown to perform nearoptimally on other images, suggesting that common image features, such as stepedges, can be used to optimise a near-optimal filter without requiring the knowledge of the ground-truth output. This leads to the construction of a pulse model, which is used to derive filters for resampling non-uniformly sampled images that result from the fusion of registered input images. An experimental comparison shows that a 10th order pulse model-based filter outperforms a number of methods common in the literature. The use of optimal interpolation for image registration linearises an otherwise nonlinear problem, resulting in a direct solution. Experimental analysis is used to show that optimal interpolation-based registration outperforms a number of existing methods, both iterative and direct, at a range of noise levels and for both heavily aliased images and images with a limited degree of aliasing. The proposed method offers flexibility in terms of the size of the region of support, offering a good trade-off in terms of computational complexity and accuracy of registration. Together, optimal interpolation-based registration and fusion are shown to perform fast, direct and effective super-resolution.
572

Least-squares optimal interpolation for direct image super-resolution : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand

Gilman, Andrew January 2009 (has links)
Image super-resolution aims to produce a higher resolution representation of a scene from an ensemble of low-resolution images that may be warped, aliased, blurred and degraded by noise. There are a variety of methods for performing super-resolution described in the literature, and in general they consist of three major steps: image registration, fusion and deblurring. This thesis proposes a novel method of performing the first two of these steps. The ultimate aim of image super-resolution is to produce a higher-quality image that is visually clearer, sharper and contains more detail than the individual input images. Machine algorithms can not assess images qualitatively and typically use a quantitative error criterion, often least-squares. This thesis aims to optimise leastsquares directly using a fast method, in particular one that can be implemented using linear filters; hence, a closed-form solution is required. The concepts of optimal interpolation and resampling are derived and demonstrated in practice. Optimal filters optimised on one image are shown to perform nearoptimally on other images, suggesting that common image features, such as stepedges, can be used to optimise a near-optimal filter without requiring the knowledge of the ground-truth output. This leads to the construction of a pulse model, which is used to derive filters for resampling non-uniformly sampled images that result from the fusion of registered input images. An experimental comparison shows that a 10th order pulse model-based filter outperforms a number of methods common in the literature. The use of optimal interpolation for image registration linearises an otherwise nonlinear problem, resulting in a direct solution. Experimental analysis is used to show that optimal interpolation-based registration outperforms a number of existing methods, both iterative and direct, at a range of noise levels and for both heavily aliased images and images with a limited degree of aliasing. The proposed method offers flexibility in terms of the size of the region of support, offering a good trade-off in terms of computational complexity and accuracy of registration. Together, optimal interpolation-based registration and fusion are shown to perform fast, direct and effective super-resolution.
573

Least-squares optimal interpolation for direct image super-resolution : a thesis presented in partial fulfilment of the requirements for the degree of Doctor of Philosophy in Engineering at Massey University, Palmerston North, New Zealand

Gilman, Andrew January 2009 (has links)
Image super-resolution aims to produce a higher resolution representation of a scene from an ensemble of low-resolution images that may be warped, aliased, blurred and degraded by noise. There are a variety of methods for performing super-resolution described in the literature, and in general they consist of three major steps: image registration, fusion and deblurring. This thesis proposes a novel method of performing the first two of these steps. The ultimate aim of image super-resolution is to produce a higher-quality image that is visually clearer, sharper and contains more detail than the individual input images. Machine algorithms can not assess images qualitatively and typically use a quantitative error criterion, often least-squares. This thesis aims to optimise leastsquares directly using a fast method, in particular one that can be implemented using linear filters; hence, a closed-form solution is required. The concepts of optimal interpolation and resampling are derived and demonstrated in practice. Optimal filters optimised on one image are shown to perform nearoptimally on other images, suggesting that common image features, such as stepedges, can be used to optimise a near-optimal filter without requiring the knowledge of the ground-truth output. This leads to the construction of a pulse model, which is used to derive filters for resampling non-uniformly sampled images that result from the fusion of registered input images. An experimental comparison shows that a 10th order pulse model-based filter outperforms a number of methods common in the literature. The use of optimal interpolation for image registration linearises an otherwise nonlinear problem, resulting in a direct solution. Experimental analysis is used to show that optimal interpolation-based registration outperforms a number of existing methods, both iterative and direct, at a range of noise levels and for both heavily aliased images and images with a limited degree of aliasing. The proposed method offers flexibility in terms of the size of the region of support, offering a good trade-off in terms of computational complexity and accuracy of registration. Together, optimal interpolation-based registration and fusion are shown to perform fast, direct and effective super-resolution.
574

L'échantillonnage spatio-chromatique dans la rétine humaine et les caméras numériques

Chaix De Lavarène, Brice 22 November 2007 (has links) (PDF)
Il est aujourd'hui établi que la vision des couleurs chez l'homme est permise par la présence de trois types de photorécepteurs, sensibles respectivement aux courtes, moyennes et grandes longueurs d'onde de la lumière. La présence de ces trois classes d'échantillonneurs induit un espace perceptif des couleurs tridimensionnel. Par ailleurs, les expériences psycho-physiques montrent que le système visuel humain construit trois voies perceptives à partir de l'image échantillonnée au niveau des cônes. L'une contient l'information achromatique, appelée lumi- nance, et les deux autres véhiculent les informations d'oppositions de couleurs rouge moins vert et bleu moins jaune. Cependant, le système visuel est confronté à un problème de taille puisqu'à chaque position spatiale de la rétine, un seul cône est présent. Chaque cône mesure, par conséquent, à la fois l'information de luminance et l'information de couleur. Le mécanisme permettant le passage de cette information rétinienne ambiguë à trois voies perceptives distinctes est encore mal compris, en particulier dans le cas d'un arrangement irrégulier des cônes, tel que c'est le cas dans la rétine. Nous proposons un modèle d'estimation de la luminance et des oppositions de couleurs s'appliquant quel que soit l'arrangement spatial des photorécepteurs, et discutons de ses impli- cations pour le traitement rétinien de la couleur. Ce modèle s'applique également au domaine des caméras numériques dites "mono-capteur", ces dernières étant confrontées à la même pro- blématique d'échantillonnage spatio-chromatique que la rétine.
575

Modèles et Heuristiques pour le traitement spatio-temporel de l'information environnementale

Batton-Hubert, Mireille 04 December 2006 (has links) (PDF)
Ce mémoire a pour objectif de faire le bilan qualitatif et quantitatif de mes activités de recherche depuis ma nomination à l'Ecole nationale supérieure des mines de Saint-Étienne en 1996. La première partie sera consacrée à la pertinence scientifique du concept de la connaissance d'un phénomène continu simultanément dans l'espace et dans le temps dans un Environnement physique et anthropique. Cette problématique de recherche est centrée sur un domaine d'application, l'optimisation et la simulation d'impacts environnementaux. Volontairement elle ne se scinde pas entre le réalisé et le futur. Car les travaux de recherche se déroulent dans un continuum temporel du point de vue des problématiques d'application ou au niveau des avancées historiques. Ce qui impliquerait que les travaux passés sont exhaustifs, et sans amélioration possible. Ce travail est une réflexion approfondie d'une préoccupation commune se déclinant au travers de 2 grands axes de recherche (volet 1 et volet 2) qui débouchent sur une proposition de thématiques de recherche pour les années à venir (volet 3). Les 3 volets sont :<br>- volet 1 : Structuration et Modélisation de l'information spatialisée environnementale - aide à la décision en hydrodynamique et Ressources en eaux<br>- volet 2 : Analyse espace - temps de l'information environnementale<br>- volet 3 : Justification d'heuristique de la composante espace - temps de l'information environnementale Un rapport annexe contient le syllabus:<br>- des activités d'enseignement et de responsabilités diverses assurées,<br>- des thématiques de recherche abordées avec leurs principaux résultats issues :<br> - des activités d'encadrement doctoral<br> - de la réalisation de projets de recherche ( académique et appliquée )<br> - des publications réalisées à ce jour. <br>Ce document est établi en vue de l'obtention de l'Habilitation à Diriger des Recherches.
576

Étude dans les espaces de Hölder de problèmes aux limites et de transmission dans un domaine avec couche mince.

Belhamiti, Omar 26 May 2008 (has links) (PDF)
On considère une famille (Pδ)δ>0 de problèmes aux limites et de transmission dans un domaine avec couche mince, écrit sous la forme d'une équation différentielle d'ordre deux abstraite de type elliptique . Une nouvelle approche pour la résolution de (Pδ)δ>0 est présentée dans ce travail utilisant le concept physique d'impédance. Cette méthode est différente de celle qui utilise un changement d'échelle sur la couche mince voir [Favini A., Labbas R., Lemrabet K. and Maingot S.]. Elle permet d'obtenir un problème direct et simplifié où l'effet de la couche mince se retrouve complètement décrit par l'opérateur d'impédance. Les techniques employées sont essentiellement basées sur le calcul fonctionnel de Dunford, la théorie des semi-groupes, l'interpolation et quelques idées des travaux de [R. Labbas, Thèse d'état], [Dore G., Favini A., Labbas R., Lemrabet K. and Maingot S.] et [Favini A., Labbas R., Maingot S., Tanabe H., Yagi A.]. On obtient des résultats nouveaux d'existence, d'unicité et de régularité maximale dans les espaces de Hölder pour fixé et ensuite on étudie le passage à la limite quand δ→0 de (Pδ)δ>0. Ce travail complète ainsi ce qui a été obtenu dans le cadre Lp, voir [Favini A., Labbas R., Lemrabet K. and Maingot S.].
577

Amélioration de maillages par des méthodes de sous-gradient

Cua, Charles 23 October 1985 (has links) (PDF)
On étudie un aspect du problème général d'obtention des maillages de type éléments finis. On cherche à améliorer un maillage existant sans changer la topologie actuelle des tétraèdres. On propose des méthodes générales et algorithmiques d'optimisation classique de type méthodes de sous-gradient. On applique ces méthodes à des cas d'école et à des cas réels
578

Analyse en composantes principales et interpolation de processus en vue d'applications en hydrométéorologie : méthodes et simulation

Bouhaddou, Omar 01 March 1984 (has links) (PDF)
Nous étudions une méthode d'interpolation de processus fondée sur l'analyse en composantes principales. Nous la situons par rapport à des techniques courantes telles le krigeage. Afin de cerner ses possibilités d'utilisation pratiques (en particulier en vue d'applications en hydrometeorologie) nous proposons un plan d'expérimentation de la méthode par simulation.
579

Quelques propriétés et algorithmes de calcul formel des polynômes symétriques et antisymetriques

Galli, Alain 11 May 1979 (has links) (PDF)
.
580

Résultats de théorie abstraite des modèles dans le cadre des institutions : vers la combinaison de logiques.

Barbier, Fabrice 05 December 2005 (has links) (PDF)
De nombreux travaux ont montré l'importance de l'interpolation de Craig pour la structuration et la modularité des spécifications de type axiomatique. En vue d'en donner des conditions suffisantes dans un cadre théorique adapté à l'informatique, nous nous sommes intéressé à une propriété équivalente à l'interpolation de Craig dans le cadre de la théorie standard des modèles : la consistance de Robinson. L'étude de cette dernière propriété nous a amené à généraliser dans une spécialisation des institutions les notions classiques de diagrammes complets et de morphismes élémentaires. Ceci nous a alors permis de généraliser quelques résultats classiques de théorie des modèles tels que les théorèmes de Löwenheim-Skolem ou l'union de chaînes de Tarski. En fin, les constructeurs de formules étant explicites dans notre cadre théorique, nous nous sommes naturellemant intéressés à la combinaison de logiques et à la préservation de l'interpolation de Craig et de la consistance de Robinson.

Page generated in 0.0164 seconds