• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 9
  • 2
  • Tagged with
  • 22
  • 22
  • 12
  • 9
  • 9
  • 6
  • 5
  • 5
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Evolution quantitative et qualitative des protocoles d'essais cliniques présentés devant un comité d'éthique français / Quantitative and qualitative evolution of clinical trials protocols submitted to a French ethic commitee

Gautier, Isabelle 20 December 2017 (has links)
La qualité méthodologique en recherche clinique est une exigence garantissant la fiabilité des expérimentations médicales, au bénéfice des praticiens comme à celui des patients. Cette thèse a pour objectif de mesurer la qualité des essais thérapeutiques présentés au Comité d’Ethique de la Région Sud-Est II et son évolution sur des périodes pluriannuelles. Deux études transversales exhaustives ont été réalisées. La première a pour objet de mesurer l’impact du Règlement Pédiatrique Européen de 2007 sur l’évolution qualitative et quantitative de essais pédiatriques, compte tenu du faible nombre de recherches dans cette population. La deuxième analyse le niveau de qualité des essais contrôlés randomisés en utilisant le score de Jadad et identifie les éléments qui l’influencent. L'outil de travail est constitué des protocoles détenus par le Comité d’Ethique, et non de publications de la littérature. Le concept de qualité et ses deux composantes, éthique et fiabilité scientifique, a été étudié. Les différents outils proposés par les experts pour mesurer la qualité ont été expertisés, ce qui a permis la sélection de l’échelle méthodologiquement la plus adaptée. Le niveau de qualité observé pour les essais pédiatriques est élevé, mais n’a pas été influencé par le Règlement Européen, qui a pu, cependant, entraîner une progression forte du nombre des essais pédiatriques, pouvant être l’indice d’un développement de la recherche en pédiatrie. Concernant les essais contrôlés randomisés, deux marqueurs sont associés à un haut score qualité des protocoles, identifiés après une analyse multivariée : le caractère multicentrique de la recherche et les essais portant sur les médicaments. / Methodological quality in clinical research is mandatory to ensure the reliability of medical experiments, with benefits for both practitioners and patients. This PhD thesis aims at measuring the quality of therapeutic trials submitted to the Ethics Committee of the South-East Region II, and its evolution over several years. Two comprehensive cross-sectional studies were conducted. The first explore the field of pediatric research, and aims at measuring the impact of the introduction of European Pediatric Regulation in 2007, on the evolution of the quantity and quality of trials in this field, given the low number of research in this population. The second analyzes the quality of randomized controlled trials using the JADAD score and seeks to identify the elements that influence it. These studies were conducted using the protocols submitted to the Ethics Committee, and not from a literature analysis. The concept of quality was first studied based on their ethical and scientific reliability. The various assessing tools proposed by the experts to measure the quality were appraised, which allowed the selection of the most methodologically scale adapted to this study. Conclusion: we show that the level of quality observed for pediatric trials is high, but was not influenced by the introduction of the European Regulation, which could, on the other hand, have led to an important increase in the number of pediatric trials. Regarding randomized controlled trials, a multivariate analysis allowed the identification of two statistically significant markers associated with high quality score of the protocol: the multicentric character of the research, and the drugs trials.
12

Evaluation de la qualité des modèles 3D de bâtiments en photogrammétrie numérique aérienne / Quality assessment of 3D building models in airborne digital photogrammetry

Mohamed, Mostafa 30 September 2013 (has links)
Les méthodes et les outils de génération automatique ou semi-automatique de modèles 3D urbains se développent rapidement, mais l’évaluation de la qualité de ces modèles et des données spatiales sur lesquelles ils s’appuient n’est que rarement abordée. Notre objectif est de proposer une approche multidimensionnelle standard pour évaluer la qualité des modèles 3D de bâtiments en 1D, 2D et 3D. Deux méthodes sont présentées pour l'évaluation 1D. La première se base sur l’analyse de l’erreur moyenne quadratique en X, Y et Z. La deuxième solution s’appuie sur les instructions parues au Journal Officiel du 30 octobre 2003 et exigeant le respect de classes de précisions. L'approche que nous proposons se penche sur le calcul d'indices de qualité fréquemment rencontrés dans la littérature. L'originalité de notre approche réside dans le fait que les modèles employés en entrée ne se limitent pas au mode raster, mais s'étendent au mode vecteur. Il semble évident que les modèles définis en mode vecteur s'avèrent plus fidèles à la réalité qu'en mode raster. Les indices de qualité 2D et 3D calculés montrent que les modèles 3D de bâtiments extraits à partir des couples d’images stéréoscopiques sont cohérents. Les modèles reconstruits à partir du LiDAR sont moins exacts. En conclusion, cette thèse a abouti à l’élaboration d’une approche d’évaluation multidimensionnelle de bâtiments en 3D. L’approche proposée dans cette thèse est adaptée et opérationnelle pour des modèles vectoriels et rasters de bâtiments 3D simplifiés. / Methods and tools for automatic or semi-automatic generation of 3D city models are developing rapidly, but the quality assessment of these models and spatial data are rarely addressed. A comprehensive evaluation in 3D is not trivial. Our goal is to provide a standard multidimensional approach for assessing the quality of 3D models of buildings in 1D, 2D and 3D. Two methods are applied. The first one is done by computing Root Mean Square Errors (RMSE) based on the deviations between both models (reference and test), in X, Y and Z directions. Second method is performed by applying the French legal text (arrêté sur les classes de précision) that is based on the instructions published in the Official Journal from October 30, 2003. These indices pass through the space discretization in pixels or voxels for measuring the degree of superposition of 2D or 3D objects. The originality of this approach is built on the fact that the models used as input are not only limited to raster format, but also extended to vector format. The results of statistics of the quality indices calculated for assessing the building models show that the 3D building models extracted from stereo-pairs are close from each other. Also, the models reconstructed from LiDAR are less accurate than the models reconstructed from aerial images alone. In conclusion, the quality evaluation of 3D building models has been achieved by applying the proposed multi-dimensional approach. This approach is suitable for simplified 3D building vector models created from aerial images and/or LiDAR datasets.
13

Evaluation de la qualité des images couleur. Application à la recherche & à l'amélioration des images / Color image quality assessment application to retrieval and improve images

Ouni, Sonia 28 November 2012 (has links)
Le domaine de recherche dans l'évaluation objective de la qualité des images couleur a connu un regain d'intérêt ces dernières années. Les travaux sont essentiellement dictés par l'avènement des images numérique et par les nouveaux besoins en codage d'images (compression, transmission, restauration, indexation,…). Jusqu'à présent la meilleure évaluation reste visuelle (donc subjective) soit par des techniques psychophysiques soit par évaluation experte. Donc, il est utile, voire nécessaire, de mettre en place des critères et des mesures objectifs qui produisent automatiquement des notes de qualité se rapprochant le plus possible des notes de qualité données par l'évaluation subjective. Nous proposons, tout d'abort, une nouvelle métrique avec référence d'évaluation de la qualité des images couleur, nommée Delta E globale, se base sur l'aspect couleur et intègre les caractéristiques du système visuel humain (SVH). Les performances ont été mesurées dans deux domaines d'application la compression et la restauration. Les expérimentations réalisées montrent une corrélation importante entre les résultats obtenus et l'appréciation subjective. Ensuite, nous proposons une nouvelle approche d'évaluation sans référence de la qualité des images couleur en se basant sur les réseaux de neurones : compte tenu du caractère multidimensionnel de la qualité d'images, une quantification de la qualité a été proposée en se basant sur un ensemble d'attributs formant le descripteur PN (Précision, Naturalité). La précision traduit la netteté et la clarté. Quant à la naturalité, elle traduit la luminosité et la couleur. Pour modéliser le critère de la couleur, trois métriques sans référence ont été définies afin de détecter la couleur dominante dans l'image, la proportion de cette couleur et sa dispersion spatiale. Cette approche se base sur les réseaux de neurones afin d'imiter la perception du SVH. Deux variantes de cette approche ont été expérimentées (directe et progressive). Les résultats obtenus ont montré la performance de la variante progressive par rapport à la variante directe. L'application de l'approche proposée dans deux domaines : dans le contexte de la restauration, cette approche a servi comme un critère d'arrêt automatique pour les algorithmes de restauration. De plus, nous l'avons utilisé au sein d'un système d'estimation de la qualité d'images afin de détecter automatiquement le type de dégradation contenu dans une image. Dans le contexte de l'indexation et de la recherche d'images, l'approche proposée a servi d'introduire la qualité des images de la base comme index. Les résultats expérimentaux ont montré l'amélioration des performances du système de recherche d'images par le contenu en utilisant l'index qualité ou en réalisant un raffinement des résultats avec le critère de qualité. / The research area in the objective quality assessment of the color images has been a renewed interest in recent years. The work is primarily driven by the advent of digital pictures and additional needs in image coding (compression, transmission, recovery, indexing,...). So far the best evaluation is visual (hence subjective) or by psychophysical techniques or by expert evaluation. Therefore, it is useful, even necessary, to establish criteria and objectives that automatically measures quality scores closest possible quality scores given by the subjective evaluation. We propose, firstly, a new full reference metric to assess the quality of color images, called overall Delta E, based on color appearance and incorporates the features of the human visual system (HVS). Performance was measured in two areas of application compression and restoration. The experiments carried out show a significant correlation between the results and subjective assessment.Then, we propose a new no reference quality assessmenent color images approach based on neural networks: given the multidimensional nature of image quality, a quantification of quality has been proposed, based on a set of attributes forming the descriptor UN (Utility, Naturalness). Accuracy reflects the sharpness and clarity. As for naturality, it reflects the brightness and color. To model the criterion of color, three no reference metrics were defined to detect the dominant color in the image, the proportion of that color and its spatial dispersion. This approach is based on neural networks to mimic the HVS perception. Two variants of this approach have been tried (direct and progressive). The results showed the performance of the progressive variant compared to the direct variant. The application of the proposed approach in two areas: in the context of restoration, this approach has served as a stopping criterion for automatic restoration algorithms. In addition, we have used in a system for estimating the quality of images to automatically detect the type of content in an image degradation. In the context of indexing and image retrieval, the proposed approach was used to introduce the quality of images in the database as an index. The experimental results showed the improvement of system performance image search by content by using the index or by making a quality refinement results with the quality criterion.
14

Image quality assessment of High Dynamic Range and Wide Color Gamut images / Estimation de la qualité d’image High Dynamic Range et Wide Color Gamut

Rousselot, Maxime 20 September 2019 (has links)
Ces dernières années, les technologies d’écran se sont considérablement améliorées. Par exemple, le contraste des écrans à plage dynamique élevée (HDR) dépasse de loin la capacité d’un écran conventionnel. De plus, un écran à gamut de couleur étendu (WCG) peut couvrir un espace colorimétrique plus grand que jamais. L'évaluation de la qualité de ces nouveaux contenus est devenue un domaine de recherche actif, les métriques de qualité SDR classiques n'étant pas adaptées. Cependant, les études les plus récentes négligent souvent une caractéristique importante: les chrominances. En effet, les bases de données existantes contiennent des images HDR avec un gamut de couleur standard, négligeant ainsi l’augmentation de l’espace colorimétrique due au WCG et les artefacts chromatiques. La plupart des mesures de qualité HDR objectives non plus ne prennent pas en compte ces artefacts. Pour surmonter cette problématique, dans cette thèse, nous proposons deux nouvelles bases de données HDR/WCG annotés avec des scores subjectifs présentant des artefacts chromatique réaliste. En utilisant ces bases de données, nous explorons trois solutions pour créer des métriques HDR/WCG: l'adaptation des métrics de qualité SDR, l’extension colorimétrique d’une métrique HDR connue appelée HDR-VDP-2 et, enfin, la fusion de diverses métriques de qualité et de features colorimétriques. Cette dernière métrique présente de très bonnes performances pour prédire la qualité tout en étant sensible aux distorsions chromatiques. / To improve their ability to display astonishing images, screen technologies have been greatly evolving. For example, the contrast of high dynamic range rendering systems far exceed the capacity of a conventional display. Moreover, a Wide Color gamut display can cover a bigger color space than ever. Assessing the quality of these new content has become an active field of research as classical SDR quality metrics are not adapted. However, state-of-the-art studies often neglect one important image characteristics: chrominances. Indeed, previous databases contain HDR images with a standard gamut thus neglecting the increase of color space due to WCG. Due to their gamut, these databases are less prone to contain chromatic artifacts than WCG content. Moreover, most existing HDR objective quality metrics only consider luminance and are not considering chromatic artifacts. To overcome this problematic, in this thesis, we have created two HDR / WCG databases with annotated subjective scores. We focus on the creation of a realistic chromatic artifacts that can arise during compression. In addition, using these databases, we explore three solutions to create HDR / WCG metrics. First, we propose a method to adapt SDR metrics to HDR / WCG content. Then, we proposed an extension of a well-known HDR metric called HDR-VDP-2. Finally, we create a new metric based on the merger of various quality metric and color features. This last metric presents very good performance to predict quality while being sensitive to chromatic distortion.
15

Preprocessing and analysis of environmental data : Application to the water quality assessment of Mexican rivers / Pré-traitement et analyse des données environnementales : application à l'évaluation de la qualité de l'eau des rivières mexicaines

Serrano Balderas, Eva Carmina 31 January 2017 (has links)
Les données acquises lors des surveillances environnementales peuvent être sujettes à différents types d'anomalies (i.e., données incomplètes, inconsistantes, inexactes ou aberrantes). Ces anomalies qui entachent la qualité des données environnementales peuvent avoir de graves conséquences lors de l'interprétation des résultats et l’évaluation des écosystèmes. Le choix des méthodes de prétraitement des données est alors crucial pour la validité des résultats d'analyses statistiques et il est assez mal défini. Pour étudier cette question, la thèse s'est concentrée sur l’acquisition des données et sur les protocoles de prétraitement des données afin de garantir la validité des résultats d'analyse des données, notamment dans le but de recommander la séquence de tâches de prétraitement la plus adaptée. Nous proposons de maîtriser l'intégralité du processus de production des données, de leur collecte sur le terrain et à leur analyse, et dans le cas de l'évaluation de la qualité de l'eau, il s’agit des étapes d'analyse chimique et hydrobiologique des échantillons produisant ainsi les données qui ont été par la suite analysées par un ensemble de méthodes statistiques et de fouille de données. En particulier, les contributions multidisciplinaires de la thèse sont : (1) en chimie de l'eau: une procédure méthodologique permettant de déterminer les quantités de pesticides organochlorés dans des échantillons d'eau collectés sur le terrain en utilisant les techniques SPE–GC-ECD (Solid Phase Extraction - Gas Chromatography - Electron Capture Detector) ; (2) en hydrobiologie : une procédure méthodologique pour évaluer la qualité de l’eau dans quatre rivières Mexicaines en utilisant des indicateurs biologiques basés sur des macroinvertébrés ; (3) en science des données : une méthode pour évaluer et guider le choix des procédures de prétraitement des données produites lors des deux précédentes étapes ainsi que leur analyse ; et enfin, (4) le développement d’un environnement analytique intégré sous la forme d’une application développée en R pour l’analyse statistique des données environnementales en général et l’analyse de la qualité de l’eau en particulier. Enfin, nous avons appliqué nos propositions sur le cas spécifique de l’évaluation de la qualité de l’eau des rivières Mexicaines Tula, Tamazula, Humaya et Culiacan dans le cadre de cette thèse qui a été menée en partie au Mexique et en France. / Data obtained from environmental surveys may be prone to have different anomalies (i.e., incomplete, inconsistent, inaccurate or outlying data). These anomalies affect the quality of environmental data and can have considerable consequences when assessing environmental ecosystems. Selection of data preprocessing procedures is crucial to validate the results of statistical analysis however, such selection is badly defined. To address this question, the thesis focused on data acquisition and data preprocessing protocols in order to ensure the validity of the results of data analysis mainly, to recommend the most suitable sequence of preprocessing tasks. We propose to control every step in the data production process, from their collection on the field to their analysis. In the case of water quality assessment, it comes to the steps of chemical and hydrobiological analysis of samples producing data that were subsequently analyzed by a set of statistical and data mining methods. The multidisciplinary contributions of the thesis are: (1) in environmental chemistry: a methodological procedure to determine the content of organochlorine pesticides in water samples using the SPE-GC-ECD (Solid Phase Extraction – Gas Chromatography – Electron Capture Detector) techniques; (2) in hydrobiology: a methodological procedure to assess the quality of water on four Mexican rivers using macroinvertebrates-based biological indices; (3) in data sciences: a method to assess and guide on the selection of preprocessing procedures for data produced from the two previous steps as well as their analysis; and (4) the development of a fully integrated analytics environment in R for statistical analysis of environmental data in general, and for water quality data analytics, in particular. Finally, within the context of this thesis that was developed between Mexico and France, we have applied our methodological approaches on the specific case of water quality assessment of the Mexican rivers Tula, Tamazula, Humaya and Culiacan.
16

Fusion d'images de résolutions spatiales différentes

Thomas, Claire 11 December 2006 (has links) (PDF)
Les satellites de type SPOT, Ikonos ou Quickbird fournissent des images possédant des caractéristiques différentes: d'une part des images de basse résolution spectrale et de haute résolution spatiale, et d'autre part, des images de caractéristiques opposées, c'est-à-dire de haute résolution spectrale combinée à une basse résolution spatiale. De nombreuses applications nécessitent de combiner ces hautes résolutions spatiales et spectrales. Ce travail s'insère dans la synthèse d'images multispectrales à haute résolution au moyen de la fusion d'images. La constatation de lacunes dans la littérature à propos de l'évaluation de la qualité, a mené à l'établissement d'un protocole d'évaluation de la qualité, correspondant à une généralisation de deux travaux précédents. Une étude empirique sur l'évolution de la qualité des produits de fusion dans les échelles complète ce protocole. Une catégorisation des nombreuses distances de la littérature est proposée. Nous ajoutons une nouvelle distance pour caractériser la qualité géométrique des produits de fusion basée sur la fonction de transfert de modulation, que nous avons validée grâce à l'imagerie Ikonos et à son application à quelques méthodes de fusion connues. La sélection d'une série de distances sous forme de bilan de qualité est discutée dans le but d'obtenir une idée de la qualité qui soit la plus complète possible. Puisque nous disposons des outils nécessaires à l'évaluation de la qualité, nous pouvons désormais les exploiter pour le développement de nouvelles méthodes de fusion. Nous avons choisi le concept ARSIS comme cadre de développement car, d'une part, ses différentes implantations donnent généralement de bons bilans de qualité, d'autre part, leur qualité visuelle a été parfois controversée. Une campagne d'évaluation de la qualité visuelle des produits de fusion a permis de répertorier, de classer puis d'expliquer la formation des artefacts de quelques implantations ARSIS. L'étude critique de ces méthodes a mené au développement de trois nouvelles méthodes de fusion qui s'appuient aussi sur des outils extérieurs au concept. Ces nouvelles méthodes sont testées lors d'une seconde campagne d'expérimentation. Une des nouvelles méthodes offre de meilleurs résultats que la méthode de référence choisie. Les expérimentateurs l'ont déclarée acceptable et recommandable pour une utilisation dans le cadre d'une exploitation opérationnelle au sein du ministère de la défense.
17

Modèles Numériques pour l'Évaluation Objective de la Qualité d'Images Médicales

Zhangh-Ge, Lu 28 November 2012 (has links) (PDF)
L'évaluation de la qualité des images médicales est essentielle pour optimiser un système d'imagerie. Dans le cadre d'approches basées sur la tâche, les modèles numériques proposés ont des limites: pour la tâche de localisation, la plupart des modèles ont besoin de la connaissance a priori des paramètres du signal; les modèles dédiés à la détection de signaux dans une image 3D se limitent aux signaux symétriques. Dans cette thèse, nous proposons de nouveaux modèles numériques: le CJO pour la détection sur une coupe d'un signal dont l'amplitude, l'orientation et la taille ne sont pas connus a priori; le PCJO et le msPCJO pour la détection-localisation de plusieurs signaux paramétriques d'amplitude, d'orientation, de taille et d'emplacement variables sur une coupe (PCJO) ou en 3D (msPCJO). Deux expériences ont été conçues et mises en oeuvre pour la validation de nos modèles sur des images IRM présentant des lésions de SEP. Les résultats indiquent que nos modèles sont performants et prometteurs pour l'évaluation de systèmes d'imagerie.
18

Évaluation et requêtage de données multisources : une approche guidée par la préférence et la qualité des données : application aux campagnes marketing B2B dans les bases de données de prospection / A novel quality-based, preference-driven data evaluation and brokering : approaches in multisource environments : application to marketing prospection databases

Ben Hassine, Soumaya 10 October 2014 (has links)
Avec l’avènement du traitement distribué et l’utilisation accrue des services web inter et intra organisationnels alimentée par la disponibilité des connexions réseaux à faibles coûts, les données multisources partagées ont de plus en plus envahi les systèmes d’informations. Ceci a induit, dans un premier temps, le changement de leurs architectures du centralisé au distribué en passant par le coopératif et le fédéré ; et dans un deuxième temps, une panoplie de problèmes d’exploitation allant du traitement des incohérences des données doubles à la synchronisation des données distribuées. C’est le cas des bases de prospection marketing où les données sont enrichies par des fichiers provenant de différents fournisseurs.Nous nous intéressons au cadre particulier de construction de fichiers de prospection pour la réalisation de campagnes marketing B-to-B, tâche traitée manuellement par les experts métier. Nous visons alors à modéliser le raisonnement de brokers humains, afin d’optimiser et d’automatiser la sélection du « plan fichier » à partir d’un ensemble de données d’enrichissement multisources. L’optimisation en question s’exprimera en termes de gain (coût, qualité) des données sélectionnées, le coût se limitant à l’unique considération du prix d’utilisation de ces données.Ce mémoire présente une triple contribution quant à la gestion des bases de données multisources. La première contribution concerne l’évaluation rigoureuse de la qualité des données multisources. La deuxième contribution porte sur la modélisation et l’agrégation préférentielle des critères d’évaluation qualité par l’intégrale de Choquet. La troisième contribution concerne BrokerACO, un prototype d’automatisation et d’optimisation du brokering multisources basé sur l’algorithme heuristique d’optimisation par les colonies de fourmis (ACO) et dont la Pareto-optimalité de la solution est assurée par l’utilisation de la fonction d’agrégation des préférences des utilisateurs définie dans la deuxième contribution. L’efficacité du prototype est montrée par l’analyse de campagnes marketing tests effectuées sur des données réelles de prospection. / In Business-to-Business (B-to-B) marketing campaigns, manufacturing “the highest volume of sales at the lowest cost” and achieving the best return on investment (ROI) score is a significant challenge. ROI performance depends on a set of subjective and objective factors such as dialogue strategy, invested budget, marketing technology and organisation, and above all data and, particularly, data quality. However, data issues in marketing databases are overwhelming, leading to insufficient target knowledge that handicaps B-to-B salespersons when interacting with prospects. B-to-B prospection data is indeed mainly structured through a set of independent, heterogeneous, separate and sometimes overlapping files that form a messy multisource prospect selection environment. Data quality thus appears as a crucial issue when dealing with prospection databases. Moreover, beyond data quality, the ROI metric mainly depends on campaigns costs. Given the vagueness of (direct and indirect) cost definition, we limit our focus to price considerations.Price and quality thus define the fundamental constraints data marketers consider when designing a marketing campaign file, as they typically look for the "best-qualified selection at the lowest price". However, this goal is not always reachable and compromises often have to be defined. Compromise must first be modelled and formalized, and then deployed for multisource selection issues. In this thesis, we propose a preference-driven selection approach for multisource environments that aims at: 1) modelling and quantifying decision makers’ preferences, and 2) defining and optimizing a selection routine based on these preferences. Concretely, we first deal with the data marketer’s quality preference modelling by appraising multisource data using robust evaluation criteria (quality dimensions) that are rigorously summarized into a global quality score. Based on this global quality score and data price, we exploit in a second step a preference-based selection algorithm to return "the best qualified records bearing the lowest possible price". An optimisation algorithm, BrokerACO, is finally run to generate the best selection result.
19

Représentation d'images hiérarchique multi-critère / Hierarchical multi-feature image representation

Randrianasoa, Tianatahina Jimmy Francky 08 December 2017 (has links)
La segmentation est une tâche cruciale en analyse d’images. L’évolution des capteurs d’acquisition induit de nouvelles images de résolution élevée, contenant des objets hétérogènes. Il est aussi devenu courant d’obtenir des images d’une même scène à partir de plusieurs sources. Ceci rend difficile l’utilisation des méthodes de segmentation classiques. Les approches de segmentation hiérarchiques fournissent des solutions potentielles à ce problème. Ainsi, l’Arbre Binaire de Partitions (BPT) est une structure de données représentant le contenu d’une image à différentes échelles. Sa construction est généralement mono-critère (i.e. une image, une métrique) et fusionne progressivement des régions connexes similaires. Cependant, la métrique doit être définie a priori par l’utilisateur, et la gestion de plusieurs images se fait en regroupant de multiples informations issues de plusieurs bandes spectrales dans une seule métrique. Notre première contribution est une approche pour la construction multicritère d’un BPT. Elle établit un consensus entre plusieurs métriques, permettant d’obtenir un espace de segmentation hiérarchique unifiée. Par ailleurs, peu de travaux se sont intéressés à l’évaluation de ces structures hiérarchiques. Notre seconde contribution est une approche évaluant la qualité des BPTs en se basant sur l’analyse intrinsèque et extrinsèque, suivant des exemples issus de vérités-terrains. Nous discutons de l’utilité de cette approche pour l’évaluation d’un BPT donné mais aussi de la détermination de la combinaison de paramètres adéquats pour une application précise. Des expérimentations sur des images satellitaires mettent en évidence la pertinence de ces approches en segmentation d’images. / Segmentation is a crucial task in image analysis. Novel acquisition devices bring new images with higher resolutions, containing more heterogeneous objects. It becomes also easier to get many images of an area from different sources. This phenomenon is encountered in many domains (e.g. remote sensing, medical imaging) making difficult the use of classical image segmentation methods. Hierarchical segmentation approaches provide solutions to such issues. Particularly, the Binary Partition Tree (BPT) is a hierarchical data-structure modeling an image content at different scales. It is built in a mono-feature way (i.e. one image, one metric) by merging progressively similar connected regions. However, the metric has to be carefully thought by the user and the handling of several images is generally dealt with by gathering multiple information provided by various spectral bands into a single metric. Our first contribution is a generalized framework for the BPT construction in a multi-feature way. It relies on a strategy setting up a consensus between many metrics, allowing us to obtain a unified hierarchical segmentation space. Surprisingly, few works were devoted to the evaluation of hierarchical structures. Our second contribution is a framework for evaluating the quality of BPTs relying both on intrinsic and extrinsic quality analysis based on ground-truth examples. We also discuss about the use of this evaluation framework both for evaluating the quality of a given BPT and for determining which BPT should be built for a given application. Experiments using satellite images emphasize the relevance of the proposed frameworks in the context of image segmentation.
20

Évaluation de la qualité des documents anciens numérisés

Rabeux, Vincent 06 March 2013 (has links)
Les travaux de recherche présentés dans ce manuscrit décrivent plusieurs apports au thème de l’évaluation de la qualité d’images de documents numérisés. Pour cela nous proposons de nouveaux descripteurs permettant de quantifier les dégradations les plus couramment rencontrées sur les images de documents numérisés. Nous proposons également une méthodologie s’appuyant sur le calcul de ces descripteurs et permettant de prédire les performances d’algorithmes de traitement et d’analyse d’images de documents. Les descripteurs sont définis en analysant l’influence des dégradations sur les performances de différents algorithmes, puis utilisés pour créer des modèles de prédiction à l’aide de régresseurs statistiques. La pertinence, des descripteurs proposés et de la méthodologie de prédiction, est validée de plusieurs façons. Premièrement, par la prédiction des performances de onze algorithmes de binarisation. Deuxièmement par la création d’un processus automatique de sélection de l’algorithme de binarisation le plus performant pour chaque image. Puis pour finir, par la prédiction des performances de deux OCRs en fonction de l’importance du défaut de transparence (diffusion de l’encre du recto sur le verso d’un document). Ce travail sur la prédiction des performances d’algorithmes est aussi l’occasion d’aborder les problèmes scientifiques liés à la création de vérités-terrains et d’évaluation de performances. / This PhD. thesis deals with quality evaluation of digitized document images. In order to measure the quality of a document image, we propose to create new features dedicated to the characterization of most commons degradations. We also propose to use these features to create prediction models able to predict the performances of different types of document analysis algorithms. The features are defined by analyzing the impact of a specific degradation on the results of an algorithm and then used to create statistical regressors.The relevance of the proposed features and predictions models, is analyzed in several experimentations. The first one aims to predict the performance of different binarization methods. The second experiment aims to create an automatic procedure able to select the best binarization method for each image. At last, the third experiment aims to create a prediction model for two commonly used OCRs. This work on performance prediction algorithms is also an opportunity to discuss the scientific problems of creating ground-truth for performance evaluation.

Page generated in 0.5377 seconds