Return to search

Annotation automatique d'images à partir de leur contenu visuel et des régions textuelles associées. Application dans le contexte d'un catalogue de santé en ligne / Automatic image annotation based on their visual content and image-related textual regions. Applications in the context of an online health catalogue

À l’heure actuelle, l’Internet est devenu une des sources d’information les plus importantes dans des nombreux domaines, dont le domaine de la santé. Les images médicales portent des informations importantes pour le diagnostic, l’enseignement et la recherche, des informations parfois difficiles à décrire textuellement. Avec le développement des technologies d’acquisition, les images médicales sont de plus en plus nombreuses dans les bases d’images et dans les documents en ligne. Vu l’importance des images médicales pour le diagnostic, l’enseignement et même l’éducation civique, des méthodes et des outils efficaces d’annotation, d’indexation et de recherche des images médicales sont nécessaires. Dans ce contexte, nous proposons une architecture pour l’annotation des images médicales incluses dans des documents de santé en ligne. Notre système extrait des informations médicales spécifiques (i.e. modalité médicale, région anatomique) à partir de plusieurs sources, et combine ces informations pour annoter les images. Cette annotation est nécessaire pour pouvoir retrouver les images à l’intérieur des documents sur le web. Dans nos expérimentations, nous avons implémenté deux approches (chacune basée sur une source d’information) : une première orientée vers le contenu des images, et une deuxième orientée sur le contexte des images (régions textuelles associées aux images). / Today, Internet has become a major source of information in many areas, including health. Medical images are carrying crucial information for diagnostic, teaching and research, moste of the time this information being very difficult to describe using only text. In this context, we are proposing architecture for the annotation of medical images included in online health documents. Our system extracts specific medical information (modality, anatomical regions ...) from several sources and combines this information to annotate the images. This annotation is necessary to be able to search for images inside documents. We implemented two distinct approaches (each based on a different type of information) : one oriented towards the image content, and a second oriented on the image context (image-related textual regions).

Identiferoai:union.ndltd.org:theses.fr/2007ISAM0013
Date07 November 2007
CreatorsFlorea, Filip Ionut
ContributorsRouen, INSA, Universitatea politehnica (Bucarest), Bensrhair, Abdelaziz, Buzuloiu, Vasile
Source SetsDépôt national des thèses électroniques françaises
LanguageFrench
Detected LanguageFrench
TypeElectronic Thesis or Dissertation, Text

Page generated in 0.0035 seconds