• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 24
  • 2
  • 1
  • Tagged with
  • 457
  • 457
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Fuzzy logic pattern in text and image data analysis / Motifs de la logique floue pour l'analyse des sentiments et en imagerie

Nderu, Lawrence 14 December 2015 (has links)
La logique floue est aujourd'hui universellement admise comme discipline ayant fait ses preuves à l'intersection des mathématiques, de l'informatique, des sciences cognitives et de l'Intelligence Artificielle. En termes formels, la logique floue est une extension de la logique classique ayant pour but de mesurer la flexibilité du raisonnement humain, et permettant la modélisation des imperfections des données, en particulier, les deux imperfections les plus fréquentes : l'imprécision et l'incertitude. En outre, la logique floue ignore le principe du tiers exclu et celui de non-contradiction.Nous n'allons pas, dans ce court résumé de la thèse, reprendre et définir tous les concepts de cet outil devenu désormais classique : fonction d'appartenance, degré d'appartenance, variable linguistique, opérateurs flous, fuzzyfication, défuzzication, raisonnement approximatif … L'un des concepts de base de cette logique est la notion de possibilité qui permet de modéliser la fonction d'appartenance d'un concept. La possibilité d'un événement diffère de sa probabilité dans la mesure où elle n'est pas intimement liée à celle de l'événement contraire. Ainsi, par exemple, si la probabilité qu'il pleuve demain est de 0,6, alors la probabilité qu'il ne pleuve pas doit être égale à 0,4 tandis que les possibilités qu'il pleuve demain ou non peuvent toutes les deux être égales à 1 (ou encore deux autres valeurs dont la somme peut dépasser 1).Dans le domaine de l'informatique, l'apprentissage non supervisé (ou « clustering ») est une méthode d'apprentissage automatique quasi-autonome. Il s'agit pour un algorithme de diviser un groupe de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène. Une fois que l'algorithme propose ces différents regroupements, le rôle de l'expert ou du groupe d'experts est alors de nommer chaque groupe, éventuellement diviser certains ou de regrouper certains, afin de créer des classes. Les classes deviennent réelles une fois que l'algorithme a fonctionné et que l'expert les a nommées.Encore une fois, notre travail, comme tous les travaux du domaine, vise à adapter les modèles traditionnelles d'apprentissage et/ou de raisonnement à l'imprécision du monde réel. L'analyse des sentiments à partir de ressources textuelles et les images dans le cadre de l'agriculture de précision nous ont permis d'illustrer nos hypothèses. L'introduction par le biais de notre travail du concept de motifs flous est sans aucun doute une contribution majeure.Ce travail a donné lieu à trois contributions majeures : / Standard (type-1) fuzzy sets were introduced to mimic human reasoning in its use of approximate information and uncertainty to generate decisions. Since knowledge can be expressed in a natural way by using fuzzy sets, many decision problems can be greatly simpli_ed. However, standard type-1 fuzzy sets have limitations when it comes to modelinghuman decision making.When Zadeh introduced the idea of higher types of fuzzy sets called type-n fuzzy sets andtype-2 fuzzy sets, the objective was to solve problems associated with modeling uncertainty using crisp membership functions of type-1 fuzzy sets. The extra dimension presented by type-2 fuzzy sets provides more design freedom and exibility than type-1 fuzzy sets. The ability of FLS to be hybridized with other methods extended the usage of Fuzzy LogicSystems (FLS) in many application domains. In architecture and software engineering the concept of patterns was introduced as a way of creating general repeatable solutions to commonly occurring problems in the respective_elds. In software engineering for example, the design pattern is not a _nished design that can be transformed directly into code. It is a description or template on how to solve a problem that can be used in many di_erent situations. This thesis introduces the novel concept of fuzzy patterns in T2 FLS. Micro-blogs and social media platforms are now considered among the most popular forms of online communication. Through a platform like TwitterTM much information reecting people's opinions and attitudes is published and shared among users on a daily basis. This has brought great opportunities to companies interested in tracking and monitoring the reputation of their brands and businesses, and to policy makers and politicians to support their assessment of public opinions about their policies or political issues. Thisresearch demonstrates the importance of the neutral category in sentiment polarity analysis, it then introduces the concept of fuzzy patterns in sentiment polarity analysis. The xvii Interval Type-2 Fuzzy Set (IT2 FS), were proposed by reference [Men07c] to model words. This is because it is characterized by its Footprint Of Uncertainty (FOU). The FOU providesa potential to capture word uncertainties. The use of IT2 FS in polarity sentiment classi_cation is demonstrated. The importance of the neutral category is demonstrated in both supervised and unsupervised learning methods. In the _nal section the concept of fuzzy patterns in contrast
162

Extraction de caractéristiques et apprentissage statistique pour l'imagerie biomédicale cellulaire et tissulaire / Feature extraction and machine learning for cell and tissue biomedical imaging

Zubiolo, Alexis 11 December 2015 (has links)
L'objectif de cette thèse est de s'intéresser à la classification de cellules et de tissus au sein d'images d'origine biomédicales en s'appuyant sur des critères morphologiques. Le but est de permettre aux médecins et aux biologistes de mieux comprendre les lois qui régissent certains phénomènes biologiques. Ce travail se décompose en trois principales parties correspondant aux trois problèmes typiques des divers domaines de l'imagerie biomédicale abordés. L'objet de la première est l'analyse de vidéos d'endomicroscopie du colon dans lesquelles il s'agit de déterminer automatiquement la classe pathologique des polypes qu'on y observe. Cette tâche est réalisée par un apprentissage supervisé multiclasse couplant les séparateurs à vaste marge à des outils de théorie des graphes. La deuxième partie s'intéresse à l'étude de la morphologie de neurones de souris observés par microscopie confocale en fluorescence. Afin de disposer d'une information riche, les neurones sont observés à deux grossissements, l'un permettant de bien caractériser les corps cellulaires, l'autre, plus faible, pour voir les dendrites apicales dans leur intégralité. Sur ces images, des descripteurs morphologiques des neurones sont extraits automatiquement en vue d'une classification. La dernière partie concerne le traitement multi-échelle d'images d'histologie digitale dans le contexte du cancer du rein. Le réseau vasculaire est extrait et mis sous forme de graphe afin de pouvoir établir un lien entre l'architecture vasculaire de la tumeur et sa classe pathologique. / The purpose of this Ph.D. thesis is to study the classification based on morphological features of cells and tissues taken from biomedical images. The goal is to help medical doctors and biologists better understand some biological phenomena. This work is spread in three main parts corresponding to the three typical problems in biomedical imaging tackled. The first part consists in analyzing endomicroscopic videos of the colon in which the pathological class of the polyps has to be determined. This task is performed using a supervised multiclass machine learning algorithm combining support vector machines and graph theory tools. The second part concerns the study of the morphology of mice neurons taken from fluorescent confocal microscopy. In order to obtain a rich information, the neurons are imaged at two different magnifications, the higher magnification where the soma appears in details, and the lower showing the whole cortex, including the apical dendrites. On these images, morphological features are automatically extracted with the intention of performing a classification. The last part is about the multi-scale processing of digital histology images in the context of kidney cancer. The vascular network is extracted and modeled by a graph to establish a link between the architecture of the tumor and its pathological class.
163

Caractérisation et validation d'un découpeur d'images

Bayard, Caleb 21 December 2021 (has links)
Les découpeurs d'images sont devenus des équipements essentiels dans le domaine de l'astronomie, particulièrement pour la spectroscopie intégrale de champ. La conception et l'usinage des découpeurs d'images, principalement du miroir découpeur qui en est la pièce centrale, est complexe et présente de nombreux défis techniques. Suivant sa fabrication, la caractérisation des découpeurs d'images est donc capitale afin de s'assurer que le dispositif rencontre les spécifications établies. Dans le cadre du développement de GIRMOS¹ (un spectrographe infrarouge multi-objets destiné aux télescopes jumeaux de 8,1 m de l'Observatoire Gemini), qui emploie la technologie des découpeurs d'images, il devient ainsi primordial de mettre en place une procédure pour en assurer la caractérisation. Dans ce contexte, l'objectif de ce projet de maîtrise est d'élaborer une méthodologie permettant de caractériser et de valider des découpeurs d'images. Les travaux présentés dans ce mémoire détaillent les concepts entourant les découpeurs d'images avancés et mettent de l'avant l'ensemble des tests nécessaire à la caractérisation du miroir découpeur. De plus, le développement d'un outil de caractérisation pour les pupilles intermédiaires, soit un banc de tests, y est décrit. Afin de valider la méthodologie établie, la série de tests métrologiques est menée sur un prototype de miroir découpeur. En comparant les résultats expérimentaux avec les résultats des simulations et la théorie, il a été possible de conclure que la méthodologie établie permet de caractériser partiellement le découpeur d'images. En effet, des améliorations restent à faire sur le banc de tests afin d'augmenter la précision de ce dernier. De surcroît, certains tests identifiés dans la méthodologie n'ont pu être mis en œuvre notamment dû au fait que les miroirs pupille et les miroirs fente n'avaient pas encore été fabriqués. Ces tests n'ayant pu être menés, il n'est pas possible de conclure que la méthodologie permet de valider le découpeur d'images menant à une l'atteinte partielle de l'objectif. / Image slicers have become essential equipment in the field of astronomy, particularly for Integral Field Spectroscopy. The design and manufacture of an image slicer, mainly the slicer mirror, which is the central part, is complex and presents many technical challenges. Following its fabrication, the characterization of an image slicer is therefore essential to ensure that the device meets the established specifications. As part of the development of GIRMOS² (a multi-object infrared spectrograph for twin 8.1 m telescopes of the Gemini Observatory), which uses image slicer technology, it becomes essential to set up a procedure to ensure its characterization. In this context, the objective of this master's project is to develop a methodology to characterize and validate image slicers. The work presented in this master's thesis details the concepts surrounding advanced image slicers and highlights all the tests necessary for the characterization of slicer mirrors. In addition, the development of a characterization tool for intermediate pupils, namely a test bench, is described therein. To validate the established methodology, a series of metrological tests are carried out on a slicer mirror prototype. By comparing the experimental results with the results of the simulations and the theory, it was possible to conclude that the established methodology allows to partially characterize the image slicer. Indeed, improvements remain to be made on the test bench to increase the accuracy of the latter. In addition, certain tests identified in the methodology could not be implemented, in particular since the pupil mirrors and the slit mirrors had not yet been manufactured. As these tests could not be carried out, it is impossible to conclude that the methodology allows to validate the image slicer leading to a partial achievement of the objective.
164

Codage robuste d'un patron de lumière structurée pour la capture 3D de scènes dynamiques

Rochette, Félix 18 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2012-2013. / L'objectif visé par cette recherche est de développer un système de reconstruction 3D à lumière blanche structurée pour des scènes dynamiques. Un état de l'art critique sur les stratégies de codage pour ce type de système est d'abord présenté. Ensuite, une nouvelle stratégie de codage permettant d'obtenir un grand nombre de correspondances précises est détaillée. Ce mémoire propose d'utiliser un encodage spatial sur une seule trame en utilisant des séquences de De Bruijn binaires. Afin de solutionner le problème de la déformation du code sur l'objet, une séquence de référence fixe est intégrée au code projeté. Cette stratégie de codage est implantée sur deux systèmes. Le premier système est un capteur comportant une seule caméra et un projecteur alors que le second est un capteur comportant deux caméras et un projecteur. La qualité et la densité des points 3D extraits avec ces deux types de capteurs sont analysées et comparées.
165

Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection. Approche par fusion de données

Cotteret, Gilles 11 April 2018 (has links)
L'extraction d'éléments curvilignes d’images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d’éléments curvilignes (routes, cours d'eau, etc) d’images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s’appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle. Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l’information locale qui utilise un oeil virtuel pour ne se focaliser qu’aux lieux d’information probable, évitant ainsi un traitement global de l’image ; (2) une méthode simple et rapide d’extraction de l’information locale par une adaptation astucieuse d’une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s’appuie sur des travaux de reconstruction de l’espace global par raisonnement spatial qualitatif. Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en oeuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire. La dernière partie de ce travail est consacrée à l’élaboration d’une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l’intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques. / The extraction of curvilinear elements from remote sensing images, especially when noisy or near the limit of resolution constitutes a significant challenge for data-processing algorithms. In this work a method is presented for linear feature extraction in remote sensing (RS) images. An original model (ELECA) is introduced allowing out of date geographical information system (GIS) data to be updated though the use of a visual search method that mimics human eye movements. The ELECA model is composed of three parts : (1) a visual search module using virtual gaze to avoid processing the entire image ; (2) a simple and fast method for local information extraction by a clever adaptation of connected-component labeling ; and (3) an original method for the fusion of local information to construct a global representation at the scale of the image based on qualitative spatial reasoning techniques. The ELECA model avoids several problems characteristic of current methods. In particular, the proposed technique can be applied to low resolution or partially occluded images for which currently only human interpreters can successfully process the image. The technique is also designed to be very fast and efficient when a quick GIS update is needed. The last part of this project is devoted to the design of software which supports the ELECA model. The proposed software architecture is adaptive and allows the integration of future model developments. Finally it is shown how the ELECA model could be implemented. / La extracción de elementos curvilíneos de las imágenes de teledetección, sobre todo en proximidad del límite de resolución o en presencia de ruido, representa siempre un reto importante para los algoritmos informáticos, mientras que para los intérpretes humanos es una tarea inmediata. Este trabajo presenta un método nuevo para guiar la extracción de elementos curvilíneos (carreteras, ríos, etc.) de imágenes de teledetección. El objetivo del método consiste en actualizar un sistema de información geográfica (SIG) gracias a un modelo inédito (ELECA) constituído de tres partes. El modelo ELECA desarrolla dos ideas principales. El modelo puede utilizar las imágenes de teledetección y los datos del SIG que están desactualizados. El modelo se basa asimismo en resultados recientes de la investigación en ciencias psico-cognitivas, dado que imita parcialmente el movimiento de los ojos durante una búsqueda visual. Las tres partes del modelo ELECA son: (1) un método de búsqueda de la información local que utiliza un ojo virtual par focalizarse únicamente donde se encuentra la información probable, evitando un tratamiento global de la imagen; (2) un método simple y rápido de extracción de la información local, que utiliza una adaptación astuciosa de un análisis en componentes conexos; y (3) un método original de fusión de informaciones locales que se apoya sobre trabajos de reconstrucción del espacio global por razonamiento espacial cualitativo. El modelo ELECA evita así algunas trampas en las que caen a menudo los métodos clásicos. En particular, la técnica propuesta puede ser utilizada para imágenes parcialmente enmascaradas o de baja resolución, que sólo pueden ser tratadas actualmente por intérpretes humanos. El método ha sido elaborado para ser eficiente en la actualización rápida de un SIG si es necesario. La última parte de este trabajo presenta una solución informática elaborada para soportar el modelo ELECA. Una arquitectura de programa flexible y adaptable es presentada, permitiendo la integración de desarrollos ulteriores del modelo. Finalmente, un aspecto algorítmico muestra concretamente que las soluciones del modelo ELECA. se pueden implantar en términos informáticos.
166

Applications dentaires du logiciel Photoshop

Masse, Jean-François 11 April 2018 (has links)
No description available.
167

Composants logiciels et algorithmes de minimisation exacte d'énergies dédiées au traitement des images /

Darbon, Jérôme. January 1900 (has links)
Thèse de doctorat--Informatique et réseaux--Paris--ENST, 2005. / Bibliogr. p. 165-177. Résumé.
168

Imagerie Isar à l'aide de l'algorithme génétique

Martin, Jennifer 25 April 2022 (has links)
Le radar à ouverture synthétique inverse (ISAR) est normalement utilisé pour produire l'image à haute résolution d'une cible éloignée en mouvement. Le mouvement de la cible est essentiel à l'imagerie mais un mouvement de translation produit une migration en portée des réflecteurs de la cible et introduit aussi un terme de phase additif et tous deux produisent une défocalisation de l'image. Dans ce mémoire, nous explorons comment l'algorithme génétique peut être utile à ISAR en le combinant à différentes méthodes connues de compensations du mouvement, plus particulièrement à l'algorithme AutoClean. Nous comparerons la performance de l'algorithme Auto-Clean telle qu'elle, de l'algorithme AutoClean avec sa combinaison à l'algorithme génétique et à d'autres combinaisons dont la méthode de projection AJTF et la méthode de minimisation de l'entropie MEM.
169

Modelage de contexte simplifié pour la compression basée sur la transformée en cosinus discrète

Auclair Beaudry, Jean-Sébastien January 2009 (has links)
Le manque grandissant de médecins spécialistes à l'extérieur des grands centres influe négativement sur' la qualité des soins reçus par les patients. Une solution possible à ce problème est la supervision des médecins généralistes en région par des spécialistes disponibles dans les grands centres. Cette supervision à distance nécessite le développement de technologies répondant aux besoins précis de celle-ci. Dans le cadre de ce projet de recherche, la transmission de l'image est considérée. En vue de développer un codec vidéo adéquat pour l'application dans le futur, le codec intra-image est étudié. Plus précisément, le but recherché est de simplifier et de rendre parallélisable le codec AGU 1 [PONOMARENKO et coll., 2005] sans en réduire les performances en deça des performances de JPEG2000 [SxoDRAS et coll., 2001]. Ces améliorations facilitent la réalisation matérielle du codec en réduisant la latence si critique aux applications de télésupervision. Pour accomplir ces objectifs, le modelage du contexte du codec AGU doit être modifié. La méthodologie proposée passe par l'implémentation du codec AGU, l'étude de la source de données et la modification du modelage de contexte. La modification en question est le remplacement de l'utilisation d'une méthode adaptative basée sur un arbre de conditions par un réseau de neurones. Au terme de cette recherche, le réseau de neurones utilisé comme modeleur de contexte s'avère être un succès. Une structure à neuf entrées et aucune couche cachée est utilisée et permet de rendre presque triviale l'opération de modelage du contexte en gardant des performances supérieures à JPEG2000 en moyenne. La performance est inférieure à JPEG2000 pour une seule image de test sur cinq. Dans le futur, il est possible d'étudier comment améliorer davantage ce codec intra-image à travers l'utilisation d'un meilleur réseau de neurones ou d'une transformée différente. Il est également souhaitable d'étudier comment faire évoluer le codec en un codec inter-image.
170

Gestion de mémoire pour la détection de fermeture de boucle pour la cartographie temps réel par un robot mobile

Labbé, Mathieu January 2010 (has links)
Pour permettre à un robot autonome de faire des tâches complexes, il est important qu'il puisse cartographier son environnement pour s'y localiser. À long terme, pour corriger sa carte globale, il est nécessaire qu'il détecte les endroits déjà visités. C'est une des caractéristiques les plus importantes en localisation et cartographie simultanée (SLAM), mais aussi sa principale limitation. La charge de calcul augmente en fonction de la taille de l'environnement, et alors les algorithmes n'arrivent plus à s'exécuter en temps réel. Pour résoudre cette problématique, l'objectif est de développer un nouvel algorithme de détection en temps réel d'endroits déjà visités, et qui fonctionne peu importe la taille de l'environnement. La détection de fermetures de boucle, c'est-à-dire la reconnaissance des endroits déjà visités, est réalisée par un algorithme probabiliste robuste d'évaluation de la similitude entre les images acquises par une caméra à intervalles réguliers. Pour gérer efficacement la charge de calcul de cet algorithme, la mémoire du robot est divisée en mémoires à long terme (base de données), à court terme et de travail (mémoires vives). La mémoire de travail garde les images les plus caractéristiques de l'environnement afin de respecter la contrainte d'exécution temps réel. Lorsque la contrainte de temps réel est atteinte, les images des endroits vus les moins souvent depuis longtemps sont transférées de la mémoire de travail à la mémoire à long terme. Ces images transférées peuvent être récupérées de la mémoire à long terme à la mémoire de travail lorsqu'une image voisine dans la mémoire de travail reçoit une haute probabilité que le robot soit déjà passé par cet endroit, augmentant ainsi la capacité de détecter des endroits déjà visités avec les prochaines images acquises. Le système a été testé avec des données préalablement prises sur le campus de l'Université de Sherbrooke afin d'évaluer sa performance sur de longues distances, ainsi qu'avec quatre autres ensembles de données standards afin d'évaluer sa capacité d'adaptation avec différents environnements. Les résultats suggèrent que l'algorithme atteint les objectifs fixés et permet d'obtenir des performances supérieures que les approches existantes. Ce nouvel algorithme de détection de fermeture de boucle peut être utilisé directement comme une technique de SLAM topologique ou en parallèle avec une technique de SLAM existante afin de détecter les endroits déjà visités par un robot autonome. Lors d'une détection de boucle, la carte globale peut alors être corrigée en utilisant la nouvelle contrainte créée entre le nouveau et l'ancien endroit semblable.

Page generated in 0.106 seconds