• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 338
  • 97
  • 26
  • 2
  • 1
  • Tagged with
  • 459
  • 459
  • 130
  • 128
  • 84
  • 82
  • 81
  • 65
  • 64
  • 64
  • 58
  • 56
  • 53
  • 50
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Évaluation du potentiel des capteurs acoustiques sous-marins dans l'inspection des infrastructures portuaires /

Brahim, Naouraz. January 2009 (has links) (PDF)
Thèse (M.Sc.)--Université Laval, 2009. / Bibliogr.: f. [103]-106. Publié aussi en version électronique dans la Collection Mémoires et thèses électroniques.
162

Analyse de vidéos de cours d'eau pour l'estimation de la vitesse surfacique / Analysis of water flows videos for surface velocityestimation

Khalid, Musaab 05 June 2018 (has links)
Dans cette thèse, on s’intéresse à l’application du domaine de la vision par ordinateur à la vélocimétrie de surface des rivières. Les hydrauliciens utilisent déjà plusieurs routines de traitement d’images pour traiter des vidéos de rivières. Le but ultime est d’estimer la vitesse surfacique d’un cours d’eau par une méthode sans contact. Cela permet aux chercheurs d’éviter les risques liés au jaugeage intrusif des rivières, notamment en période de crue. Dans ce but, deux enjeux sont à prendre en compte. Tout d’abord, le mouvement apparent de la rivière dans l’espace image doit être estimé. Ensuite, ce mouvement, estimé en pixels par unité de temps, doit être transformé en une vitesse réelle exprimée en mètres par seconde par exemple. Jusqu’au présent, les méthodes de vélocimétrie par images imposent quelques contraintes sur les séquences pour qu’elles soient exploitables (notamment une caméra fixe et le besoin de la présence physique des équipes hydrauliques au site de jaugeage avant ou après l’événement). Dans cette thèse, on vise à élargir ce périmètre en incluant les vidéos prises par des amateurs (c’est à dire de paramètres inconnus, et avec un mouvement potentiel de la caméra) tout en présentant de meilleures solutions pour les enjeux précédemment mentionnés. / This thesis is an application of computer vision findings to river velocimetry research. Hydraulic research scientists already use various image processing techniques to process image sequences of rivers. The ultimate goal is to estimate free surface velocity of rivers remotely. As such, many risks related to intrusive river gauging techniques could be avoided. Towards this goal, there are two major issues need be addressed. Firstly, the motion of the river in image space need to be estimated. The second issue is related to how to transform this image velocity to real world velocity. Until recently, imagebased velocimetry methods impose many requirements on images and still need considerable amount of field work to be able to estimate rivers velocity with good accuracy. We extend the perimeter of this field by including amateur videos of rivers and we provide better solutions for the aforementioned issues. We propose a motion estimation model that is based on the so-called optical flow, which is a well developed method for rigid motion estimation in image sequences. Contrary to conventional techniques used before, optical flow formulation is flexible enough to incorporate physics equations that govern rivers motion. Our optical flow is based on the scalar transport equation and is augmented with a weighted diffusion term to compensate for small scale (non-captured) contributions. Additionally, since there is no ground truth data for such type of image sequences, we present a new evaluation method to assess the results. It is based on trajectory reconstruction of few Lagrangian particles of interest and a direct comparison against their manually-reconstructed trajectories. The new motion estimation technique outperformed traditional methods in image space. Finally, we propose a specialized geometric modeling of river sites that allows complete and accurate passage from 2D velocity to world velocity, under mild assumptions. This modeling considerably reduces the field work needed before to deploy Ground Reference Points (GRPs). We proceed to show the results of two case studies in which world velocity is estimated from raw videos.
163

Fuzzy logic pattern in text and image data analysis / Motifs de la logique floue pour l'analyse des sentiments et en imagerie

Nderu, Lawrence 14 December 2015 (has links)
La logique floue est aujourd'hui universellement admise comme discipline ayant fait ses preuves à l'intersection des mathématiques, de l'informatique, des sciences cognitives et de l'Intelligence Artificielle. En termes formels, la logique floue est une extension de la logique classique ayant pour but de mesurer la flexibilité du raisonnement humain, et permettant la modélisation des imperfections des données, en particulier, les deux imperfections les plus fréquentes : l'imprécision et l'incertitude. En outre, la logique floue ignore le principe du tiers exclu et celui de non-contradiction.Nous n'allons pas, dans ce court résumé de la thèse, reprendre et définir tous les concepts de cet outil devenu désormais classique : fonction d'appartenance, degré d'appartenance, variable linguistique, opérateurs flous, fuzzyfication, défuzzication, raisonnement approximatif … L'un des concepts de base de cette logique est la notion de possibilité qui permet de modéliser la fonction d'appartenance d'un concept. La possibilité d'un événement diffère de sa probabilité dans la mesure où elle n'est pas intimement liée à celle de l'événement contraire. Ainsi, par exemple, si la probabilité qu'il pleuve demain est de 0,6, alors la probabilité qu'il ne pleuve pas doit être égale à 0,4 tandis que les possibilités qu'il pleuve demain ou non peuvent toutes les deux être égales à 1 (ou encore deux autres valeurs dont la somme peut dépasser 1).Dans le domaine de l'informatique, l'apprentissage non supervisé (ou « clustering ») est une méthode d'apprentissage automatique quasi-autonome. Il s'agit pour un algorithme de diviser un groupe de données, en sous-groupes de manière que les données considérées comme les plus similaires soient associées au sein d'un groupe homogène. Une fois que l'algorithme propose ces différents regroupements, le rôle de l'expert ou du groupe d'experts est alors de nommer chaque groupe, éventuellement diviser certains ou de regrouper certains, afin de créer des classes. Les classes deviennent réelles une fois que l'algorithme a fonctionné et que l'expert les a nommées.Encore une fois, notre travail, comme tous les travaux du domaine, vise à adapter les modèles traditionnelles d'apprentissage et/ou de raisonnement à l'imprécision du monde réel. L'analyse des sentiments à partir de ressources textuelles et les images dans le cadre de l'agriculture de précision nous ont permis d'illustrer nos hypothèses. L'introduction par le biais de notre travail du concept de motifs flous est sans aucun doute une contribution majeure.Ce travail a donné lieu à trois contributions majeures : / Standard (type-1) fuzzy sets were introduced to mimic human reasoning in its use of approximate information and uncertainty to generate decisions. Since knowledge can be expressed in a natural way by using fuzzy sets, many decision problems can be greatly simpli_ed. However, standard type-1 fuzzy sets have limitations when it comes to modelinghuman decision making.When Zadeh introduced the idea of higher types of fuzzy sets called type-n fuzzy sets andtype-2 fuzzy sets, the objective was to solve problems associated with modeling uncertainty using crisp membership functions of type-1 fuzzy sets. The extra dimension presented by type-2 fuzzy sets provides more design freedom and exibility than type-1 fuzzy sets. The ability of FLS to be hybridized with other methods extended the usage of Fuzzy LogicSystems (FLS) in many application domains. In architecture and software engineering the concept of patterns was introduced as a way of creating general repeatable solutions to commonly occurring problems in the respective_elds. In software engineering for example, the design pattern is not a _nished design that can be transformed directly into code. It is a description or template on how to solve a problem that can be used in many di_erent situations. This thesis introduces the novel concept of fuzzy patterns in T2 FLS. Micro-blogs and social media platforms are now considered among the most popular forms of online communication. Through a platform like TwitterTM much information reecting people's opinions and attitudes is published and shared among users on a daily basis. This has brought great opportunities to companies interested in tracking and monitoring the reputation of their brands and businesses, and to policy makers and politicians to support their assessment of public opinions about their policies or political issues. Thisresearch demonstrates the importance of the neutral category in sentiment polarity analysis, it then introduces the concept of fuzzy patterns in sentiment polarity analysis. The xvii Interval Type-2 Fuzzy Set (IT2 FS), were proposed by reference [Men07c] to model words. This is because it is characterized by its Footprint Of Uncertainty (FOU). The FOU providesa potential to capture word uncertainties. The use of IT2 FS in polarity sentiment classi_cation is demonstrated. The importance of the neutral category is demonstrated in both supervised and unsupervised learning methods. In the _nal section the concept of fuzzy patterns in contrast
164

Extraction de caractéristiques et apprentissage statistique pour l'imagerie biomédicale cellulaire et tissulaire / Feature extraction and machine learning for cell and tissue biomedical imaging

Zubiolo, Alexis 11 December 2015 (has links)
L'objectif de cette thèse est de s'intéresser à la classification de cellules et de tissus au sein d'images d'origine biomédicales en s'appuyant sur des critères morphologiques. Le but est de permettre aux médecins et aux biologistes de mieux comprendre les lois qui régissent certains phénomènes biologiques. Ce travail se décompose en trois principales parties correspondant aux trois problèmes typiques des divers domaines de l'imagerie biomédicale abordés. L'objet de la première est l'analyse de vidéos d'endomicroscopie du colon dans lesquelles il s'agit de déterminer automatiquement la classe pathologique des polypes qu'on y observe. Cette tâche est réalisée par un apprentissage supervisé multiclasse couplant les séparateurs à vaste marge à des outils de théorie des graphes. La deuxième partie s'intéresse à l'étude de la morphologie de neurones de souris observés par microscopie confocale en fluorescence. Afin de disposer d'une information riche, les neurones sont observés à deux grossissements, l'un permettant de bien caractériser les corps cellulaires, l'autre, plus faible, pour voir les dendrites apicales dans leur intégralité. Sur ces images, des descripteurs morphologiques des neurones sont extraits automatiquement en vue d'une classification. La dernière partie concerne le traitement multi-échelle d'images d'histologie digitale dans le contexte du cancer du rein. Le réseau vasculaire est extrait et mis sous forme de graphe afin de pouvoir établir un lien entre l'architecture vasculaire de la tumeur et sa classe pathologique. / The purpose of this Ph.D. thesis is to study the classification based on morphological features of cells and tissues taken from biomedical images. The goal is to help medical doctors and biologists better understand some biological phenomena. This work is spread in three main parts corresponding to the three typical problems in biomedical imaging tackled. The first part consists in analyzing endomicroscopic videos of the colon in which the pathological class of the polyps has to be determined. This task is performed using a supervised multiclass machine learning algorithm combining support vector machines and graph theory tools. The second part concerns the study of the morphology of mice neurons taken from fluorescent confocal microscopy. In order to obtain a rich information, the neurons are imaged at two different magnifications, the higher magnification where the soma appears in details, and the lower showing the whole cortex, including the apical dendrites. On these images, morphological features are automatically extracted with the intention of performing a classification. The last part is about the multi-scale processing of digital histology images in the context of kidney cancer. The vascular network is extracted and modeled by a graph to establish a link between the architecture of the tumor and its pathological class.
165

Caractérisation et validation d'un découpeur d'images

Bayard, Caleb 10 February 2024 (has links)
Les découpeurs d'images sont devenus des équipements essentiels dans le domaine de l'astronomie, particulièrement pour la spectroscopie intégrale de champ. La conception et l'usinage des découpeurs d'images, principalement du miroir découpeur qui en est la pièce centrale, est complexe et présente de nombreux défis techniques. Suivant sa fabrication, la caractérisation des découpeurs d'images est donc capitale afin de s'assurer que le dispositif rencontre les spécifications établies. Dans le cadre du développement de GIRMOS¹ (un spectrographe infrarouge multi-objets destiné aux télescopes jumeaux de 8,1 m de l'Observatoire Gemini), qui emploie la technologie des découpeurs d'images, il devient ainsi primordial de mettre en place une procédure pour en assurer la caractérisation. Dans ce contexte, l'objectif de ce projet de maîtrise est d'élaborer une méthodologie permettant de caractériser et de valider des découpeurs d'images. Les travaux présentés dans ce mémoire détaillent les concepts entourant les découpeurs d'images avancés et mettent de l'avant l'ensemble des tests nécessaire à la caractérisation du miroir découpeur. De plus, le développement d'un outil de caractérisation pour les pupilles intermédiaires, soit un banc de tests, y est décrit. Afin de valider la méthodologie établie, la série de tests métrologiques est menée sur un prototype de miroir découpeur. En comparant les résultats expérimentaux avec les résultats des simulations et la théorie, il a été possible de conclure que la méthodologie établie permet de caractériser partiellement le découpeur d'images. En effet, des améliorations restent à faire sur le banc de tests afin d'augmenter la précision de ce dernier. De surcroît, certains tests identifiés dans la méthodologie n'ont pu être mis en œuvre notamment dû au fait que les miroirs pupille et les miroirs fente n'avaient pas encore été fabriqués. Ces tests n'ayant pu être menés, il n'est pas possible de conclure que la méthodologie permet de valider le découpeur d'images menant à une l'atteinte partielle de l'objectif. / Image slicers have become essential equipment in the field of astronomy, particularly for Integral Field Spectroscopy. The design and manufacture of an image slicer, mainly the slicer mirror, which is the central part, is complex and presents many technical challenges. Following its fabrication, the characterization of an image slicer is therefore essential to ensure that the device meets the established specifications. As part of the development of GIRMOS² (a multi-object infrared spectrograph for twin 8.1 m telescopes of the Gemini Observatory), which uses image slicer technology, it becomes essential to set up a procedure to ensure its characterization. In this context, the objective of this master's project is to develop a methodology to characterize and validate image slicers. The work presented in this master's thesis details the concepts surrounding advanced image slicers and highlights all the tests necessary for the characterization of slicer mirrors. In addition, the development of a characterization tool for intermediate pupils, namely a test bench, is described therein. To validate the established methodology, a series of metrological tests are carried out on a slicer mirror prototype. By comparing the experimental results with the results of the simulations and the theory, it was possible to conclude that the established methodology allows to partially characterize the image slicer. Indeed, improvements remain to be made on the test bench to increase the accuracy of the latter. In addition, certain tests identified in the methodology could not be implemented, in particular since the pupil mirrors and the slit mirrors had not yet been manufactured. As these tests could not be carried out, it is impossible to conclude that the methodology allows to validate the image slicer leading to a partial achievement of the objective.
166

Codage robuste d'un patron de lumière structurée pour la capture 3D de scènes dynamiques

Rochette, Félix 18 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2012-2013. / L'objectif visé par cette recherche est de développer un système de reconstruction 3D à lumière blanche structurée pour des scènes dynamiques. Un état de l'art critique sur les stratégies de codage pour ce type de système est d'abord présenté. Ensuite, une nouvelle stratégie de codage permettant d'obtenir un grand nombre de correspondances précises est détaillée. Ce mémoire propose d'utiliser un encodage spatial sur une seule trame en utilisant des séquences de De Bruijn binaires. Afin de solutionner le problème de la déformation du code sur l'objet, une séquence de référence fixe est intégrée au code projeté. Cette stratégie de codage est implantée sur deux systèmes. Le premier système est un capteur comportant une seule caméra et un projecteur alors que le second est un capteur comportant deux caméras et un projecteur. La qualité et la densité des points 3D extraits avec ces deux types de capteurs sont analysées et comparées.
167

Extraction d'éléments curvilignes guidée par des mécanismes attentionnels pour des images de télédétection. Approche par fusion de données

Cotteret, Gilles 11 April 2018 (has links)
L'extraction d'éléments curvilignes d’images de télédétection, surtout proches de la limite de résolution ou lorsqu'elles sont bruitées, représente toujours un défi important pour les algorithmes informatiques, alors que pour les interprètes humains c'est une tâche immédiate. Dans ce travail une méthode novatrice est présentée pour guider l'extraction d’éléments curvilignes (routes, cours d'eau, etc) d’images de télédétection. Cette méthode a pour but de mettre à jour les systèmes d'informations géographiques (SIG) grâce à un modèle inédit (ELECA) qui comporte trois parties. Le modèle ELECA tire avantage de deux idées principales. Les données utilisées ne sont pas seulement les images de télédétection mais également les données des SIG qui ne sont pas nécessairement à jour. Le modèle s’appuie également sur des progrès récents des sciences psycho-cognitives en imitant partiellement le mouvement des yeux durant une recherche visuelle. Ainsi les trois parties du modèle ELECA sont (1) une méthode de recherche de l’information locale qui utilise un oeil virtuel pour ne se focaliser qu’aux lieux d’information probable, évitant ainsi un traitement global de l’image ; (2) une méthode simple et rapide d’extraction de l’information locale par une adaptation astucieuse d’une analyse en composantes connexes ; et (3) une méthode originale de fusion des informations locales qui s’appuie sur des travaux de reconstruction de l’espace global par raisonnement spatial qualitatif. Le modèle ELECA évite de cette manière certains pièges dans lesquels tombent souvent les méthodes courantes/classiques. En particulier, la technique proposée peut être mise en oeuvre pour des images partiellement masquées ou de basse résolution pour lesquelles seulement des interprètes humains peuvent traiter l'image présentement. La méthode a été aussi élaborée pour être rapide et efficace afin de pouvoir réaliser des mises à jour de SIG très rapides lorsque nécessaire. La dernière partie de ce travail est consacrée à l’élaboration d’une solution informatique supportant le modèle ELECA. Une architecture logicielle souple et adaptative est mise en avant, permettant l’intégration de développements ultérieurs pour le modèle. Enfin un volet algorithmique montre concrètement que les solutions du modèle ELECA sont implantables en termes informatiques. / The extraction of curvilinear elements from remote sensing images, especially when noisy or near the limit of resolution constitutes a significant challenge for data-processing algorithms. In this work a method is presented for linear feature extraction in remote sensing (RS) images. An original model (ELECA) is introduced allowing out of date geographical information system (GIS) data to be updated though the use of a visual search method that mimics human eye movements. The ELECA model is composed of three parts : (1) a visual search module using virtual gaze to avoid processing the entire image ; (2) a simple and fast method for local information extraction by a clever adaptation of connected-component labeling ; and (3) an original method for the fusion of local information to construct a global representation at the scale of the image based on qualitative spatial reasoning techniques. The ELECA model avoids several problems characteristic of current methods. In particular, the proposed technique can be applied to low resolution or partially occluded images for which currently only human interpreters can successfully process the image. The technique is also designed to be very fast and efficient when a quick GIS update is needed. The last part of this project is devoted to the design of software which supports the ELECA model. The proposed software architecture is adaptive and allows the integration of future model developments. Finally it is shown how the ELECA model could be implemented. / La extracción de elementos curvilíneos de las imágenes de teledetección, sobre todo en proximidad del límite de resolución o en presencia de ruido, representa siempre un reto importante para los algoritmos informáticos, mientras que para los intérpretes humanos es una tarea inmediata. Este trabajo presenta un método nuevo para guiar la extracción de elementos curvilíneos (carreteras, ríos, etc.) de imágenes de teledetección. El objetivo del método consiste en actualizar un sistema de información geográfica (SIG) gracias a un modelo inédito (ELECA) constituído de tres partes. El modelo ELECA desarrolla dos ideas principales. El modelo puede utilizar las imágenes de teledetección y los datos del SIG que están desactualizados. El modelo se basa asimismo en resultados recientes de la investigación en ciencias psico-cognitivas, dado que imita parcialmente el movimiento de los ojos durante una búsqueda visual. Las tres partes del modelo ELECA son: (1) un método de búsqueda de la información local que utiliza un ojo virtual par focalizarse únicamente donde se encuentra la información probable, evitando un tratamiento global de la imagen; (2) un método simple y rápido de extracción de la información local, que utiliza una adaptación astuciosa de un análisis en componentes conexos; y (3) un método original de fusión de informaciones locales que se apoya sobre trabajos de reconstrucción del espacio global por razonamiento espacial cualitativo. El modelo ELECA evita así algunas trampas en las que caen a menudo los métodos clásicos. En particular, la técnica propuesta puede ser utilizada para imágenes parcialmente enmascaradas o de baja resolución, que sólo pueden ser tratadas actualmente por intérpretes humanos. El método ha sido elaborado para ser eficiente en la actualización rápida de un SIG si es necesario. La última parte de este trabajo presenta una solución informática elaborada para soportar el modelo ELECA. Una arquitectura de programa flexible y adaptable es presentada, permitiendo la integración de desarrollos ulteriores del modelo. Finalmente, un aspecto algorítmico muestra concretamente que las soluciones del modelo ELECA. se pueden implantar en términos informáticos.
168

Applications dentaires du logiciel Photoshop

Masse, Jean-François 11 April 2018 (has links)
No description available.
169

Composants logiciels et algorithmes de minimisation exacte d'énergies dédiées au traitement des images /

Darbon, Jérôme. January 1900 (has links)
Thèse de doctorat--Informatique et réseaux--Paris--ENST, 2005. / Bibliogr. p. 165-177. Résumé.
170

Imagerie Isar à l'aide de l'algorithme génétique

Martin, Jennifer 25 April 2022 (has links)
Le radar à ouverture synthétique inverse (ISAR) est normalement utilisé pour produire l'image à haute résolution d'une cible éloignée en mouvement. Le mouvement de la cible est essentiel à l'imagerie mais un mouvement de translation produit une migration en portée des réflecteurs de la cible et introduit aussi un terme de phase additif et tous deux produisent une défocalisation de l'image. Dans ce mémoire, nous explorons comment l'algorithme génétique peut être utile à ISAR en le combinant à différentes méthodes connues de compensations du mouvement, plus particulièrement à l'algorithme AutoClean. Nous comparerons la performance de l'algorithme Auto-Clean telle qu'elle, de l'algorithme AutoClean avec sa combinaison à l'algorithme génétique et à d'autres combinaisons dont la méthode de projection AJTF et la méthode de minimisation de l'entropie MEM.

Page generated in 0.0827 seconds