• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1115
  • 545
  • 151
  • 3
  • Tagged with
  • 1790
  • 883
  • 376
  • 261
  • 256
  • 240
  • 199
  • 164
  • 158
  • 156
  • 149
  • 143
  • 129
  • 128
  • 113
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Techniques de détection de défauts à base d’estimation d’état ensembliste pour systèmes incertains / Fault detection techniques based on set-membership state estimation for uncertain systems

Ben Chabane, Sofiane 13 October 2015 (has links)
Cette thèse propose une nouvelle approche de détection de défauts pour des systèmes linéaires soumis à des incertitudes par intervalles, des perturbations et des bruits de mesures bornés. Dans ce contexte, la détection de défauts est fondée sur une estimation ensembliste de l'état du système. Les contributions de cette thèse concernent trois directions principales :- La première partie propose une méthode d'estimation d'état ensembliste améliorée combinant l'estimation à base des zonotopes (qui offre une bonne précision) et l'estimation à base d'ellipsoïdes (qui offre une complexité réduite).- Dans la deuxième partie, une nouvelle approche d'estimation d'état ellipsoïdale fondée sur la minimisation du rayon de l'ellipsoïde est développée. Dans ce cadre, des systèmes multivariables linéaires invariants dans le temps, ainsi que des systèmes linéaires variants dans le temps ont été considérés. Ces approches, résolues à l'aide de problèmes d'optimisation sous la forme d'Inégalités Matricielles Linéaires, ont été étendues au cas des systèmes soumis à des incertitudes par intervalles.- Dans la continuité des approches précédentes, deux techniques de détection de défauts ont été proposées dans la troisième partie utilisant les méthodes d'estimation ensemblistes. La première technique permet de détecter des défauts capteur en testant la cohérence entre le modèle et les mesures. La deuxième technique fondée sur les modèles multiples permet de traiter simultanément les défauts actionneur/composant/capteur. Une commande prédictive Min-Max a été développée afin de déterminer la commande optimale et le meilleur modèle à utiliser pour le système, malgré la présence des différents défauts. / This thesis proposes a new Fault Detection approach for linear systems with interval uncertainties, bounded perturbations and bounded measurement noises. In this context, the Fault Detection is based on a set-membership state estimation of the system. The main contributions of this thesis are divided into three parts:- The first part proposes an improved method which combines the good accuracy of the zonotopic set-membership state estimation and the reduced complexity of the ellipsoidal set-membership estimation.- In the second part, a new ellipsoidal state estimation approach based on the minimization of the ellipsoidal radius is developed, leading to Linear Matrix Inequality optimization problems. In this context, both multivariable linear time-invariant systems and linear time-variant systems are considered. An extension of these approaches to systems with interval uncertainties is also proposed. - In the continuity of the previous approaches, two Fault Detection techniques have been proposed in the third part based on these set-membership estimation techniques. The first technique allows to detect sensor faults by checking the consistency between the model and the measurements. The second technique is based on Multiple Models. It deals with actuator/component/sensor faults in the same time. A Min-Max Model Predictive Control is developed in order to find the optimal control and the best model to use for the system in spite of the presence of these faults.
162

Détection de tableaux dans des documents : une étude de TableBank

Yockell, Eugénie 04 1900 (has links)
L’extraction d’information dans des documents est une nécessité, particulièrement dans notre ère actuelle où il est commun d’employer un téléphone portable pour photographier des documents ou des factures. On trouve aussi une utilisation répandue de documents PDF qui nécessite de traiter une imposante quantité de documents digitaux. Par leur nature, les données des documents PDF sont complexes à extraire, nécessitant d’être analysés comme des images. Dans cette recherche, on se concentre sur une information particulière à prélever: des tableaux. En effet, les tableaux retrouvés dans les docu- ments représentent une entité significative, car ils contiennent des informations décisives. L’utilisation de modèles neuronaux pour performer des extractions automatiques permet considérablement d’économiser du temps et des efforts. Dans ce mémoire, on définit les métriques, les modèles et les ensembles de données utilisés pour la tâche de détection de tableaux. On se concentre notamment sur l’étude des ensembles de données TableBank et PubLayNet, en soulignant les problèmes d’an- notations présents dans l’ensemble TableBank. On relève que différentes combinaisons d’ensembles d’entraînement avec TableBank et PubLayNet semblent améliorer les perfor- mances du modèle Faster R-CNN, ainsi que des méthodes d’augmentations de données. On compare aussi le modèle de Faster R-CNN avec le modèle CascadeTabNet pour la détection de tableaux où ce premier demeure supérieur. D’autre part, on soulève un enjeu qui est peu discuté dans la tâche de détection d’objets, soit qu’il existe une trop grande quantité de métriques. Cette problématique rend la comparaison de modèles ardue. On génère ainsi les résultats de modèles selon plusieurs métriques afin de démontrer qu’elles conduisent généralement vers différents modèles gagnants, soit le modèle ayant les meilleures performances. On recommande aussi les métriques les plus pertinentes à observer pour la détection de tableaux, c’est-à- dire APmedium/APmedium, Pascal AP85 ou COCO AP85 et la métrique de TableBank. / Extracting information from documents is a necessity, especially in today’s age where it is common to use a cell phone to photograph documents or invoices. There is also the widespread use of PDF documents that requires processing a large amount of digital documents. Due to their nature, the data in PDF documents are complex to retrieve, needing to be analyzed as images. In this research, we focus on a particular information to be extracted: tables. Indeed, the tables found in documents represent a significant entity, as they contain decisive information. The use of neural networks to perform automatic retrieval saves time and effort. In this research, the metrics, models and datasets used for the table detection task are defined. In particular, we focus on the study of the TableBank and PubLayNet datasets, highlighting the problems of annotations present in the TableBank set. We point out that different combinations of training sets using TableBank and PubLayNet appear to improve the performance of the Faster R-CNN model, as well as data augmentation methods. We also compare the Faster R-CNN model with the CascadeTabNet model for table detection where the former remains superior. In addition, we raise an issue that is not often discussed in the object detection task, namely that there are too many metrics. This problem makes model comparison difficult. We therefore generate results from models with several metrics in order to demonstrate the influence of these metrics in defining the best performing model. We also recommend the most relevant metrics to observe for table detection, APmedium/APmedium, Pascal AP85 or COCO AP85 and the TableBank metric.
163

Transfert technologique et validation de tests microbiologiques sur un laboratoire mobile conçu pour la surveillance de la qualité de l'eau en régions éloignées

Bernier, Jean-Luc 12 April 2018 (has links)
L'eau est un vecteur important pour la transmission de maladies infectieuses. Les méthodes classiques utilisées pour évaluer la qualité microbiologique de l'eau sont cependant inaptes à garantir l'absence de tous les microorganismes pathogènes. Le développement de nouvelles méthodes moléculaires permettant la détection rapide, sensible, spécifique et abordable de ces microorganismes pourrait diminuer le nombre de cas d'infections reliées à la consommation d'eau potable. Ce mémoire décrit la démarche empruntée pour adapter, utiliser et comparer des méthodes microbiologiques classiques à bord du laboratoire mobile Atlantis (LMA) lors d'une campagne de surveillance de la qualité l'eau en région éloignée. Nous élaborons ensuite sur le processus permettant le transfert technologique de deux méthodes moléculaires ciblant deux indicateurs de contamination fécale, Escherichia coli et les entérocoques. Les résultats de ces recherches permettent de conclure que le LMA pourra jouer un rôle prometteur pour la surveillance des maladies infectieuses d'origine hydrique.
164

Techniques d'identification d'entités nommées et de classification non-supervisée pour des requêtes de recherche web à l'aide d'informations contenues dans les pages web visitées

Goulet, Sylvain January 2014 (has links)
Le web est maintenant devenu une importante source d’information et de divertissement pour un grand nombre de personnes et les techniques pour accéder au contenu désiré ne cessent d’évoluer. Par exemple, en plus de la liste de pages web habituelle, certains moteurs de recherche présentent maintenant directement, lorsque possible, l’information recherchée par l’usager. Dans ce contexte, l’étude des requêtes soumises à ce type de moteur de recherche devient un outil pouvant aider à perfectionner ce genre de système et ainsi améliorer l’expérience d’utilisation de ses usagers. Dans cette optique, le présent document présentera certaines techniques qui ont été développées pour faire l’étude des requêtes de recherche web soumises à un moteur de recherche. En particulier, le travail présenté ici s’intéresse à deux problèmes distincts. Le premier porte sur la classification non-supervisée d’un ensemble de requêtes de recherche web dans le but de parvenir à regrouper ensemble les requêtes traitant d’un même sujet. Le deuxième problème porte quant à lui sur la détection non-supervisée des entités nommées contenues dans un ensemble de requêtes qui ont été soumises à un moteur de recherche. Les deux techniques proposées utilisent l’information supplémentaire apportée par la connaissance des pages web qui ont été visitées par les utilisateurs ayant émis les requêtes étudiées.
165

Modèles d'interpolation spatiale et spectrale, anti-crénelage et mesures de qualité

Horé, Alain January 2011 (has links)
Cette thèse à publications décrit plusieurs travaux en imagerie, aussi bien au niveau de l'acquisition des images que du post-traitement des images. Le premier concerne un algorithme de redimensionnement d'images dans lequel le pixel n'est pas considéré comme un point, mais comme une unité surfacique exprimée par une fonction mathématique. L'intensité d'un pixel est déterminée par interpolation à l'aide des outils du calcul intégral. Le deuxième travail concerne un autre algorithme de redimensionnement d'images dans lequel les dérivées de l'image sont mises à contribution pour augmenter le contraste et rehausser les hautes fréquences lors du processus de redimensionnement. Pour combiner l'image et ses dérivées, nous utilisons le théorème d'échantillonnage généralisé de Papoulis. Dans ce deuxième travail et dans la suite de la thèse, le pixel est considéré comme un point. Dans le troisième travail, nous proposons une équation de diffusion aux dérivées partielles afin de réduire le crénelage qui apparaît régulièrement dans de nombreux algorithmes de redimensionnement d'images. L'équation que nous proposons résulte d'un raffinement de l'équation de diffusion de la chaleur utilisée par Perona et Malik. Pour cela, nous introduisons la diffusivité inverse afin de réduire considérablement le crénelage sur les contours nets. Le rehaussement du contraste pendant le processus de diffusion se fait par l'intégration d'un filtre passe-haut, en l'occurrence le Laplacien, dans notre équation de diffusion. Un modèle de réduction efficace du crénelage sur les lignés, basé sur les valeurs propres de la matrice hessienne, est également proposé. Le quatrième travail est un algorithme de dématriçage (ou demosaïçage) permettant de reconstruire une image couleur à partir d'une image acquise par une matrice de filtres couleurs (color filter array, CFA). Sachant que dans un CFA une seule couleur primaire rouge, vert ou bleu est disponible à chaque position de pixel, nous proposons un modèle d'interpolation permettant d'estimer les couleurs manquantes à chaque position de pixel. Notre algorithme peut être utilisé pour divers modèles de CFA. Il s'inspire de l'algorithme de dématriçage universel de Lukac et al. et y apporte diverses améliorations. La première amélioration est la mise en oeuvre d'une détection de contours ou de zones uniformes dans une image acquise d'un CFA. La deuxième amélioration concerne l'utilisation complète du modèle de différence des couleurs, qui est un modèle bien connu dans les algorithmes de dématriçage. La troisième amélioration est l'utilisation d'un modèle d'interpolation spectrale permettant d'interpoler la couleur d'un pixel à l'aide de la couleur et de la position de ses voisins. Dans le cinquième et dernier travail, nous abordons une problématique liée à la qualité des images, notion importante en imagerie pour la validation des algorithmes et des modèles. Dans notre travail, nous faisons une étude analytique et expérimentale pour comparer le PSNR (Peak Signal-to-Noise Ratio) et le SSIM (Structural Similarity Index Measure), qui sont deux mesures de qualité largement utilisés en traitement d'images. L'étude analytique fait ressortir l'existence d'une relation de type logarithmique entre ces deux mesures. Les nombreux tests expérimentaux réalisés avec différentes images donnent davantage de précisions sur l'efficacité de ces deux mesures à évaluer la qualité des images ayant subi certaines dégradations ou traitements tels que la compression Jpeg, la compression Jpeg 2000, le flou gaussien ou le bruit additif gaussien.
166

Système d'alignement d'une partition de musique basé sur la déformation dynamique étendue du temps

Gagnon, Bruno January 2009 (has links)
Ce mémoire propose un système permettant de suivre, à l'aide d'un ordinateur domestique et d'un microphone, une partition de musique jouée par un musicien. Le système utilise en entrée une partition de musique et le signal audio numérique monophonique de la partition de musique jouée par le musicien. Contrairement aux systèmes habituels, le système proposé donne la liberté au musicien de jouer différents segments de la partition de musique dans l'ordre qu'il le désire, et ce, sans préalablement informer le système de ses intentions. Pour ce faire, le système propose une variante de l'algorithme de la déformation dynamique du temps ( Dynamic Time Warping ) utilisant des notions musicales pour effectuer le suivi. Il est à noter que la complexité du système est suffisamment faible pour qu'un ordinateur domestique récent puisse suivre le musicien pendant que celui-ci joue la partition de musique, et ce, avec un délai constant de quelques notes de musique.
167

Gestion de mémoire pour la détection de fermeture de boucle pour la cartographie temps réel par un robot mobile

Labbé, Mathieu January 2010 (has links)
Pour permettre à un robot autonome de faire des tâches complexes, il est important qu'il puisse cartographier son environnement pour s'y localiser. À long terme, pour corriger sa carte globale, il est nécessaire qu'il détecte les endroits déjà visités. C'est une des caractéristiques les plus importantes en localisation et cartographie simultanée (SLAM), mais aussi sa principale limitation. La charge de calcul augmente en fonction de la taille de l'environnement, et alors les algorithmes n'arrivent plus à s'exécuter en temps réel. Pour résoudre cette problématique, l'objectif est de développer un nouvel algorithme de détection en temps réel d'endroits déjà visités, et qui fonctionne peu importe la taille de l'environnement. La détection de fermetures de boucle, c'est-à-dire la reconnaissance des endroits déjà visités, est réalisée par un algorithme probabiliste robuste d'évaluation de la similitude entre les images acquises par une caméra à intervalles réguliers. Pour gérer efficacement la charge de calcul de cet algorithme, la mémoire du robot est divisée en mémoires à long terme (base de données), à court terme et de travail (mémoires vives). La mémoire de travail garde les images les plus caractéristiques de l'environnement afin de respecter la contrainte d'exécution temps réel. Lorsque la contrainte de temps réel est atteinte, les images des endroits vus les moins souvent depuis longtemps sont transférées de la mémoire de travail à la mémoire à long terme. Ces images transférées peuvent être récupérées de la mémoire à long terme à la mémoire de travail lorsqu'une image voisine dans la mémoire de travail reçoit une haute probabilité que le robot soit déjà passé par cet endroit, augmentant ainsi la capacité de détecter des endroits déjà visités avec les prochaines images acquises. Le système a été testé avec des données préalablement prises sur le campus de l'Université de Sherbrooke afin d'évaluer sa performance sur de longues distances, ainsi qu'avec quatre autres ensembles de données standards afin d'évaluer sa capacité d'adaptation avec différents environnements. Les résultats suggèrent que l'algorithme atteint les objectifs fixés et permet d'obtenir des performances supérieures que les approches existantes. Ce nouvel algorithme de détection de fermeture de boucle peut être utilisé directement comme une technique de SLAM topologique ou en parallèle avec une technique de SLAM existante afin de détecter les endroits déjà visités par un robot autonome. Lors d'une détection de boucle, la carte globale peut alors être corrigée en utilisant la nouvelle contrainte créée entre le nouveau et l'ancien endroit semblable.
168

Localisation de sources sonores par techniques d’antennes en milieu réverbérant

Moro, Clément January 2014 (has links)
Le bruit est aujourd'hui un enjeu majeur dans l'aéronautique. Au coeur d'un milieu concurrentiel, les motoristes aéronautiques doivent réduire les émissions sonores de leurs produits pour améliorer le confort des passagers des avions. C'est le cas de Pratt and Whitney Canada (P&WC) qui doit réduire le niveau sonore de ses moteurs, et donc avant tout connaître ces sources sonores. L'objectif de ce projet de recherche est d'identifier et de discriminer les sources acoustiques des sources aéroacoustiques de moteurs d'avions fabriqués par P&WC placés dans des cellules de tests. Ces cellules sont déjà utilisées à des fins aéroacoustiques par P&WC. Pour ce faire, l'utilisation d'outils de calcul numériques est primordiale pour simuler le problème. Dans un premier temps, ils permettront de dimensionner une antenne (géométrie, nombre de microphones, envergure) de manière optimale pour effectuer la mesure du champ acoustique généré par les sources sonores. Ensuite, les simulations numériques permettront de proposer des algorithmes de localisation de sources sonores se basant sur la technique de formation de voies (beamforming en anglais). Ils doivent s'adapter aux conditions expérimentales imposées par P&WC. En effet, toutes les mesures se font dans les salles de test de P&WC, qui sont des milieux réverbérants. Les murs de ces salles réfléchissent les ondes acoustiques, ajoutant ainsi du bruit indésirable au signal initial, rendant l'établissement de la cartographie sonore plus difficile, voire inexact. Des mesures dans les salles de test de P&WC permettront de les caractériser acoustiquement (temps de réverbération, coefficient de réflexion des murs etc...). Ensuite, des expériences en salle réverbérante au Groupe d'Acoustique de l'Université de Sherbrooke (GAUS) seront menées pour valider différentes approches du problème. L'application aux salles de P&WC suivra. La technique sera compatible avec tous les moteurs de P&WC (et même généralisable à une multitude d'autres situations). Elle permettra d'identifier et de localiser les sources acoustiques des moteurs.
169

Évolution des propriétés dynamiques de poutres en béton armé endommagées en laboratoire

Saidou Sanda, Mamar January 2015 (has links)
Le présent document constitue une partie d'un projet de recherche global sur la quantification de l'endommagement minimal détectable par des mesures de vibrations ambiantes mesurées sur un pont routier en service. L'objectif de l'étude effectuée dans cette maîtrise est de suivre l'évolution des propriétés dynamiques de poutres en béton armé en fonction de différents niveaux d'endommagement qui leur sont infligés en laboratoire, et de vérifier si ces propriétés sont des indicateurs fiables de l'endommagement. Elles serviront par la suite à effectuer une détection d'endommagement avec le logiciel commercial FEMtools et avec un algorithme développé en langage Matlab. Une étude expérimentale qui a porté sur trois spécimens de poutre en béton armé simple fabriqués et testés à l'Université de Sherbrooke est présentée. Toutes les poutres ont été dimensionnées adéquatement en flexion et présentent des défauts de renforcement en cisaillement. Deux spécimens ne renferment que l'armature minimale de cisaillement, et la dernière ne renferme aucune armature de cisaillement, comme c'est le cas pour des ponts-dalle. Les types d'endommagement testés sont ceux qui sont le plus souvent retrouvés sur les ponts routiers au Québec: l'endommagement dû au travail des poutres en flexion-cisaillement, l'endommagement dû à la corrosion des armatures de flexion et l'altération des conditions d'appui. Des essais de flexion quatre points ont été effectués pour simuler les dommages en flexion-cisaillement. Les modifications des conditions d'appuis sont simulées en bloquant les degrés de liberté d'un des appuis. La corrosion des armatures de flexion est simulée en sectionnant de manière séquentielle ces armatures en trois positions le long de la poutre. L'extraction des propriétés modales des poutres a été effectuée après tout nouvel endommagement imposé à l'aide d'excitations au marteau d'impact et d'une série d'accéléromètres. Deux méthodes d'analyse modales ont été utilisées: FRF (fonctions de réponse en fréquence) et FDD (Frequency Domain Decomposition). Les évolutions des propriétés modales à travers les endommagements des trois poutres montrent que les fréquences naturelles et les déformées modales sont des indicateurs très clairs de l'altération des conditions d'appui et de la fissuration en flexion-cisaillement. L'évolution de ces indicateurs est néanmoins plus subtile dans le cas d'une poutre sans renforcement en cisaillement, dont la rupture est très précoce. Les résultats montrent, en revanche, que la corrosion des armatures est un dommage beaucoup plus difficile à saisir à travers l'évolution des propriétés modales. L'ensemble des analyses expérimentales montre aussi que les taux d'amortissement modaux ne constituent pas des indicateurs fiables des endommagements testés sur les poutres.
170

Restauration adaptative des contours par une approche inspirée de la prédiction des performances

Rousseau, Kami January 2008 (has links)
En télédétection, les cartes de contours peuvent servir, entre autres choses, à la restitution géométrique, à la recherche d'éléments linéaires, ainsi qu'à la segmentation. La création de ces cartes est faite relativement tôt dans la chaîne de traitements d'une image. Pour assurer la qualité des opérations subséquentes, il faut veiller à obtenir une carte de contours précise. Notre problématique est de savoir s'il est possible de diminuer la perte de temps liée au choix d'algorithme et de paramètre en corrigeant automatiquement la carte de contours. Nous concentrerons donc nos efforts sur le développement d'une méthode de détection/restauration de contours adaptative. Notre méthode s'inspire d'une technique de prédiction des performances d'algorithmes de bas niveau. Elle consiste à intégrer un traitement par réseau de neurones à une méthode"classique" de détection de contours. Plus précisément, nous proposons de combiner la carte de performances avec la carte de gradient pour permettre des décisions plus exactes. La présente étude a permis de développer un logiciel comprenant un réseau de neurones entraîné pour prédire la présence de contours. Ce réseau de neurones permet d'améliorer les décisions de détecteurs de contours, en réduisant le nombre de pixels de fausses alarmes et de contours manqués. La première étape de ce travail consiste en une méthode d'évaluation de performance pour les cartes de contours. Une fois ce choix effectué, il devient possible de comparer les cartes entre elles. Il est donc plus aisé de déterminer, pour chaque image, la meilleure détection de contours. La revue de la littérature réalisée simultanément a permis de faire un choix d'un groupe d'indicateurs prometteurs pour la restauration de contours. Ces derniers ont servi à la calibration et à l'entrainement d'un réseau de neurones pour modéliser les contours. Par la suite, l'information fournie par ce réseau a été combinée par multiplication arithmétique avec les cartes d'amplitudes de détecteurs"classiques" afin de fournir de nouvelles cartes d'amplitude du gradient. Le seuillage de ces contours donne des cartes de contours"optimisées". Sur les images aéroportées du jeu de données South Florida, la médiane des mesures-F de la pour l'algorithme de Sobel passe de 51,3 % avant la fusion à 56,4 % après. La médiane des mesures-F pour l'algorithme de Kirsch amélioré est de 56,3 % et celle de Frei-Chen amélioré est de 56,3 %. Pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F médiane est de 52,3 % avant fusion et de 57,2 % après fusion.En guise de comparaison, la mesure-F médiane pour le détecteur de Moon, mathématiquement optimal pour contours de type"rampe", est de 53,3 % et celle de l'algorithme de Canny, est de 61,1 %. L'applicabilité de notre algorithme se limite aux images qui, après filtrage, ont un rapport signal sur bruit supérieur ou égal à 20. Sur les photos au sol du jeu de données de South Florida, les résultats sont comparables à ceux obtenus sur les images aéroportées. Par contre, sur le jeu de données de Berkeley, les résultats n'ont pas été concluants. Sur une imagette IKONOS du campus de l'Université de Sherbrooke, pour l'algorithme de Sobel, la mesure-F est de 45,7 % «0,9 % avant la fusion et de 50,8 % après. Sur une imagette IKONOS de l'Agence Spatiale Canadienne, pour l'algorithme de Sobel avec seuillage adaptatif, la mesure-F est de 35,4 % «0,9 % avant la fusion et de 42,2 % après. Sur cette même image, l'algorithme de Argyle (Canny sans post-traitement) a une mesure-F de 35,1 % «0,9 % avant fusion et de 39,5 % après. Nos travaux ont permis d'améliorer la banque d'indicateurs de Chalmond, rendant possible le prétraitement avant le seuillage de la carte de gradient. À chaque étape, nous proposons un choix de paramètres permettant d'utiliser efficacement la méthode proposée. Les contours corrigés sont plus fins, plus complets et mieux localisés que les contours originaux. Une étude de sensibilité a été effectuée et permet de mieux comprendre la contribution de chaque indicateur. L'efficacité de l'outil développé est comparable à celle d'autres méthodes de détection de contours et en fait un choix intéressant pour la détection de contours. Les différences de qualité observées entre notre méthode et celle de Canny semble être dues à l'utilisation, ou non, de post-traitements. Grâce au logiciel développé, il est possible de réutiliser la méthodologie; cette dernière a permis d'opérationnaliser la méthode proposée. La possibilité de réutiliser le filtre, sans réentrainement est intéressante. La simplicité du paramétrage lors de l'utilisation est aussi un avantage. Ces deux facteurs répondent à un besoin de réduire le temps d'utilisation du logiciel.

Page generated in 0.0718 seconds