• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 69
  • 9
  • 3
  • Tagged with
  • 82
  • 26
  • 26
  • 16
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • 9
  • 9
  • 8
  • 8
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Numérisation 3D de surfaces métalliques spéculaires par imagerie infrarouge / 3 D digitization of specular metallic surfaces by means of infrared imaging

Bajard, Alban 20 November 2012 (has links)
Depuis plus de vingt ans, le besoin en numérisation 3D de pièces industrielles augmente considérablement. Par conséquent, un grand nombre de techniques expérimentales ont été proposées ainsi que quelques solutions commerciales. Cependant, des difficultés subsistent pour l’acquisition de surfaces optiquement non coopératives, comme les surfaces transparentes et/ou spéculaires. En effet, la transmission ou réflexion spéculaire de la lumière va à l’encontre du fonctionnement des systèmes conventionnels d’acquisition 3D, qui repose sur l’acquisition de la partie diffuse de la réflexion. Afin d’aborder la problématique de numérisation 3D des surfaces métalliques fortement réfléchissantes, nous proposons l’extension d’une technique non conventionnelle, initialement dédiée aux objets en verre et appelée « Scanning from Heating ». Cette technique diffère des approches classiques de triangulation active par la mesure de l’émission thermique de la surface plutôt que de la réflexion du rayonnement visible. Une source laser est géométriquement calibrée avec un capteur infrarouge pour extraire le nuage de points 3D des images thermiques. En nous appuyant sur les propriétés thermo-physiques des métaux, nous présentons un modèle théorique des échanges thermiques mis en jeu par la technique, permettant de démontrer la faisabilité sur les matériaux métalliques. Grâce à un outil de simulation par éléments finis, les résultats apportent des indications essentielles pour le développement d’une solution expérimentale et le réglage de celle-ci. Un premier dispositif expérimental a été mis en œuvre afin de valider le processus de numérisation 3D sur des surfaces spéculaires, de géométries et de compositions variées. Par ailleurs, une comparaison de nos résultats de numérisation avec ceux d’un système conventionnel permet de démontrer la polyvalence de notre technique. En effet, à partir d’un panel d’échantillons de géométries identiques mais d’états de surface différents, nous mettons en évidence que les performances d’acquisition 3D ne sont pas influencées par la rugosité de la surface. Enfin, en se basant sur des observations empiriques, un prototype de numérisation 3D est développé afin d’apporter des améliorations conséquentes par rapport au système initial / For the past twenty years, the need for three-dimensional digitization of manufactured objects has increased significantly and consequently, many experimental techniques and commercial solutions have been proposed. However, difficulties remain for the acquisition of optically non cooperative surfaces, such as transparent or specular ones. Since the working principle of conventional scanners is based on the acquisition of the diffuse part of the reflection, transparency and specular reflections may cause outliers. To address highly reflective metallic surfaces, we propose the extension of a non conventional technique that was originally dedicated to glass objects, called “Scanning from Heating”. In contrast to classical active triangulation techniques that acquire the reflection of visible light, we measure the thermal emission of the heated surface. A laser source is geometrically calibrated with a thermal sensor to extract a cloud of 3D points from infrared images. Considering the thermo-physical properties of metals, we present a theoretical model of heat exchanges that are induced by the process, helping to demonstrate its feasibility on metallic materials. With a finite element analysis solver, results give some important indications about the conception and the settings of the experimental solution. A first device has been designed in order to validate the 3D digitization process on specular surfaces, with various geometries and compositions. Furthermore, a comparison of our results with those of a conventional system shows the versatility of our technique. Actually, from metallic samples with the same dimensions but various surface states, we prove that the accuracy of the 3D acquisition is not affected by the surface roughness variations. Finally, according to some practical observations, a 3D scanner prototype has been designed to improve the efficiency of the first system
32

Modulateur sigma-delta complexe passe-bande à temps continu pour la réception multistandard

Jouida, Nejmeddine 18 February 2010 (has links)
Le travail de recherche que nous présentons dans cette thèse s’inscrit dans le domaine de la conception des circuits et systèmes pour la numérisation des signaux radio large bande multistandard. La finalité de ces travaux est l’établissement de nouvelles méthodologies de conception des circuits analogiques et mixtes VLSI, et à faible consommation pour le convertisseur analogique numérique (CAN). Nous proposons l’utilisation d’un CAN de type S? complexe passe-bande à temps-continu pour l’architecture Low-IF. Ce qui permet de simplifier l’étage analogique en bande de base en esquivant le besoin de circuits tels que le contrôleur de gain automatique, le filtre anti-repliement et les filtres de rejection d’images. Le récepteur est plus linéaire et présente un degré d’intégrabilité adéquat pour les applications multistandard de type Radio logicielle Restreinte (SDR). La première contribution consiste à proposer une méthodologie originale et complètement automatisée de dimensionnement du modulateur ?? pour la réception SDR. Une nouvelle stratégie de stabilisation, basée sur le placement des zéros et des pôles du filtre de boucle, est élaborée permettant ainsi de simplifier le passage du temps-discret vers le temps-continu par une simple correspondance entre les domaines pour les intégrateurs et les résonateurs du filtre de boucle. La deuxième contribution concerne la construction d’une architecture générique du modulateur ?? complexe à temps-continu en suivant une méthodologie originale. Les éléments de base de cette architecture sont les deux modulateurs ?? passe-bas pour les voies I et Q à temps-continu. Les deux filtres de boucles sont en couplage croisé en structure polyphase, ce qui permet le décalage vers la fréquence intermédiaire du récepteur. Nous avons conçu un outil de dimensionnement sous MATLAB pour les modulateurs S? multistandard stables d’ordre élevés à temps-continu, passe bas, passe-bande réel et complexe. La troisième contribution de ces travaux concerne la proposition d’une méthodologie de conception avancée de circuits mixtes VLSI pour les CANs de type ??. Cette méthodologie de conception permet une combinaison des approches descendante ‘Top-down’ et montante ‘Bottom-up’, ce qui rend possible l’analyse des compromis de conception par l’utilisation concurrente des circuits au niveau transistor et des modèles comportementaux. Cette approche permet de faire allier à la fois la précision et la vitesse de processus de simulation lors de la conception des CANs de type ??. La modélisation comportementale du modulateur S?, en utilisant le langage VHDL-AMS, nous a permis de développé une bibliothèque de modèles permettant la prise en compte des imperfections tels que le bruit, le jitter, le retard de boucle au niveau comportemental. Afin d’illustrer la méthodologie de conception proposée, un exemple de la vérification par la simulation mixte est fourni à travers la conception d’un quantificateur en technologie CMOS. L’extraction des paramètres des imperfections du schéma au niveau transistor a permit d’enrichir le modèle comportemental et de prévenir les anomalies causant la dégradation des performances du modulateur S?. / Abstract
33

Détection statistique d'information cachée dans des images naturelles / Statistical detection of hidden information in natural images

Zitzmann, Cathel 24 June 2013 (has links)
La nécessité de communiquer de façon sécurisée n’est pas chose nouvelle : depuis l’antiquité des méthodes existent afin de dissimuler une communication. La cryptographie a permis de rendre un message inintelligible en le chiffrant, la stéganographie quant à elle permet de dissimuler le fait même qu’un message est échangé. Cette thèse s’inscrit dans le cadre du projet "Recherche d’Informations Cachées" financé par l’Agence Nationale de la Recherche, l’Université de Technologie de Troyes a travaillé sur la modélisation mathématique d’une image naturelle et à la mise en place de détecteurs d’informations cachées dans les images. Ce mémoire propose d’étudier la stéganalyse dans les images naturelles du point de vue de la décision statistique paramétrique. Dans les images JPEG, un détecteur basé sur la modélisation des coefficients DCT quantifiés est proposé et les calculs des probabilités du détecteur sont établis théoriquement. De plus, une étude du nombre moyen d’effondrements apparaissant lors de l’insertion avec les algorithmes F3 et F4 est proposée. Enfin, dans le cadre des images non compressées, les tests proposés sont optimaux sous certaines contraintes, une des difficultés surmontées étant le caractère quantifié des données / The need of secure communication is not something new: from ancient, methods exist to conceal communication. Cryptography helped make unintelligible message using encryption, steganography can hide the fact that a message is exchanged.This thesis is part of the project "Hidden Information Research" funded by the National Research Agency, Troyes University of Technology worked on the mathematical modeling of a natural image and creating detectors of hidden information in digital pictures.This thesis proposes to study the steganalysis in natural images in terms of parametric statistical decision. In JPEG images, a detector based on the modeling of quantized DCT coefficients is proposed and calculations of probabilities of the detector are established theoretically. In addition, a study of the number of shrinkage occurring during embedding by F3 and F4 algorithms is proposed. Finally, for the uncompressed images, the proposed tests are optimal under certain constraints, a difficulty overcome is the data quantization
34

Optimisation de la chaîne de numérisation 3D : de la surface au maillage semi-régulier / 3D digitization optimization : from surface to semi-regular mesh

Peyrot, Jean-Luc 12 December 2014 (has links)
La numérisation 3D permet de générer des représentations numériques très réalistes et fidèles géométriquement aux surfaces réelles. Cependant, cette fidélité géométrique, obtenue à l'aide d'un sur-échantillonnage de surfaces, augmente considérablement le volume de données générées. Les maillages ainsi produits sont donc très denses, et peu adaptés aux différents supports de visualisation, de transfert, de stockage, etc. La représentation semi-régulière des surfaces permet de diminuer le volume nécessaire à la représentation de ces maillages denses, et possède des qualités bien connues en matière de représentations multi-échelles et de compression. Cette thèse a pour objectif d'optimiser la chaîne de numérisation 3D classique en améliorant l'échantillonnage des surfaces tout en conservant la fidélité géométrique, et en court-circuitant les étapes fastidieuses qui conduisent à une représentation semi-régulière. Pour cela, nous avons intégré dans un système stéréoscopique, l'échantillonnage en disques de Poisson qui, grâce à ses propriétés de bruit bleu, réalise un bon compromis entre sous- et sur-échantillonnage. Ensuite, nous avons généré un mailleur semi-régulier, qui travaille directement sur les images stéréoscopiques, et non sur une version remaillée des nuages de points habituellement générés par ces systèmes. Les résultats expérimentaux montrent que ces deux contributions génèrent de façon efficace des représentations semi-régulières, qui sont géométriquement fidèles aux surfaces réelles, tout en réduisant le volume de données générées. / Nowadays, 3D digitization systems generate numeric representations that are both realistic and of high geometric accuracy with respect to real surfaces. However, this geometric accuracy, obtained by oversampling surfaces, increases significantly the generated amount of data. Consequently, the resulting meshes are very dense, and not suitable to be visualized, transmitted or even stored efficiently. Nevertheless, the semi-regular representation due to its scalable and compact representation, overcomes this problem. This thesis aims at optimizing the classic 3D digitization chain, by first improving the sampling of surfaces while preserving geometric features, and secondly shortening the number of required treatments to obtain such semi-regular meshes. To achieve this goal, we integrated in a stereoscopic system the Poisson-disk sampling that realizes a good tradeoff between undersampling and oversampling, thanks to its blue noise properties. Then, we produced a semi-regular meshing technique that directly works on the stereoscopic images, and not on a meshed version of point clouds, which are usually generated by such 3D scanners. Experimental results prove that our contributions efficiently generate semi-regular representations, which are accurate with respect to real surfaces, while reducing the generated amount of data.
35

Outils numériques pour le relevé architectural et la restitution archéologique

Fuchs, Alain 24 November 2006 (has links) (PDF)
Cette thèse s'intègre dans le processus qui conduit de l'acquisition numérique 3D à<br />la réalisation de maquettes virtuelles destinées à l'architecture et à l'archéologie.<br />Elle débute par l'étude des techniques d'acquisition 3D utilisées, la lasergrammétrie<br />et la photogrammétrie architecturale, et se poursuit par une analyse comparative<br />détaillée de ces dispositifs, basée sur de multiples expérimentations réalisées sur le<br />terrain lors de la collaboration entre le Map-Crai et le Map-Page.<br />Ensuite une réflexion sur la morphologie architecturale est abordée autour de ses<br />variantes typologiques et architectoniques, suivie par les questions théoriques<br />soulevées par la modélisation 3D et plus spécifiquement la modélisation<br />architecturale.<br />Diverses expérimentations sont ensuite présentées, elles constituent le support<br />d'une réflexion sur le développement d'outils numériques destinés à faciliter la<br />modélisation géométrique architecturale. La principale contribution de cette thèse<br />correspond à l'association de cette réflexion empirique à une approche analytique<br />fondée sur nos connaissances théoriques en architecture, qui aboutit à l'identification<br />de primitives géométriques contraintes, les moulures. Les outils numériques ainsi<br />développés dans un logiciel de CAO définissent ces primitives géométriques<br />ajustables dont le champ d'application initial, spécifique à l'architecture classique,<br />sera étendu à l'architecture khmère.<br />Enfin une proposition plus évoluée correspondant à la téléologie de cette thèse,<br />obtenir de façon efficace un résultat conforme au cahier des charges de la<br />modélisation architecturale et archéologique, est intégrée dans un logiciel de<br />synthèse d'image.
36

Numérisation 3D de visages par une approche de super-résolution spatio-temporelle non-rigide

Ouji, Karima 28 June 2012 (has links) (PDF)
La mesure de la forme 3D du visage est une problématique qui attire de plus en plus de chercheurs et qui trouve son application dans des domaines divers tels que la biométrie, l'animation et la chirurgie faciale. Les solutions actuelles sont souvent basées sur des systèmes projecteur/caméra et utilisent de la lumière structurée pour compenser l'insuffisance de la texture faciale. L'information 3D est ensuite calculée en décodant la distorsion des patrons projetés sur le visage. Une des techniques les plus utilisées de la lumière structurée est la codification sinusoïdale par décalage de phase qui permet une numérisation 3D de résolution pixélique. Cette technique exige une étape de déroulement de phase, sensible à l'éclairage ambiant surtout quand le nombre de patrons projetés est limité. En plus, la projection de plusieurs patrons impacte le délai de numérisation et peut générer des artefacts surtout pour la capture d'un visage en mouvement. Une alternative aux approches projecteur-caméra consiste à estimer l'information 3D par appariement stéréo suivi par une triangulation optique. Cependant, le modèle calculé par cette technique est généralement non-dense et manque de précision. Des travaux récents proposent la super-résolution pour densifier et débruiter les images de profondeur. La super-résolution a été particulièrement proposée pour les caméras 3D TOF (Time-Of-Flight) qui fournissent des scans 3D très bruités. Ce travail de thèse propose une solution de numérisation 3D à faible coût avec un schéma de super-résolution spatio-temporelle. Elle utilise un système multi-caméra étalonné assisté par une source de projection non-étalonnée. Elle est particulièrement adaptée à la reconstruction 3D de visages, i.e. rapide et mobile. La solution proposée est une approche hybride qui associe la stéréovision et la codification sinusoïdale par décalage de phase, et qui non seulement profite de leurs avantages mais qui surmonte leurs faiblesses. Le schéma de la super-résolution proposé permet de corriger l'information 3D, de compléter la vue scannée du visage en traitant son aspect déformable.
37

Numérisation 3D de visages par une approche de super-résolution spatio-temporelle non-rigide

Ouji, Karima 28 June 2012 (has links) (PDF)
La mesure de la forme 3D du visage est une problématique qui attire de plus en plus de chercheurs et qui trouve son application dans des domaines divers tels que la biométrie, l'animation et la chirurgie faciale. Les solutions actuelles sont souvent basées sur des systèmes projecteur/caméra et utilisent de la lumière structurée pour compenser l'insuffisance de la texture faciale. L'information 3D est ensuite calculée en décodant la distorsion des patrons projetés sur le visage. Une des techniques les plus utilisées de la lumière structurée est la codification sinusoïdale par décalage de phase qui permet une numérisation 3D de résolution pixélique. Cette technique exige une étape de déroulement de phase, sensible à l'éclairage ambiant surtout quand le nombre de patrons projetés est limité. En plus, la projection de plusieurs patrons impacte le délai de numérisation et peut générer des artefacts surtout pour la capture d'un visage en mouvement. Une alternative aux approches projecteur-caméra consiste à estimer l'information 3D par appariement stéréo suivi par une triangulation optique. Cependant, le modèle calculé par cette technique est généralement non-dense et manque de précision. Des travaux récents proposent la super-résolution pour densifier et débruiter les images de profondeur. La super-résolution a été particulièrement proposée pour les caméras 3D TOF (Time-Of-Flight) qui fournissent des scans 3D très bruités. Ce travail de thèse propose une solution de numérisation 3D à faible coût avec un schéma de super-résolution spatio-temporelle. Elle utilise un système multi-caméra étalonné assisté par une source de projection non-étalonnée. Elle est particulièrement adaptée à la reconstruction 3D de visages, i.e. rapide et mobile. La solution proposée est une approche hybride qui associe la stéréovision et la codification sinusoïdale par décalage de phase, et qui non seulement profite de leurs avantages mais qui surmonte leurs faiblesses. Le schéma de la super-résolution proposé permet de corriger l'information 3D, de compléter la vue scannée du visage en traitant son aspect déformable.
38

Estimation de pose de grands blocs d'images panoramiques issues de systèmes de numérisation mobile

Cannelle, Bertrand, Cannelle, Bertrand 04 December 2013 (has links) (PDF)
Tirée par le développement et la démocratisation des globes numériques et des systèmes de géolocalisation grand public, la numérisation 3D mobile terrestre en milieux urbains s'est développée de manière très importante ces dix dernières années. Les principaux verrous résiduels de ces systèmes reste d'une part la localisation précise des données pour certaines applications (conduite autonome urbaine, levers de géomètres, etc.) du fait des masques et multi-trajets GPS dans les canyons urbains et d'autre part le passage à l'échelle du traitement de l'information vu les volumes de données considérables acquis chaque jour (plusieurs To).La première partie de cette thèse est consacrée à la présentation de la numérisation mobile, aussi bien du point de vue système que du point de vue usage. Une description fine du système Stéréopolis V2, véhicule de numérisation mobile multi-caméras développée au laboratoire MATIS de l'Institut National de l'Information Géographique et Forestière, est faite afin de présenter les données utilisées dans cette thèse. Les blocs d'images manipulés dans ces travaux sont constitués de plusieurs centaines de milliers à un million d'image. La seconde partie est consacrée à la calibration du système: calibration intrinsèque de caméra, tout d'abord, en utilisant une géométrie d'acquisition de type panoramique, qui permet de s'affranchir de réseaux de cibles 3D métrologiques. Une calibration extrinsèque des imageurs du véhicule, ensuite, qui permet de déterminer de façon précise la position et l'orientation de caméras sur un dispositif de numérisation mobile. Deux procédures sont détaillées et comparées: l'une dite "off-line" nécessitant une acquisition spécifique avec un réseau de cibles métrologiques et l'autre dite "on-line" utilisant uniquement les données d'acquisition standards. Nous démontrons que la méthode "on-line" produit dans les mêmes conditions une précision comparable à celle "off-line" tout en étant plus adaptée aux variations de conditions d'acquisition in-situ. La troisième partie détaille le processus de compensation par faisceaux appliquée aux données de numérisation mobile multi-caméras qui permet d'estimer la pose d'un grand nombre d'images. La mise en équation ainsi que différents cas d'utilisations de la méthode sont explicités. La structuration et la gestion des données dans un entrepôt est elle aussi développée car elle permet la gestion d'importants volumes et donc le passage à l'échelle tout en restant performante. La quatrième et dernière partie propose différentes méthodes de recalage qui peuvent être utilisées aussi bien de manière individuelle que combinées afin de permettre de mettre en cohérence des séquences d'images distinctes (boucles, passage multi-dates, etc.) dans des contextes applicatifs différents
39

Contribution à l'étude des architectures de récepteurs large bande multi-canaux / Study of multi-channel wideband receiver architectures.

Lesellier, Amandine 02 July 2013 (has links)
Cette thèse est le fruit d'un partenariat entre la BL TVFE de NXP Semiconductors et l'ESIEE dans le cadre d'une thèse CIFRE. Le but est d'apporter une solution qui permette la réception de plusieurs canaux pour le câble. Ce sujet est lié à la problématique de numérisation large bande. Dans la première partie, nous faisons un état-de-l'art sur les convertisseurs analogiques-numériques (CAN), sur les architectures parallèles (entrelacement temporel et bancs de filtres hybrides (BFH)), et sur les méthodes d'échantillonnage (passe-bande et complexe). Puis, nous étudions une architecture composée d'un banc de filtres analogiques et un banc de CANs. Nous cherchons à réduire surtout le taux d'échantillonnage. Nous comparons notre solution à un CAN large bande performant, avec notre fonction de coût. L'un des avantages de cette architecture est que tous les composants sont faisables, même les CANs, et qu'il est possible d'éteindre des sous-bandes pour diminuer la consommation. Cette solution est intéressante pour le moment mais n'est pas compétitive en termes de consommation et de surface. Nous proposons une alternative dans la partie 3, avec les BFH. Nous étudions cette architecture, en gardant à l'esprit la faisabilité de la solution. Nous avons choisi un BFH à deux voies, avec un filtre analogique passe-bas et un passe-haut. Puis, nous proposons un algorithme d'optimisation des filtres de synthèse pour atteindre nos objectifs de distorsion et de réjection de repliement. Une identification des filtres analogiques est aussi présentée. Finalement, une réalisation physique prouve le concept et valide les limitations théoriques de cette architecture / This thesis is a partnership between the BL TVFE of NXP Semiconductors and ESIEE. Its goal is to provide a solution to multi-channel reception for cable network. This is linked to the problematic of broadband digitization. In the first part, the state-of-the art of ADCs, parallel architectures (TI and HFB) and sampling methods (bandpass sampling and complex sampling) is recalled. Then we study an architecture called RFFB with a bank of analog filters and a bank of ADCs. We try to reduce the constraints on ADCs, especially the sampling rate with the different sampling. We propose an interesting solution to broadband digitization and compare this solution to a challenging wideband ADC, using the cost function we introduce. This architecture has the major advantage that all the components are feasible, even the ADCs, and it is possible to switch-off subbands to save power. It could be a good solution at the present time but it is not competitive in terms of power consumption and surface. An alternative is proposed in Part 3, where we study Hybrid Filter Banks. It is interesting to study this architecture with realization feasibility in mind. This is why we select a 2-channel HFB with a lowpass filter and a highpass filter as analog filters. Then we propose an efficient optimization algorithm to find the best synthesis filters and reach our targets of distortion and aliasing rejection. An identification of analog filters is also suggested to cope with the issue of sensitivity to analog errors. Finally, a physical realization proves the concept of aliasing rejection and confirms the theoretical issues of this architecture
40

Tatouage robuste d’images imprimées / Robust watermarking for printed images

Riad, Rabia 19 December 2015 (has links)
Le tatouage invisible d’images d’identité imprimées sur un support en plastique est un problème difficile qui intéresse le monde industriel. Dans cette étude, nous avons développé un algorithme de tatouage robuste aux diverses attaques présentes dans ce cas. Ces attaques sont liées aux processus d’impression/numérisation sur le support plastique ainsi qu’aux dégradations qu’une carte plastique peut rencontrer le long de sa durée de vie. La méthode de tatouage opère dans le domaine de Fourier car cette transformée présente des propriétés d’invariances aux attaques géométriques globales. Une méthode préventive consiste en un prétraitement de l’image originale avant le processus d’insertion qui réduit la variance du vecteur support de la marque. Une méthode corrective comporte deux contre-attaques corrigeant le flou et les variations colorimétriques. Pour une probabilité de fausse alarme de 10⁻⁴, nous avons obtenu une amélioration moyenne de 22% par rapport à la méthode de référence lorsque seule la méthode préventive est utilisée. La combinaison de la méthode préventive avec la méthode corrective correspond à un taux de détection supérieur à 99%. L’algorithme de détection prends moins de 1 seconde pour à une image de 512×512 pixels avec un ordinateur classique ce qui est compatible avec l’application industrielle visée. / Invisible watermarking for ID images printed on plastic card support is a challenging problem that interests the industrial world. In this study, we developed a watermarking algorithm robust to various attacks present in this case. These attacks are mainly related to the print/scan process on the plastic support and the degradations that an ID card can encounter along its lifetime. The watermarking scheme operates in the Fourier domain as this transform has invariance properties against global geometrical transformations. A preventive method consists of pre-processing the host image before the embedding process that reduces the variance of the embeddable vector. A curative method comprises two counterattacks dealing with blurring and color variations. For a false alarm probability of 10⁻⁴, we obtained an average improvement of 22% over the reference method when only preventative method is used. The combination of the preventive and curative methods leads to a detection rate greater than 99%. The detection algorithm takes less than 1 second for a 512×512 image with a conventional computer, which is compatible with the industrial application in question.

Page generated in 0.2228 seconds