Spelling suggestions: "subject:"detechniques numérique"" "subject:"3dtechniques numérique""
1 |
Injection de style par blanchissage et coloration dans un réseau génératif profondDufour, Antoine 13 December 2023 (has links)
Dans la génération et la manipulation d'images basées sur les GANs, l'injection de style par Adaptive Instance Normalization (AdaIN) est devenue la norme pour paramétrer la génération avec une représentation latente du domaine des images. AdaIN fonctionne en modulant les statistiques des caractéristiques de l'image : il normalise d'abord les caractéristiques en soustrayant leur moyenne et en divisant par leur écart type puis injecte un vecteur de style par l'inverse de cette opération. Bien que cette méthode ait été utilisée avec succès dans une variété de scénarios de traduction d'image à image, la représentation statistique d'AdaIN est limitée en ce qu'elle ne tient pas compte des corrélations entre les caractéristiques. Cependant, dans la littérature du transfert de style, la transformation par blanchiment et coloration (Whitening & Coloring Transformation WCT) est devenue l'approche privilégiée, car elle prend compte de l'existence de ces corrélations. Toutefois, malgré ses bonnes performances en matière de transfert de style, l'utilisation du WCT n'a jusqu'à présent pas été explorée de manière approfondie dans le contexte de l'injection de style. Dans ce travail, nous comblons cette lacune en remplaçant AdaIN par une opération de WCT explicite pour l'injection de style dans les GAN. Plus précisément, nous introduisons un module qui peut être utilisé en remplacement des blocs AdaIN (sans changement additionnel) dans les architectures GAN populaires existantes et présentons son impact sur les tâches de génération. Effectivement, dans la génération d'images conditionnelles, où l'espace latent est destiné à représenter le style des images, nous constatons que le blanchiment aide à s'assurer que l'espace n'encode que des informations stylistiques, ce qui permet au contenu de l'image conditionnelle d'être plus visible. Nous démontrons les performances de notre méthode dans deux scénarios : 1) dans un context d'entraînement supervisé à l'aide du jeu de données Google Maps et 2) en ayant recours à l'architecture StarGANv2 multi-domaine et multi-modale dans une situation d'entraînement non-supervisé et ce en utilisant le jeu de données Animal Faces-HQ (AFHQ). / In the GAN-based images generation and manipulation domain, style injection by Adaptive Instance Normalization (AdaIN) has become the standard method to allow the generation with a latent representation of the image domain. AdaIN works by modulating the statistics of the characteristics of the image: it first normalizes the characteristics by subtracting their mean and dividing by their standard deviation then it injects a style vector by the reverse of this operation. Although this method has been used successfully in a variety of image-to-image translation scenarios, the statistical representation of AdaIN is limited in that it does not take into account the existing correlations between the features. However, in the style transfer literature, the transformation by whitening and coloring (Whitening & Coloring Transformation WCT) has become the preferred approach because it takes into account the existence of these correlations. Yet, despite its good performance in terms of style transfer, the use of WCT has so far not been explored in depth in the style injection literature. In this work, we fill this gap by replacing AdaIN by an explicit operation of WCT for style injection in GAN. More specifically, we introduce a module that can be used as a replacement for the AdaIN blocks (without any additional change) in the existing popular GAN architectures and we present its impact on generation tasks. Indeed, in the conditional image generation task, where the latent space is intended to represent the style of the images, we find that whitening helps ensure that the space encodes only stylistic information which allows the content of the input image to be more visible. We demonstrate the performance of our method in two scenarios: 1) in a supervised training context using the Google Maps dataset and 2) using multi-domain and multi-modal StarGANv2 architecture in an unsupervised training setup using the Animal Faces-HQ (AFHQ) dataset.
|
2 |
Computer-aided diagnosis of pulmonary embolism in opacified CT imagesSebbe, Raphaël 20 February 2007 (has links)
Pulmonary embolism (PE) is an extremely common and highly lethal condition that is a leading cause of death in all age groups. PE is the third most common cause of death in hospitalized patients, with an estimated 0.24% annual death rate of the population. Its symptoms are often vague and its diagnosis is a major medical challenge, with 70% of missed diagnosis in people dying from PE in hospitals. If left untreated, approximately one third of patients who survive an initial PE subsequently die from a future embolic episode. Most patients succumb to PE within the first few hours of the event. However, when properly identified, an effective treatment consisting of anticoagulants or thrombolytics is administered that dramatically reduces the mortality rate of the disease.
Typically, the diagnosis of PE is manually performed by radiologists on CT images. It is a time-consuming and error-prone process, in particular because of the huge amount of data and more specifically in the case of sub-segmental and peripheral clots, which are less visible. Indeed, a typical CT dataset that is used for PE diagnosis can have more that 600 slices, the size of the smallest visible volume being in the order of magnitude of one millimeter. The duration of that review process by radiologists, excluding acquisition time, is in the order of 5 to 10 minutes, depending on evidence of the clots. The duration of an exam may become a concern considering that there is currently a lack of radiologists, that is partly due to the availability of new modalities, the increasing complexity of existing ones, and the growing number of new applications of medical imaging (functional imaging, heart CT, etc.).
In that context, a computer aid can be provided whose main goal would be to decrease the time required to perform an exam, by acting either as a safeguard for radiologists or even better, if sufficiently robust and conservative, as a preliminary detection step in a computer-aided diagnosis (CAD) system. The work presented in this thesis consists of a combination of a method for segmenting the pulmonary arteries (PA), two emboli detection methods as well as a scheme for the evaluation of the performance. The segmentation of the PA serves one of the clot detection methods, and is carried out through a region growing algorithm that makes use of a priori knowledge of vessels topology. Two different approaches for clot detection are introduced. The evaluation of the method is also discussed, and a scheme for measuring its performance in terms of sensitivity and specificity is proposed, including a practical approach to making reference detection data, or ground truths, by radiologists.
|
3 |
Tail distribution of the sums of regularly varying random variables, computations and simulations / Queue de distribution de somme de variables aléatoires a variations régulières, calculs et simulationsNguyen, Quang Huy 03 November 2014 (has links)
Cette thèse s'intéresse à l'utilisation de techniques numériques par approximation sous forme de séries et de techniques de simulation pour l'approximation de la queue de distribution de sommes de variables aléatoires à variations régulières. Le calcul de la probabilité que la somme soit plus grande qu'un seuil donné est important en gestion des risques. En particulier, ce calcul est utilisé pour définir le besoin en capital des sociétés d'assurances ou d'autres institutions financières. Le premier chapitre constitue l'introduction de la thèse. Il explique les principaux résultats et présente les outils mathématiques qui sont développés dans la thèse. Le second chapitre est basé sur le travail : ”Series expansions for the sum of the independent Pareto random variables”, article rédigé avec le Professeur Christian ROBERT, directeur de la thèse. Cet article est soumis à publication. Il propose un algorithme de calcul pour déterminer la queue de distribution d'une somme de variables aléatoires de type Pareto non nécessairement équidistribuées. Il propose une approximation sous forme de série de la fonction de survie de la somme. L'algorithme utilisé pour calculer l'approximation est simple, facile à implémenter, et offre de très bons résultats numériques. Le troisième chapitre de cette thèse est basée sur l'article : ”New efficient estimators in rare event simulation with heavy tails”, publié dans Journal of Computational and Applied Mathematics, et co-écrit avec le Professeur Christian ROBERT. Il s'intéresse à l'approximation par simulation de la probabilité que la somme de variables aléatoires indépendantes à variations régulières soit plus grande qu'un seuil élevé. Des estimateurs efficaces ont déjà été introduits dans la littérature associée à la simulation d'évènements rares. Nous proposons de nouvelles techniques de simulation qui sont plus efficaces que les méthodes précédemment proposées. Le quatrième chapitre poursuit l'analyse de la simulation d'évènements rares du type ”la somme est plus grande qu'un seuil”, mais cette fois-ci il s'intéresse à des situations où les variables aléatoires sont dépendantes. Il se focalise sur le cas où la dépendance est donnée par une copule archimédienne. Ce chapitre est basé sur l'article en relecture : ”Efficient simulation of tail probabilities of sums with heavy tailed random variables and Archimedean copulas”. Les équivalents asymptotiques de la probabilité de dépassement de seuil ne sont connus que dans des cas particuliers et ils fournissent en général des approximations très médiocres de la vraie valeur. Les techniques de simulation sont donc très appréciables pour obtenir rapidement des approximations précises. Nous proposons quatre estimateurs et quatre techniques de simulation associées. Nous montrons que les erreurs relatives sont asymptotiquement bornées pour presque tous les estimateurs. Les simulations montrent que certains estimateurs sont plus précis / This thesis aims to study computation and simulation methods to approximate tail distribution of the sums of regularly varying random variables. The paper proceeds as follows: The first chapter provides the general introduction of the thesis. The second chapter is essentially constituted by the article ”Series expansions for the sum of the independent Pareto random variables” which was co-written with Professor Christian ROBERT, actually submitted for publication. It deals with the problem of estimating tail distribution of the sum of independent Pareto variables. This problem has been studied for a long time but a complete solution has not yet been found. In this section, we acquire an exact formula, a series expansions, for the distribution of the sum of independent Pareto of non-integer tail indices. Not only is this formula simple and easy to apply but it also gives better numerical results than most of existing methods.The third chapter rests on the article ”New efficient estimators in rare event simulation with heavy tails”, co-written with Professor Christian ROBERT, currently published on ”Journal of Computational and Applied Mathematics 261, 39-47” in 2013. Practically, efficient estimation for tail distribution of the sum of i.i.d. regularly varying random variables is one of widely researched problems in rare event simulation. In this context, Asmussen and Kroese’s estimator has performed better than other works. This part will introduce a new way to approach the sum. Our obtained estimator is more efficient than Asmussen and Kroese’s estimator in the case of regularly varying tail. In other cases, combined with techniques of conditional Monte Carlo and importance sampling, our estimator is still better. In the fourth chapter, we continue to study the tail behavior of the sum of regularly varying variables, with additional assumption that the dependence follows an Archimedean copula or an Archimedean survival copula. This section hinges on the article ”Efficient simulation of tail probabilities of sums with heavy tailed random variables and Archimedean copulas” which is under consideration for being published. Almost all previous studies on this problem used asymptotic approaches which are hard to control the errors. Therefore, techniques of simulation to calculate the tail probability of the sum are presented. Though some of our estimators have bounded relative errors while the others do not, all of them give favorable numerical performances for such a challenging problem
|
4 |
Détection robuste et automatique de véhicules dans les images aériennesSahli, Samir 19 April 2018 (has links)
Cette thèse se situe dans le cadre général de la détection d’objets. Elle porte plus particulièrement sur la détection de véhicules dans les images aériennes de grandes dimensions. Le principal obstacle à l’obtention d’une détection robuste des véhicules est la grande variété de leurs apparences. Dans un premier temps, nous avons abordé le cadre théorique de la détection et identifié une approche prometteuse, l’analyse locale de scène. Par le biais de détecteurs, nous avons limité l’analyse aux seules régions susceptibles de contenir des véhicules. De là, nous avons extrait les informations locales caractéristiques des véhicules afin d’entraîner des Séparateurs à Vaste Marge (en anglais Support Vector Machine, SVM). Cette première chaîne de traitement nous a permis d’obtenir de multiples détections par véhicule. Dans un deuxième temps, nous avons regroupé automatiquement les multiples détections à l’aide de l’algorithme Affinity Propagation(AP). Des contraintes spatiales ont été introduites afin de garantir que le regroupement se fasse dans le respect des dimensions des véhicules. Finalement, l’extraction des véhicules a été effectuée en utilisant les informations relatives à l’orientation et la forme des véhicules présentes dans l’image. Afin de pallier certaines faiblesses que présente la première chaîne de traitement, nous avons développé une seconde chaîne de traitement. Tout d’abord, nous avons procédé à la sélection de régions saillantes susceptibles de contenir les véhicules. Ensuite, nous avons sur-segmenté l’image afin d’obtenir des régions uniformes en couleur de dimensions inférieures à celles des véhicules, les superpixels. De là, nous avons extrait les informations locales et globales relatives à ces superpixels et entraîné à nouveau des SVM en mode classification. À l’issue de cette deuxième chaîne de traitement, nous avons augmenté significativement notre capacité de détection. Finalement, dans le dernier chapitre de cette thèse, nous avons proposé un nouvel algorithme destiné à sélectionner les régions saillantes de l’image. Cet algorithme est spécialement conçu pour traiter des images aériennes. De plus, il présente de nombreux avantages comparativement aux méthodes concurrentes existantes.
|
5 |
Codage robuste d'un patron de lumière structurée pour la capture 3D de scènes dynamiquesRochette, Félix 18 April 2018 (has links)
Tableau d’honneur de la Faculté des études supérieures et postdoctorales, 2012-2013. / L'objectif visé par cette recherche est de développer un système de reconstruction 3D à lumière blanche structurée pour des scènes dynamiques. Un état de l'art critique sur les stratégies de codage pour ce type de système est d'abord présenté. Ensuite, une nouvelle stratégie de codage permettant d'obtenir un grand nombre de correspondances précises est détaillée. Ce mémoire propose d'utiliser un encodage spatial sur une seule trame en utilisant des séquences de De Bruijn binaires. Afin de solutionner le problème de la déformation du code sur l'objet, une séquence de référence fixe est intégrée au code projeté. Cette stratégie de codage est implantée sur deux systèmes. Le premier système est un capteur comportant une seule caméra et un projecteur alors que le second est un capteur comportant deux caméras et un projecteur. La qualité et la densité des points 3D extraits avec ces deux types de capteurs sont analysées et comparées.
|
6 |
Méthodes algorithmiques de traitement d'images en holographie digitaleMonnom, Olivier 14 September 2006 (has links)
Le présent travail traite de problèmes particuliers en traitement de signal soulevés par l'holographie digitale. Le premier chapitre présente l'holographie et l'holographie digitale. Le deuxième chapitre aborde le problème des artéfacts apparaissant sur le bord des hologrammes lorsque ceux-ci sont propagés numériquement. Le troisième chapitre propose une méthode automatique pour éliminer la phase de fond d'un hologramme. Le quatrième chapitre montre comment améliorer la visibilité des hologrammes en supprimant les objets diffractants. Le cinquième chapitre expose un logiciel d'aide à l'analyse des hologrammes enregistrés dans le temps. On montre la capacité du logiciel à effectuer du tracking d'objets en trois dimensions à posteriori. Le sixième chapitre traite de la reconnaissance de forme dans les hologrammes, le problème de la reconnaissance de particules micrométriques est abordé. Des conclusions et perspectives terminent le travail. / Doctorat en sciences appliquées / info:eu-repo/semantics/nonPublished
|
7 |
Imagerie Isar à l'aide de l'algorithme génétiqueMartin, Jennifer 25 April 2022 (has links)
Le radar à ouverture synthétique inverse (ISAR) est normalement utilisé pour produire l'image à haute résolution d'une cible éloignée en mouvement. Le mouvement de la cible est essentiel à l'imagerie mais un mouvement de translation produit une migration en portée des réflecteurs de la cible et introduit aussi un terme de phase additif et tous deux produisent une défocalisation de l'image. Dans ce mémoire, nous explorons comment l'algorithme génétique peut être utile à ISAR en le combinant à différentes méthodes connues de compensations du mouvement, plus particulièrement à l'algorithme AutoClean. Nous comparerons la performance de l'algorithme Auto-Clean telle qu'elle, de l'algorithme AutoClean avec sa combinaison à l'algorithme génétique et à d'autres combinaisons dont la méthode de projection AJTF et la méthode de minimisation de l'entropie MEM.
|
8 |
Authentification d'individus par reconnaissance de caractéristiques biométriques liées aux visages 2D/3DGuerfi, Souhila 03 October 2008 (has links) (PDF)
Cette thèse s'inscrit dans le domaine de l'authentification de visage, en particulier dans le cadre du projet national " TechnoVision ". Bien que les êtres humains puissent détecter/reconnaître des visages dans une scène sans beaucoup de peine, construire un système qui accomplit de telles tâches représente un sérieux défie. Ce défi est d'autant plus grand lorsque les conditions d'acquisition des images sont très variables. Il existe deux types de variations associées aux images de visages : inter et intra sujet. La variation inter-sujet est limitée à cause du fait que la ressemblance physique entre les individus est assez rare. Par contre la variation intra-sujet est plus courante à cause, par exemple, des variations de poses, des changements dans les conditions d'éclairage, etc. Dans cette thèse, nous avons d'abord développé une approche de localisation de visage et de ses caractéristiques pour des images ne contenant qu'un seul visage sur un fond relativement uniforme avec des variations de lumière. Pour cela nous avons proposé une approche robuste de segmentation couleur dans l'espace TLS qui repose sur l'algorithme de ligne de partage des eaux modifiée. Pour l'extraction des régions caractéristiques faciales (yeux et bouche), nous avons combiné la méthode de classification kmeans avec une approche géométrique et nous l'avons appliqué sur la région du visage segmentée. Nous avons aussi proposé une approche multimodale 2D/3D qui repose sur la fusion pondérée des scores de l'approche " EigenFace " modulaire avec la signature anthropométrique 3D de visage. Nous avons évalué nos approches 3D et 2D/3D de reconnaissance du visage sur une sous-base de IV2 qui contient des images stéréoscopiques de visage. Les résultats obtenus sont très intéressants en comparaison avec les techniques classiques de reconnaissance 2D de visage. Enfin, nous avons discuté les perspectives d'amélioration des approches proposées.
|
9 |
Restitution sonore hiérarchique et perceptive d'environnements virtuels multi-modauxGallo, Emmanuel 19 March 2006 (has links) (PDF)
Ce travail porte sur la simulation acoustique temps-réel pour des applications de réalité virtuelle ou les jeux vidéo. Ce type d'application nécessite des temps de calcul considérables, augmentant avec la complexité de la scène et impliquant des difficultés pour le rendu interactif. La simulation d'une scène sonore complexe reste encore difficile à réaliser en temps réel à cause du coût de la gestion indépendante des sources sonores. De plus, la description de la scène sonore nécessite de spécifier la nature et la position de chaque source sonore qui la compose, ce qui est une étape longue et fastidieuse. Dans ce cadre, nous avons étudié la possibilité d'effectuer la simulation acoustique en tirant parti de la puissance de calcul des cartes graphiques de dernière génération.<br />Les résultats montrent que l'architecture hautement parallèle de ces cartes est appropriée pour ce type de calcul, augmentant grandement les performances par rapport aux processeurs actuels. Nous nous sommes intéressés par la suite à développer un algorithme exploitant l'audition humaine, permettant d'effectuer un rendu sonore de la scène en respectant un budget d'opérations donné. Pour cela, l'algorithme évalue une métrique d'importance pour chaque signal à traiter sur des intervalles de temps très fins. Puis il effectue les opérations par ordre de priorité jusqu'à atteindre le budget fixé. Une évaluation subjective a été effectuée pour comparer différentes métriques d'importance.<br />Enfin, nous avons élaboré une méthode alternative d'acquisition de scène sonore qui évite la modélisation individuelle de chaque source. A partir d'enregistrements monophoniques simultanés d'une scène réelle, cette méthode en détache les sources qui la composent. En étudiant les différences de temps d'arrivée des enregistrements sur plusieurs bandes de fréquence, une position est extraite pour la source sonore émettrice la plus présente dans chaque bande. Les composantes de chaque source peuvent ensuite être spatialisées<br />aux positions trouvées. En utilisant ce principe, nous pouvons également rééditer la scène acquise. Par exemple, nous pouvons déplacer ou supprimer une source, ou changer la position de l'auditeur en temps réel. Nous pouvons aussi combiner plusieurs éléments provenant de différents enregistrements tout en assurant une cohérence spatiale globale.
|
10 |
Tridimensional Estimation of Turbulent Fluid Velocity / Estimation tridimensionnelle de vitesse de fluides turbulentsBarbu, Ioana 15 December 2014 (has links)
L'analyse du mouvement en 3 dimensions (3D) des fluides turbulents à évoluée vers un cadre nécessitant (i). un système de capteurs puissants (ii). le développement d'outils d'estimation de basse complexité (iii). des connaissances a priori issues de la physique du fluide. Des nouvelles techniques formulées dans ce contexte et s'appuyant sur le traitement d'images ont été proposées. Leur méthodologie repose sur la conjugaison du savoir propre à la communauté Vision par Ordinateur avec des modèles physiques de la dynamiques du fluide. Mais voilà, la plupart de ces procédures sont exprimées dans un cadre bidimensionnel (2D), dans le sens où elles reconstruisent un champ 2D à partir des deux images consécutives 2D ; dès lors, ces-dernières ne sont pas adaptées pour certains régimes du fluide. Récemment, des nouvelles contributions ont proposé l'estimation du champ 3D des fluides à partir des densités volumiques préalablement reconstruites. De plus, une amélioration de ces schémas classiques suggère un apport signifiant en netteté de la reconstruction dans un cadre joint d'estimation volume-mouvement. Motivés par ces développements, nous proposons dans cette étude une alternative au schéma joint déjà présent dans la littérature afin d'estimer la vitesse 3D des fluides à partir de plusieurs séquences synchronisées d'images 2D. Le cadre théorique de cette thèse a été présenté en connexion avec les communautés de la Vision par Ordinateur, du Traitement du Signal et de la Tomographie PIV. Notre travail peut être divisé en trois tâches majeures : (i). la formulation d'un modèle proche de la physique du système observé (ii). la conception des algorithmes de reconstruction volumique de basse complexité qui prennent en compte des particularités notables sur le système (iii). l'élaboration d'un schéma de reconstruction des champs de vitesse qui considère des scénarios bruités et la structure cohérente volumique entre deux instants. Nous évaluons les performances de nos méthodes sur des scènes réalistes représentant le signal de Tomographie PIV. / The challenge of the modern understanding of the 3D turbulent flows involves the need for (i). a reliable sensing technology (ii). the design of low-complexity estimation tools (iii). Physically-sound priors. Novel techniques relying on processing image sequences have been advanced. Their methodology relies on conjugating approaches issued from the computer vision community with physical knowledge on fluid dynamics with the intent of designing an accurate motion estimator.Most of these procedures are formalized within a bidimensional framework, i.e., they reconstruct a 2D motion field out of two consecutive 2D images, making them unsuitable for several fluid regimes with high 3D structures. Estimating the fluid motion within a 3D framework seems more pertinent. In related work, the velocity fields are most often retrieved from previously estimated volumetric densities. Recent contributions estimating the volumetric distribution with regard to the motion field that links them suggest a joint optimization approach as the appropriate modus operandi towards rigorous retrieval of turbulent fluid flow. In this thesis, we have proposed a novel joint solution to address the task of 3D fluid motion estimation out of multiple sequences of synchronized 2D images. The theoretical frame has been presented with connections to the computer vision and signal processing fields, as well as to the Tomographic PIV (tomoPIV) community. Our work can be divided into three main tasks: (i). the design of a physically sound model with respect to the nature of the visualized scene (ii). the devise of volume reconstruction algorithmic schemes with low complexity that take into account known priors on the physical signal and output a satisfying estimation within a few iterations (iii). the formalization of a velocity reconstruction scheme that accounts for noisy settings and for the linked structure between two instantaneous volume reconstructions. We evaluate the agility of our methods and highlight their performance throughout realistic numerical experiments mimicking the real-world tomoPIV signal.
|
Page generated in 0.0859 seconds