• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 24
  • 7
  • 5
  • Tagged with
  • 35
  • 11
  • 10
  • 10
  • 9
  • 9
  • 9
  • 8
  • 8
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Segmentation et indexation des signaux sonores musicaux

Rossignol, Stéphane 12 July 2000 (has links) (PDF)
Ce travail concerne la segmentation et l'indexation des signaux sonores musicaux. Trois niveaux de segmentation interdépendants sont définis, correspondant chacun à un niveau de description du son différent.<br /><br /><br />1) Le premier niveau de segmentation, appelé << sources >>, concerne la distinction entre la parole et la musique. Les sons considérés peuvent provenir par exemple de bandes-son de films ou d'émissions radiophoniques.<br /><br />Des fonctions d'observation sont étudiées, qui ont pour objectif de mettre en évidence les propriétés différentes du signal de parole et du signal de musique. Plusieurs méthodes de classification ont été étudiées. Les performances du système avec des signaux réels sont discutées.<br /><br /><br />2) Le deuxième niveau de segmentation, appelé << caractéristiques >>, concerne ce type d'index : silence/son, voisé/non voisé, harmonique/inharmonique, monophonique/polyphonique, avec vibrato/sans vibrato, avec trémolo/sans trémolo. La plupart de ces caractéristiques donnent lieu à des fonctions d'observation utilisées par le troisième niveau de segmentation.<br /><br />La détection du vibrato, l'estimation de ses paramètres (fréquence et amplitude) et sa suppression du trajet de la fondamentale ont été particulièrement étudiées. Un ensemble de techniques sont décrites. Les performances de ces techniques avec des sons réels sont discutées.<br /><br />Le vibrato est supprimé du trajet de la fondamentale original afin d'obtenir une ligne mélodique << lissée >>. Alors, ce nouveau trajet de la fondamentale peut être utilisé pour la segmentation en notes (troisième niveau de segmentation) des extraits musicaux, et peut aussi être utilisé pour des modifications de ces sons.<br /><br />La détection du vibrato est opérée seulement si, lors du premier niveau de segmentation, c'est la source << musique >> qui a été détectée.<br /><br /><br />3) Le troisième niveau de segmentation concerne la segmentation en << notes ou en phones ou plus généralement en parties stables >>, suivant la nature du son considéré : instrumental, voix chantée, parole, son percussif...<br /><br />L'analyse est composée de quatre étapes. La première consiste à extraire un grand nombre de fonctions d'observation. Une fonction d'observation est d'autant plus appropriée qu'elle présente des pics grands et fins quand des transitions surviennent et que sa moyenne et sa variance restent petites pendant les zones stables. Trois types de transitions existent : celles en fréquence fondamentale, celles en énergie et celles en contenu spectral. En deuxième lieu, chaque fonction d'observation est automatiquement seuillée. En troisième lieu, une fonction de décision finale, correspondant aux marques de segmentation, est construite à partir des fonctions d'observation seuillées. Finalement, pour les sons monophoniques et harmoniques, la transcription automatique est effectuée. Les performances du système avec des sons réels sont discutées.<br /><br /><br />Les données obtenues pour un certain niveau de segmentation sont utilisées par les niveaux de segmentation de numéro d'ordre supérieurs afin d'améliorer leurs performances. <br /><br />La longueur des segments donnés par le niveau de segmentation en << sources >> peut être de quelques minutes. La longueur des segments donnés par le niveau de segmentation en << caractéristiques >> est communément plus petite : elle est disons de l'ordre de quelques dizaines de secondes. La longueur des segments donnés par le niveau de segmentation en << zones stables >> est le plus souvent inférieure à une seconde.
12

Quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 07 December 2006 (has links) (PDF)
Nous présentons quelques contributions à l'estimation fonctionnelle par méthodes d'ondelettes.<br />Deux axes de recherches orientent notre travail. Premier axe: étude de modèles statistiques complexes. Le point de départ de notre étude est le modèle de bruit blanc gaussien généralisé et le modèle de régression à pas aléatoires.<br />Ceux-ci font intervenir une fonction perturbant l'estimation de la fonction inconnue.<br />Notre objectif est de montrer l'influence exacte de cette fonction parasite via l'approche minimax sous le risque Lp. Dans un premier temps,<br />nous utilisons des méthodes en ondelettes pour cerner les limites de cette approche lorsque l'on se place sur des boules de Besov standards. Dans un deuxième temps, nous étudions l'alternative des boules de Besov pondérées et des méthodes en ondelettes déformées.<br />Deuxième axe: estimation adaptative. Nous étudions les performances de plusieurs estimateurs de seuillage par blocs en ondelettes sous le risque Lp.<br />Nous montrons leurs excellentes propriétés minimax et maxisets pour un large panel de modèles statistiques. En guise d'applications, nous traitons le modèle de régression à pas aléatoires et le modèle de convolution en bruit blanc gaussien.
13

Développements récents sur l'estimation fonctionnelle par méthodes d'ondelettes

Chesneau, Christophe 03 April 2014 (has links) (PDF)
A ce jour, l'essentiel de mes travaux s'articule autour de l'estimation de fonctions inconnues émanant de phénomènes aléatoires. La richesse de ces phénomènes combinée avec l'amélioration constante des méthodes d'estimation nourrissent mon intérêt pour le sujet. J'ai toutefois choisi de me spécialiser dans les méthodes d'ondelettes. La principale raison est qu'elles bénéficient d'une grande faculté d'adaptation à la complexité du problème posé, tout en ayant des performances d'estimation remarquables. Cela est présenté dans la première partie de ce rapport. Les trois autres parties concernent trois de mes résultats les plus significatifs. En outre, ils sont applicables à une multitude de modèles statistiques, ouvrant ainsi un large champ d'applications, et améliorent certains aspects de résultats existants.
14

FLCAA : système de codage parcimonieux et d'analyse perceptuelle des signaux sonores en temps réel

Tremblay-Boucher, Vincent January 2013 (has links)
Ce mémoire débute par un survol de l'état de l’art des méthodes de compositions musicales assistées par ordinateur (MCMAO). À l’aide d'un ensembles critères permettant l’évaluation des méthodes de compositions musicales assistées par ordinateur, on identifie une technique particulièrement prometteuse. Il s’agit d ’un compositeur statistique, présenté par Hoffman et al. en 2008, utilisant les "mel-frquecy cepstral coefficients" (MFCC), un prétraitement inspiré des techniques en reconnaissance de parole. Toutefois, cette technique présente diverses limitations, comme la qualité de reconstruction des signaux, qui l’empêche d'être utilisée pour composer de la musique utilisable professionnellement. Ainsi, ce mémoire tente de bonifier la méthode de composition musicale assistée par ordinateur de Hoffman et al. en remplaçant la technique MFCC d'analyse/synthèse du signal par une technique novatrice d'analyse/synthèse des signaux sonores nommée "Fast Locally competitive algorithm for audio" (FLCAA). Celle-ci permet une analyse perceptuelle parcimonieuse, en temps réel, ayant une bonne résolution fréquencielle et une bonne résolution temporelle. De plus le FLCAA permet une reconstruction robuste de bonne qualité également en temps réel. L’analyse est constituée de deux parties distinctes. La première consiste à utiliser un prétraitement inspiré de l’audition pour transformer le signal sonore afin d'obtenir une représentation cochléaire. Concrètement, la transformation d'analyse est accomplie à l’aide d'un filtrage par banc de filtres cochléaires combiné à un mécanisme de fenêtre coulissante. Le banc de filtres utilisé est composé de filtres cochléaires passe-bande à réponse impulsionnelle finie, de type "rounded exponential" (RoExp). La deuxième étape consiste à coder la représentation cochléaire de manière parcimonieuse afin d'augmenter la résolution spatiale et temporelle pour mettre en évidence certaines caractéristiques du signal comme les fréquences fondamentales, l’information contenue dans les basses fréquences et les signaux transitoires. Cela est fait, en intégrant un réseau de neurones (nommé LCA) utilisant les mécanismes d'inhibition latérale et de seuillage. À partir des coefficients de la représentation perceptuelle, il est possible d'effectuer la transformation de synthèse en utilisant une technique de reconstruction novatrice qui est expliqué en détail dans ce mémoire.
15

Perfectionnement de métaheuristiques pour l'optimisation continue

Boussaid, Ilhem 29 June 2013 (has links) (PDF)
Les métaheuristiques sont des algorithmes génériques, souvent inspirés de la nature, conçues pour résoudre des problèmes d'optimisation complexes. Parmi les métaheuristiques les plus récentes, nous retenons celle basée sur la théorie de la biogéographie insulaire: Biogeography-based optimization (BBO).Dans cette thèse, nous considérons à la fois les problèmes d'optimisation globale à variables continues avec et sans contraintes. De nouvelles versions hybrides de BBO sont proposées comme des solutions très prometteuses pour résoudre les problèmes considérés. Les méthodes proposées visent à pallier les inconvénients de la convergence lente et du manque de diversité de l'algorithme BBO. Dans la première partie de cette thèse, nous présentons la méthode que nous avons développée, issue d'une hybridation de BBO avec l'évolution différentielle (DE) pour résoudre des problèmes d'optimisation sans contraintes. Nous montrons que les résultats de l'algorithme proposé sont plus précis, notamment pour des problèmes multimodaux, qui sont parmi les problèmes les plus difficiles pour de nombreux algorithmes d'optimisation. Pour résoudre des problèmes d'optimisation sous contraintes, nous proposons trois nouvelles variantes de BBO. Des expérimentations ont été menées pour rendre compte de l'utilité des méthodes proposées. Dans une deuxième partie, nous nous intéressons à l'étude des capacités des méthodes proposées à résoudre des problèmes d'optimisation, issus du monde réel. Nous nous proposons d'abord de résoudre le problème d'allocation optimale de puissance pour la détection décentralisée d'un signal déterministe dans un réseau de capteurs sans fil, compte tenu des fortes contraintes en ressources énergétiques et en bande passante des noeuds répartis. L'objectif est de minimiser la puissance totale allouée aux capteurs, tout en gardant la probabilité d'erreur de détection au dessous d'un seuil requis. Dans un deuxième temps, nous nous focalisons sur la segmentation d'images en niveaux de gris par seuillage multi-niveaux. Les seuils sont déterminés de manière à maximiser l'entropie floue. Ce problème d'optimisation est résolu en appliquant une variante de BBO (DBBO-Fuzzy) que nous avons développée. Nous montrons l'efficacité de la méthode proposée aux travers de résultats expérimentaux
16

Conception de métaheuristiques d'optimisation pour la segmentation d'images. Application aux images biomédicales

Nakib, Amir 05 December 2007 (has links) (PDF)
La segmentation des images est généralement l'étape la plus importante dans un système d'analyse d'images : dans l'aide au diagnostic en médecine, en navigation autonome des véhicules, etc. Toutes les tâches ultérieures de ces applications, comme l'extraction de primitives, la détection d'une position ou la reconnaissance d'un objet, dépendent fortement de la qualité de la segmentation. L'inconvénient majeur des algorithmes de segmentation actuels est leur incapacité à s'adapter aux différents types d'images. <br />L'apparition des "métaheuristiques" remonte aux années quatre-vingts. Ces algorithmes stochastiques d'optimisation globale peuvent être appliqués à tout problème, du moment qu'il est formulé sous la forme de l'optimisation de critère(s). Ces algorithmes sont inspirés par des analogies avec la physique (recuit simulé, recuit microcanonique), avec la biologie (algorithmes évolutionnaires) ou avec l'éthologie (colonies de fourmis, essaims particulaires). Ils se prêtent aussi à toutes sortes d'extensions, notamment en optimisation multiobjectif.<br />Afin de concevoir un système de segmentation qui permet d'avoir une meilleure qualité de la segmentation sur une grande variété d'images, nous formulons la segmentation comme un problème d'optimisation, mono-objectif dans un premier temps, puis multiobjectif. <br />Dans l'approche mono-objectif, nous adaptons plusieurs métaheuristiques au problème de la segmentation. Une application sur des images par résonance magnétique (IRM) cérébrales est ensuite réalisée. Cette adaptation des différentes métaheuristiques pour la segmentation nous permet de les comparer sur les plans suivants : la complexité, la vitesse de convergence, l'adaptabilité, et la reproductibilité des solutions. <br />Nous proposons ensuite une approche multiobjectif pour mieux résoudre le problème de la segmentation des images. Dans ce contexte, nous développons trois schémas de systèmes de segmentation adaptatifs : le premier est basé sur l'agrégation de critères, le second sur l'approche non-Pareto, et le troisième sur l'approche Pareto. Enfin, dans le cas particulier de la segmentation des espaces de ventricules cérébraux, nous appliquons différentes approches sur des IRM saines et d'autres pathologiques.
17

Génération de symptômes flous par FFT et SWT : applications à la détection de vibrations

Taleb, Samir 14 February 2007 (has links) (PDF)
L'objectif de ce travail est la détection des défauts à travers la détection des changements ou des anomalies dans les signaux mesurés. Notre travail présente une méthode permettant de construire, à partir d'historique de données (signaux de référence), un modèle comportemental du procédé, puis de détecter des situations anormales issues des dysfonctionnements. Cette méthode consiste à générer des symptômes flous en ligne permettant de suivre l'évolution temporelle du fonctionnement du système à surveiller. Ces symptômes prennent en considération les incertitudes sur la décision en fusionnant le résultat du test de détection avec celui de sa validité. Par leurs propriétés de localisation fréquentielle et temps-fréquence, la transformée de Fourier à court terme et la transformée en ondelettes stationnaires sont deux méthodes adaptables au diagnostic. Les choix de la longueur et du type de la fenêtre de pondération pour la STFT, de l'ondelette mère et du nombre de niveaux de décomposition pour la SWT sont les degrés de liberté qui leur permettent d'extraire des informations pertinentes des signaux analysés. Un symptôme graduel est obtenu en fonction du type et de l'ampleur du défaut. La méthode de détection conçue a été testée sur des signaux contenant des défauts simulés, puis a été ensuite validée sur des données industrielles pour la détection des vibrations torsionnelles dans un laminoir réversible (laminage à chaud). Les degrés de liberté de la méthode proposée confèrent aux méthodes développées la flexibilité par rapport à différentes applications.
18

Logique floue en segmentation d'images : seuillage par entropie et structures pyramidales irrégulières

Braviano, Gilson 03 October 1995 (has links) (PDF)
Contrairement à la logique classique, la logique floue permet de manipuler d'autres valeurs de vérité que le 'vrai' et le 'faux' absolus. Dans ce travail, nous étudions l'introduction de cette logique dans les processus de segmentation d'images. Des techniques de premier et de deuxième ordres sont présentées et appliquées à plusieurs images. Deux méthodes de seuillage basées sur l'entropie floue sont développées. Une coopération entre ces méthodes et l'entropie adaptée classique est proposée pour la segmentation d'images cytologiques. Nous présentons les méthodes de segmentation de deuxième ordre utilisant la notion de pyramide. Les pyramides irrégulières sont étudiées et leur support théorique, basé en théorie de graphes, est formalisé. L'introduction d'un facteur d'incertitude dans le processus de segmentation, basé sur la pyramide de graphes, est proposée. Cela se fait à l'aide de sommets et arêtes floues, créant la pyramide floue. Toutes les procédures restent parallélisables et l'ordre d'évaluation des élements des graphes représentant les niveaux de la pyramide n'a pas d'importance.
19

Perfectionnement d'un algorithme adaptatif d'Optimisation par Essaim Particulaire : application en génie médical et en électronique

Cooren, Yann 27 November 2008 (has links) (PDF)
Les métaheuristiques sont une famille d'algorithmes stochastiques destinés à résoudre des problèmes d 'optimisation difficile . Utilisées dans de nombreux domaines, ces méthodes présentent l'avantage d'être généralement efficaces, sans pour autant que l'utilisateur ait à modifier la structure de base de l'algorithme qu'il utilise. Parmi celles-ci, l'Optimisation par Essaim Particulaire (OEP) est une nouvelle classe d'algorithmes proposée pour résoudre les problèmes à variables continues. Les algorithmes d'OEP s'inspirent du comportement social des animaux évoluant en essaim, tels que les oiseaux migrateurs ou les poissons. Les particules d'un même essaim communiquent de manière directe entre elles tout au long de la recherche pour construire une solution au problème posé, en s'appuyant sur leur expérience collective. Reconnues depuis de nombreuses années pour leur efficacité, les métaheuristiques présentent des défauts qui rebutent encore certains utilisateurs. Le réglage des paramètres des algorithmes est un de ceux-ci. Il est important, pour chaque problème posé, de trouver le jeu de paramètres qui conduise à des performances optimales de l'algorithme. Cependant, cette tâche est fastidieuse et coûteuse en temps, surtout pour les utilisateurs novices. Pour s'affranchir de ce type de réglage, des recherches ont été menées pour proposer des algorithmes dits adaptatifs . Avec ces algorithmes, les valeurs des paramètres ne sont plus figées, mais sont modifiées, en fonction des résultats collectés durant le processus de recherche. Dans cette optique-là, Maurice Clerc a proposé TRIBES, qui est un algorithme d'OEP mono-objectif sans aucun paramètre de contrôle. Cet algorithme fonctionne comme une boîte noire , pour laquelle l'utilisateur n'a qu'à définir le problème à traiter et le critère d'arrêt de l'algorithme. Nous proposons dans cette thèse une étude comportementale de TRIBES, qui permet d'en dégager les principales qualités et les principaux défauts. Afin de corriger certains de ces défauts, deux modules ont été ajoutés à TRIBES. Une phase d'initialisation régulière est insérée, afin d'assurer, dès le départ de l'algorithme, une bonne couverture de l'espace de recherche par les particules. Une nouvelle stratégie de déplacement, basée sur une hybridation avec un algorithme à estimation de distribution, est aussi définie, afin de maintenir la diversité au sein de l'essaim, tout au long du traitement. Le besoin croissant de méthodes de résolution de problèmes multiobjectifs a conduit les concepteurs à adapter leurs méthodes pour résoudre ce type de problème. La complexité de cette opération provient du fait que les objectifs à optimiser sont souvent contradictoires. Nous avons élaboré une version multiobjectif de TRIBES, dénommée MO-TRIBES. Nos algorithmes ont été enfin appliqués à la résolution de problèmes de seuillage d'images médicales et au problème de dimensionnement de composants de circuits analogiques
20

Segmentation and Contrasting in Different Biomedical Imaging Applications / Amélioration de l'image et la segmentation : applications en imagerie médicale

Tayyab, Muhammad 02 February 2012 (has links)
Avancement dans l'acquisition d'image et le progrès dans les méthodes de traitement d'image ont apporté les mathématiciens et les informaticiens dans les domaines qui sont d'une importance énorme pour les médecins et les biologistes. Le diagnostic précoce de maladies (comme la cécité, le cancer et les problèmes digestifs) ont été des domaines d'intérêt en médecine. Développement des équipements comme microscope bi-photonique à balayage laser et microscope de fluorescence par réflexion totale interne fournit déjà une bonne idée des caractéristiques très intéressantes sur l'objet observé. Cependant, certaines images ne sont pas appropriés pour extraire suffisamment d'informations sur de cette image. Les méthodes de traitement d'image ont été fournit un bon soutien à extraire des informations utiles sur les objets d'intérêt dans ces images biologiques. Rapide méthodes de calcul permettent l'analyse complète, dans un temps très court, d'une série d'images, offrant une assez bonne idée sur les caractéristiques souhaitées. La thèse porte sur l'application de ces méthodes dans trois séries d'images destinées à trois différents types de diagnostic ou d'inférence. Tout d'abord, Images de RP-muté rétine ont été traités pour la détection des cônes, où il n'y avait pas de bâtonnets présents. Le logiciel a été capable de détecter et de compter le nombre de cônes dans chaque image. Deuxièmement, un processus de gastrulation chez la drosophile a été étudié pour observer toute la mitose et les résultats étaient cohérents avec les recherches récentes. Enfin, une autre série d'images ont été traités où la source était une vidéo à partir d'un microscopie photonique à balayage laser. Dans cette vidéo, des objets d'intérêt sont des cellules biologiques. L'idée était de suivre les cellules si elles subissent une mitose. La position de la cellule, la dispersion spatiale et parfois le contour de la membrane cellulaire sont globalement les facteurs limitant la précision dans cette vidéo. Des méthodes appropriées d'amélioration de l'image et de segmentation ont été choisies pour développer une méthode de calcul pour observer cette mitose. L'intervention humaine peut être requise pour éliminer toute inférence fausse. / Advancement in Image Acquisition Equipment and progress in Image Processing Methods have brought the mathematicians and computer scientists into areas which are of huge importance for physicians and biologists. Early diagnosis of diseases like blindness, cancer and digestive problems have been areas of interest in medicine. Development of Laser Photon Microscopy and other advanced equipment already provides a good idea of very interesting characteristics of the object being viewed. Still certain images are not suitable to extract sufficient information out of that image. Image Processing methods have been providing good support to provide useful information about the objects of interest in these biological images. Fast computational methods allow complete analysis, in a very short time, of a series of images, providing a reasonably good idea about the desired characteristics. The thesis covers application of these methods in 3 series of images intended for 3 different types of diagnosis or inference. Firstly, Images of RP-mutated retina were treated for detection of rods, where there were no cones present. The software was able to detect and count the number of cones in each frame. Secondly, a gastrulation process in drosophila was studied to observe any mitosis and results were consistent with recent research. Finally, another series of images were treated where biological cells were observed to undergo mitosis. The source was a video from a photon laser microscope. In this video, objects of interest were biological cells. The idea was to track the cells if they undergo mitosis. Cell position, spacing and sometimes contour of the cell membrane are broadly the factors limiting the accuracy in this video. Appropriate method of image enhancement and segmentation were chosen to develop a computational method to observe this mitosis. Cases where human intervention may be required have been proposed to eliminate any false inference.

Page generated in 0.4263 seconds