• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 48
  • 21
  • 4
  • Tagged with
  • 72
  • 72
  • 65
  • 47
  • 42
  • 35
  • 33
  • 22
  • 18
  • 16
  • 13
  • 12
  • 11
  • 10
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Minimisation de la gigue d'échantillonnage d'un spectromètre à transformée de Fourier imageur à détecteur intégrateur en présence de perturbations mécaniques

Déry, Jean-Philippe 18 April 2018 (has links)
Le développement des spectromètres par transformée de Fourier (FTS) a connu un essor important en bénéficiant de l'attention de nombreux groupes de recherche à travers le monde depuis les années 1960 (bien que cet instrument existait déjà bien avant), résultant dans la connaissance approfondie que nous en avons aujourd'hui. Dans les années 1990 et 2000, l'augmentation grandissante des performances des caméras à intégration (de type «charge-coupled device» (CCD) ou autre) a permis la croissance accélérée de la technologie FTS imageur, combinant ainsi l'information spatiale à l'information spectrale, et ouvrant la porte à de nouvelles applications pour cet instrument de pointe. Mise à part la quantité phénoménale de données produite par un tel instrument, certains aspects fondamentaux de l'appareil, bien caractérisés pour les instruments mono-pixel, méritent une nouvelle analyse lorsqu'un détecteur de type intégrateur est utilisé. Ce mémoire de maîtrise se concentre sur l'un de ces éléments : la minimisation de la gigue d'échantillonnage des données acquises en présence de perturbations mécaniques. Cette gigue étant principalement due aux variations de vitesse du chariot du miroir en mouvement dans l'instrument, la qualité de l'information de position et de vitesse est tout d'abord améliorée afin d'obtenir un estimé plus précis de l'état du chariot. Puis, sur la base de cette connaissance fiable, deux approches générales sont analysées. Dans un premier temps, une approche de réduction de la gigue d'échantillonnage a priori (soit avant l'intégration intrinsèque à l'acquisition avec une caméra) est abordée et les performances de trois méthodes de génération des instants d'échantillonnage sont comparées, à la fois en simulation et via leur implantation dans un système réel. Dans un deuxième temps, deux algorithmes de ré-échantillonnage sont utilisés afin de corriger la grille d'échantillonnage a posteriori, soit avec la connaissance de la position d'échantillonnage du signal telle qu'estimée par le laser de référence. Pour terminer, l'analyse combinée des résultats fait ressortir la meilleure approche globale et les ressources technologiques requises pour l'implémenter.
52

Extraction des connaissances en imagerie microspectrométrique par analyse chimiométrique : application à la caractérisation des constituants d'un calcul urinaire

Elmi Rayaleh, Waïss 27 June 2006 (has links) (PDF)
L'imagerie spectroscopique classique utilisant la sélection d'une bande spectrale d'absorption spécifique pour chaque composé d'un mélange a atteint ses limites lors d'analyse d'échantillons complexes naturels ou industriels. Les méthodes chimiométriques sont alors un précieux outil pour s'affranchir à la fois des limitations dues aux recouvrements spectraux et certaines limitations instrumentales. Cependant une optimisation et une adaptation des méthodologies de résolution aux cas concrets sous analyse sont nécessaires. Notre étude a ciblé les différents traitements chimiométriques permettant de mieux extraire les images microspectrométriques des constituants d'un mélange. Dans une première étape, une optimisation est effectuée sur des données synthétiques pour un ensemble des méthodes de résolution multivariées. Parmi celles-ci, OPA(var) (Orthogonal Projection Approach par sélection des variables) s'est révélée être le plus efficace qualitativement. Puis, la démarche originale mettant en oeuvre le couplage des méthodes chimiométriques de l'optimisation avec MCR-ALS (Multivariate Curve Resolution - Alternating Least Squares) a été réalisée. La capacité de résolution de MCR-ALS se trouve considérablement renforcée par ce couplage. Ensuite, au niveau du pixel, les contraintes liées au rang local ont été spécifiées et appliquées. La pertinence du couplage réalisé et l'efficacité d'extraction par les contraintes du rang local ont été mises en évidence dans les nombreux cas étudiés. L'application de cette méthodologie d'analyse, mise en place, sur des données réelles issues de la micro- spectrométrie Raman a abouti d'une manière concluante. Les constituants d'un calcul urinaire sont identifiés par leurs spectres respectifs grâce à une bibliothèque de référence. Chaque image extraite indique la répartition du composé correspondant dans la partie analysée par l'intermédiaire d'une échelle de couleur adaptée. En effet, dans ce type de pathologie, une bonne identification de la chronologie de formation de différents constituants permet un meilleur diagnostic et un traitement médical adapté. Dans notre étude, la reproduction efficace des images microspectrométriques de grande qualité par les méthodes chimiométriques est prouvée même dans un cas réel complexe.
53

Les contours actifs basés région avec a priori de bruit, de texture et de forme : Application à l'échocardiographie

Lecellier, François 15 May 2009 (has links) (PDF)
L'objectif de ce travail est la conception et l'implémentation d'une méthode de segmentation générique d'images médicales qui puisse s'adapter à l'évolution des modalités et des besoins exprimés par les médecins. Partant ainsi du constat que la segmentation d'images médicales nécessite l'introduction de connaissances, nous avons opté pour une méthode pouvant combiner avantageusement les informations de bruit, de texture et de forme : les contours actifs basés région. Cette méthode consiste à déformer une courbe vers l'objet à segmenter. Ces déformations sont déduites de la dérivation d'une fonctionnelle à optimiser. <br />Notre contribution principale se situe au niveau de l'obtention de critères généraux permettant les ajouts d'informations a priori. Concernant le modèle de bruit, le critère consiste à considérer une fonction générale d'une loi paramétrique appartenant à la famille exponentielle. Nous avons mis en évidence que l'estimation des paramètres de la loi intervient de façon primordiale dans le calcul de l'équation d'évolution du contour. Pour le modèle de texture, l'absence de représentation discriminant de manière générale les textures, nous a conduit à utiliser une approche non paramétrique reposant sur les représentations parcimonieuses. Enfin l'a priori de forme utilise un critère basé sur les moments de Legendre. Les différents a priori sont ensuite reliés par le biais d'un algorithme de minimisation alternée ce qui permet de pondérer efficacement les termes d'attache aux données photométriques et l'a priori géométrique.<br />Les trois approches ont été testées et validées séparément puis de manière combinée sur des images synthétiques et réelles.
54

Recherches sur les flèches monumentales du XIIIe siècle dans le nord de la France : le cas de la tour sud de la cathédrale de Senlis / Research on the monumental 13th century spires in Nothern France : the case study of the south tower of Senlis Cathedral.

Lejeune, Mathieu 19 November 2018 (has links)
Admirée pour son architecture imposante et richement ornée, la tour sud de la cathédrale de Senlis constitue l’une des rares flèches monumentales du XIIIe siècle parvenue jusqu’à nous. Cette recherche résolument interdisciplinaire explicite le déroulement de cet ambitieux chantier, en convoquant aussi bien l’analyse historique, l’archéologie du bâti que les techniques numériques. Le surhaussement de la façade occidentale par cette tour de 80 m de haut illustre l’ambition des évêques de Senlis, désirant parachever la plus petite cathédrale du nord de la France. En reconstituant la topographie de Senlis au Moyen Âge, il est possible d’étudier précisément l’impact de la flèche sur le paysage urbain et périphérique ainsi que les phénomènes d’émulation avec les tours civiles et religieuses. Une étude archéologique enrichie par l’étude des traces d’outils précise les travaux de renforcement de la façade occidentale en prévision de la flèche. La numérisation de la tour au moyen d’un scanner laser 3D permet de l’étudier dans ses moindres détails, en proposant une analyse architecturale, géométrique, mécanique et en s’interrogeant sur les nombreuses déformations des parois. L’étude de l’abondant décor sculpté précise une datation jusqu’ici très large et articule le chantier avec le premier transept de la cathédrale, chronologiquement proche. Enfin, l’étude matérielle de la flèche explicite l’organisation du chantier de construction, en s’intéressant aux méthodes de mise en œuvre, à la mise en place des échafaudages et aux étapes successives d’édification. / Admired for its imposing and richly ornamented architecture, the south tower of Senlis Cathedral is one of the few 13th century monumental spires that has been preserved till today. This resolutely interdisciplinary research enlightens the progress of this ambitious project, by combining historical analysis, building archaeology and digital techniques. The superelevation of the western façade of the Cathedral underlines the ambition of the bishops of Senlis, who wished to complete the smallest Cathedral in northern France. By reconstituting the topography of Senlis in the Middle Ages, it is possible to study precisely the impact of the spire on the urban and peripheral landscape as well as the phenomena of emulation with the civil and religious towers. An archaeological study enriched by the analysis of the traces of tools specifies the reinforcement work of the western facade in anticipation of the spire. The digitalization of the tower through the scanner laser 3D method allows a detailed study, proposing an architectural, geometrical, mechanical analysis and highlighting the numerous deformations of the walls. The study of the abundant sculpted decorations provides a more precise chronology than before and articulates the construction with the first transept of the Cathedral, chronologically close. Finally, the study of the materials used in the construction of the spire enlightens the organization of the construction site, focusing on the work made, the implementation of scaffoldings and the successive stages of the construction.
55

Observations et modélisations spectro-interférométriques longue base des étoiles et de leur environnement proche / Long baseline spectro-interferometric observing and modeling of stars and their close environment

Hadjara, Macinissa 31 March 2015 (has links)
Cette thèse présente les résultats d'observations d'étoiles en rotation rapide menées sur le spectro-interféromètre AMBER du VLTI dans ses modes haute et moyenne résolutions spectrales. Les mesures effectuées sont les visibilités estimées sur trois bases simultanées, les phases différentielles en fonction de la longueur d'onde et des phases de clôtures avec, pour certaines nuits une bonne couverture du plan (u,v). Les données utilisées sont issues de plusieurs campagnes d'observation. Ces dernières étaient fortement dégradées par les défauts optiques d'AMBER, et affectés par des bruits classiques d'interférométrie optique à longue base en IR: défauts du détecteur, bruit de lecture, instabilités du suiveur de franges, ...etc. Leur analyse a nécessité la mise au point d'outils numériques de réduction spécifiques pour atteindre les précisions nécessaires à l'interprétation de mesures interférométriques. Pour interpréter ces mesures j'ai développé un modèle semi-analytique chromatique d'étoile en rotation rapide qui m'a permis d'estimer, à partir des phases différentielles; le degré d'aplatissement, le rayon équatorial, la vitesse de rotation, l'angle d'inclinaison, l'angle position de l'axe de rotation de l'étoile sur le ciel, la distribution de la température effective locale et de la gravité à la surface de l'étoile dans le cadre du théorème de von Zeipel. Les résultats concernant 4 étoiles massives de types spectraux B, A et F m'ont permis de les caractériser pour les mécanismes évoqués ci-dessus et d'ouvrir ainsi la perspective d'études plus systématiques d'objets similaires en étendant ultérieurement ces études à la relation photosphère-enveloppe circumstellaire. / This thesis presents the results of rapidly rotating stars observations conducted on the AMBER spectro-interferometer VLTI in its high average spectral modes and resolutions. The measurements are estimated on three simultaneous visibility bases, differential phases depending on the wavelength and closure phases, with good coverage of the (u, v) plane for some nights. The data used are from several observation campaigns. These were highly degraded by the optical defects of AMBER, and assigned by standard optical interferometry long base IR noises: defects of the detector, reading noise, fringes follower instabilities, ... etc. Their analysis required the development of digital reduction of specific tools to achieve the necessary details to the interpretation of interferometric measurements. In interpreting these measures I developed a chromatic semi-analytical model of rapidly rotating star that allowed me to estimate, from the differential phases; the degree of flattening, the equatorial radius, speed of rotation, angle of inclination, the position angle of the star rotation axis in the sky, the local distribution of the actual temperature and the gravity to the surface of the star within the von Zeipel theorem. The results for four massive stars of spectral type B, A and F have allowed me to characterize the mechanisms discussed above and thus open framework for more systematic studies of similar objects subsequently extending these studies to the relationship photosphere circumstellar envelope.
56

Human motion tracking from movie sequences

Nguyen, Nhat Tan 18 April 2018 (has links)
Cette thèse présente un ensemble d'outils ou cadre de développement (paradigme) pour suivre le mouvement de personnages humains dans les films. Beaucoup d'applications en forte demande, telle que la surveillance pour la sécurité ou l'interaction homme-machine, profiteraient d'un système qui pourrait détecter et suivre automatiquement des humains. L'exécution de séquences de film réelles pose un défi particulier compte tenu de la non-rigidité du mouvement du corps humains, ainsi que l'influence qu'ont plusieurs facteurs sur son apparence. Parmi eux se trouvrent la différence dans la gamme de conditions d'acquisition, la variation de l'environnement et de l'illumination, le mouvement de caméra et le peu de connaissances a priori dans le positionnement de la caméra. En tant que complément à l'analyse du mouvement humain, ce système vise à aider son utilisateur à détecter de façon automatique le mouvement de la caméra, à diviser la séquence de film en petits segments appelés "prises de vue" et à extraire des informations du mouvement humain en présence d'un arrière-scène complexe. Pour atteindre cet objectif, une estimation précise du flux optique est employée. Un processus d'image par image peut identifier six différents mouvements de la caméra, incluant une camera statique, en utilisant des gabarits prédéterminés. Il peut ensuite fournir une base de données de mouvements de caméra pour la séquence du film. Ces données sont très utiles pour l'annotation, l'indexage et la recherche de séquences vidéos. De plus, une Mixture de Gaussiennes (MoG) dotée d'un espace de couleur RGB normalisé est utilisée pour soustraire un arrière-scène statique, qui permet d'éviter les effets d'ombres. Lors d'un mouvement de caméra, nous optons pour une technique appelée "codage de couleur" pour convertir les champs de vecteurs de mouvement en image colorée et appliquer la soustraction d'arrière-plan conventionnelle à cette image de flux optique de couleurs. Ceci dit, un système de suivi multicouches déployé dans deux directions (d'ordre chronologique et d'ordre anti-chronologique) est aussi décrit dans la thèse. Finalement, l'évaluation de la performance du système est réalisée sur plusieurs séquences extraites des films réels. Les séquences ont été entièrement analysées indépendamment par un observateur humain pour fournir une base de référence réelle sur les mouvements de caméra aussi bien que sur le mouvement humain dans les séquences vidéos. La comparaison entre les résultats et la base de référence indique une performance très prometteuse des approches proposées tant par l'analyse de films que par les applications de surveillance.
57

Mitigating error propagation of decision feedback equalization in boradband communications

Wang, Rujiang 13 April 2018 (has links)
L'interférence inter-symboles (ISI) représente un des obstacles majeurs à l'obtention de communications numériques fiables. Sauf pour le cas particulier des systèmes de signalisation à réponse partielle, le taux ISI doit être réduit le plus possible pour obtenir les communications numériques les plus fiables possibles. Pour les communications numériques à large bande , une des techniques les plus utilisées pour minimiser le taux ISI est l'égalisation. Les égalisateurs décisionnels à contre-réaction (DFE) sont parmi les structures les plus fréquemment utilisées, à cause de leur simplicité et de leur bonne performance. Cette thèse s'attaque au problème de la diminution de la propagation des erreurs dans un egalisateur décisionnel à contre réaction basé sur l'erreur quadratique moyenne (MMSE-DFE). Les DFE constituent une part importante des communications numériques modernes. De façon à réduire la propagation des erreurs dans les DFE, ce qui est de fait la limitation la plus importante de ceux-ci, un modèle basé sur l'erreur quadratique moyenne (MSE) est proposé. En s'appuyant sur ce nouveau modèle, les pondérations des filtres DFE, les éminceurs d'effacement (erasure slicer) et les éminceurs souples (soft slicer) peuvent être optimisés. Après une analyse théorique, on procède aux simulations numériques de ces modèles. Ces derniers sont relativement simples à implanter, ce qui contraste avec les modèles traditionnels basés sur les chaînes de Markov. Simultanément, on obtient une précision de prédiction qui se compare très avantageusement à celle obtenue avec les critères conventionnels basés sur l'erreur quadratique moyenne. On constate que l'éminceur souple optimal obtenu excède celui obtenu par l'optimisation conjointe DFE des pondérations et un éminceur à effacement. Les filtres de pondération DFE avec un éminceur optimal souple peuvent être considérés comme un sytème MMSE DFE vrai. La seconde contribution de ce travail de thèse consiste en une nouvelle forme de codage qui interagit avec la propagation des erreurs dans un DFE pour les modulations d'ordre supérieur. Les bits redondantes dans le diagramme d'éparpillement de la nouvelle modulation obtenue augmentent de façon dramatique l'immunité à la propagation des erreurs pour les symboles ayant le même niveau moyen d'énergie. De plus, la méthode proposée n'introduit pas de délais de décodage additionnels et la robustesse à la propagation des erreurs est néanmoins maintenue, même lorsque les pondérations de contre-réaction sont grandes par rapport à celles d'un DFE conventionnel. Globalement, cette thèse explore plusieurs moyens pour combattre la propagation des erreurs dans les DFE. Cette propagation est difficile à analyser surtout à cause de la non-linéarité de l'éminceur dans la boucle de contre réaction. Notre étude démontre que l'introduction de la propagation des erreurs dans le modèle du DFE-MSE conduit à une meilleure optimisation du DFE. L'approximation statistique du bruit et de l'ISI avant l'éminceur s'avère très appropriée pour la simulation numérique. Des connaissances additionnelles sur l'utilisation des DFE dans les canaux large bande ont également été obtenues. Un élément fondamental de nos travaux est la démonstration de l'exigence cyclique en transmission pour les égalisateurs à porteuse unique dans le domaine de la fréquence (SC-FDE). Bien que le traitement du signal en milieu fréquentiel soit largement accepté comme technique pour réduire les efforts de calcul requis, l'analyse théorique et la sirnulation révèlent qu'il y a également un autre avantage au traitement dans le domaine des fréquences. En effet, on montre que lorsque la réponse impulsionnelle du canal est plus longue que le préfixe cyclique du SC-FDE, un traitement dans le domaine fréquentiel amène une meilleure fidélité du signal qu'un traitement dans le temps. On a également regardé l'effet de la limitation de la largeur de bande pour un SC-FDE. Les résultats obtenus montrent qu'il existe une diversité de fréquences aux deux extrémités des secteurs des FFT. Ceci peut amener des idées directrices pour la réalisation physique des SC-FDE, particulièrement pour tenir compte du fait que les caractéristiques des secteurs de FFT requièrent des algorithmes différents pour un canal soumis à l'évanouissement.
58

Algorithmes évolutionnaires appliqués à la reconnaissance des formes et à la conception optique

Gagné, Christian 11 April 2018 (has links)
Les algorithmes évolutionnaires (AE) constituent une famille d’algorithmes inspirés de l’évolution naturelle. Ces algorithmes sont particulièrement utiles pour la résolution de problèmes où les algorithmes classiques d’optimisation, d’apprentissage ou de conception automatique sont incapables de produire des résultats satisfaisants. On propose dans cette thèse une approche méthodologique pour le développement de systèmes intelligents basés sur les AE. Cette approche méthodologique repose sur cinq principes : 1) utiliser des algorithmes et des représentations adaptés au problème ; 2) développer des hybrides entre des AE et des heuristiques du domaine d’application ; 3) tirer profit de l’optimisation évolutionnaire à plusieurs objectifs ; 4) faire de la co-évolution pour résoudre simultanément plusieurs sous-problèmes d’une application ou favoriser la robustesse ; et 5) utiliser un outil logiciel générique pour le développement rapide d’AE non conventionnels. Cette approche méthodologique est illustrée par quatre applications des AE à des problèmes difficiles. De plus, le cinquième principe est appuyé par l’étude sur la généricité dans les outils logiciels d’AE. Le développement d’applications complexes avec les AE exige l’utilisation d’un outil logiciel générique. Six critères sont proposés ici pour évaluer la généricité des outils d’AE. De nombreux outils logiciels d’AE sont disponibles dans la communauté, mais peu d’entre eux peuvent être véritablement qualifiés de génériques. En effet, une évaluation de quelques outils relativement populaires nous indique que seulement trois satisfont pleinement à tous ces critères, dont la framework d’AE Open BEAGLE, développée durant le doctorat. Open BEAGLE est organisé en trois couches logicielles principales, avec à la base les fondations orientées objet, sur lesquelles s’ajoute une framework gén érique comprenant les mécanismes généraux de l’outil, ainsi que plusieurs frameworks spécialisées qui implantent différentes saveurs d’AE. L’outil comporte également deux extensions servant à distribuer des calculs sur plusieurs ordinateurs et à visualiser des résultats. Ensuite, trois applications illustrent différentes approches d’utilisation des AE dans un contexte de reconnaissance des formes. Premièrement, on optimise des classifieurs basés sur la règle du plus proche voisin avec la sélection de prototypes par un algorithme génétique, simultanément à la construction de mesures de voisinage par programmation génétique (PG). À cette co-évolution coopérative à deux espèces, on ajoute la co-évolution compétitive d’une troisième espèce pour la sélection de données de test, afin d’améliorer la capacité de généralisation des solutions. La deuxième application consiste en l’ingénierie de représentations par PG pour la reconnaissance de caractères manuscrits. Cette ingénierie évolutionnaire s’effectue par un positionnement automatique de régions dans la fenêtre d’attention jumelé à la sélection d’ensembles flous pour l’extraction de caractéristiques. Cette application permet d’automatiser la recherche de représentations de caractères, opération généralement effectuée par des experts humains suite à un processus d’essais et erreurs. Pour la troisième application en reconnaissance des formes, on propose un système extensible pour la combinaison hiérarchique de classifieurs dans un arbre de décision flou. Dans ce système, la topologie des arbres est évoluée par PG alors que les paramètres numériques des unités de classement sont détermin és par des techniques d’apprentissage spécialisées. Le système est testé avec trois types simples d’unités de classement. Pour toutes ces applications en reconnaissance des formes, on utilise une mesure d’adéquation à deux objectifs afin de minimiser les erreurs de classement et la complexité des solutions. Une dernière application démontre l’efficacité des AE pour la conception de syst` emes de lentilles. On utilise des stratégies d’évolution auto-adaptatives hybridées avec une technique d’optimisation locale spécialisée pour la résolution de deux problèmes complexes de conception optique. Dans les deux cas, on démontre que les AE hybrides sont capables de générer des résultats comparables ou supérieurs à ceux produits par des experts humains. Ces résultats sont prometteurs dans la perspective d’une automatisation plus poussée de la conception optique. On présente également une expérience supplémentaire avec une mesure à deux objectifs servant à maximiser la qualité de l’image et à minimiser le coût du système de lentilles. / Evolutionary Algorithms (EA) encompass a family of robust search algorithms loosely inspired by natural evolution. These algorithms are particularly useful to solve problems for which classical algorithms of optimization, learning, or automatic design cannot produce good results. In this thesis, we propose a common methodological approach for the development of EA-based intelligent systems. This methodological approach is based on five principles : 1) to use algorithms and representations that are problem specific ; 2) to develop hybrids between EA and heuristics from the application field ; 3) to take advantage of multi-objective evolutionary optimization ; 4) to do co-evolution for the simultaneous resolution of several sub-problems of a common application and for promoting robustness ; and 5) to use generic software tools for rapid development of unconventional EA. This methodological approach is illustrated on four applications of EA to hard problems. Moreover, the fifth principle is explained in the study on genericity of EA software tools. The application of EA to complex problems requires the use of generic software tool, for which we propose six genericity criteria. Many EA software tools are available in the community, but only a few are really generic. Indeed, an evaluation of some popular tools tells us that only three respect all these criteria, of which the framework Open BEAGLE, developed during the Ph.D. Open BEAGLE is organized into three main software layers. The basic layer is made of the object oriented foundations, over which there is the generic framework layer, consisting of the general mechanisms of the tool, and then the final layer, containing several specialized frameworks implementing different EA flavors. The tool also includes two extensions, respectively to distribute the computations over many computers and to visualize results. Three applications illustrate different approaches for using EA in the context of pattern recognition. First, nearest neighbor classifiers are optimized, with the prototype selection using a genetic algorithm simultaneously to the Genetic Programming (GP) of neighborhood metrics. We add to this cooperative two species co-evolution a third coevolving competitive species for selecting test data in order to improve the generalization capability of solutions. A second application consists in designing representations with GP for handwritten character recognition. This evolutionary engineering is conducted with an automatic positioning of regions in a window of attention, combined with the selection of fuzzy sets for feature extraction. This application is used to automate character representation search, which is usually conducted by human experts with a trial and error process. For the third application in pattern recognition, we propose an extensible system for the hierarchical combination of classifiers into a fuzzy decision tree. In this system, the tree topology is evolved with GP while the numerical parameters of classification units are determined by specialized learning techniques. The system is tested with three simple types of classification units. All of these applications in pattern recognition have been implemented using a two-objective fitness measure in order to minimize classification errors and solutions complexity. The last application demonstrate the efficiency of EA for lens system design. Selfadaptative evolution strategies, hybridized with a specialized local optimisation technique, are used to solve two complex optical design problems. In both cases, the experiments demonstrate that hybridized EA are able to produce results that are comparable or better than those obtained by human experts. These results are encouraging from the standpoint of a fully automated optical design process. An additional experiment is also conducted with a two-objectives fitness measure that tries to maximize image quality while minimizing lens system cost.
59

Etude et réalisation d'une chaine d'instrumentation numérique rapide pour l'identification des ions

Legou, Thierry 05 January 2002 (has links) (PDF)
Ce travail traite d'un système d'Identification Rapide des Ions et de Spectroscopie (IRIS), développé pour la recherche des noyaux de fusion super-lourds. La mesure de l'énergie du noyau, ainsi que l'enregistrement de sa chaîne de décroissance alpha, imposent à l'instrumentation des contraintes spécifiques. Celles-ci concernent la dynamique d'énergie que l'instrumentation doit accepter, mais aussi son temps de récupération après implantation du noyau de fusion dans le détecteur. Le système IRIS est placé en sortie d'un préamplificateur de charge, lui-même connecté à un détecteur (Si) de particule. Le principe du système consiste à numériser le signal de sortie du préamplificateur auquel deux traitements numériques du signal sont appliqués. Le premier traitement a pour but de détecter l'interaction de la particule avec le détecteur. Le second traitement permet de mesurer la charge créée dans le détecteur lors de l'interaction. Le caractère programmé des traitements autorise de nombreuses possibilités concernant tant le choix de la nature des traitements que celui des réglages de leurs paramètres de fonctionnement. Après avoir montré l'impossibilité d'utiliser une chaîne d'électronique conventionnelle pour la détection des noyaux de fusion, la structure d'IRIS est présentée ainsi que différents traitements numériques (étude et tests).
60

Analyse morphologique des bioprothèses valvulaires aortiques dégénérées par segmentation d'images TDM

Ruggieri, Vito Giovanni 07 December 2012 (has links) (PDF)
Le but de cette étude est d'évaluer la faisabilité de l'analyse tomodensitométrique 3D des bioprothèses aortiques pour faciliter leur évaluation morphologique durant le suivi et d'aider à la sélection des cas et à l'amélioration de la planification d'une procédure valve-in-valve. Le principal défi concernait le rehaussement des feuillets valvulaires, en raison d'images très bruitées. Un scanner synchronisé était réalisé chez des patients porteurs d'une bioprotèse aortique dégénérée avant réintervention (images in-vivo). Différentes méthodes pour la réduction du bruit étaient proposées. La reconstruction tridimensionnelle des bioprothèses était réalisée en utilisant des méthodes de segmentation de régions par "sticks". Après ré-opération ces méthodes étaient appliquées aux images scanner des bioprothèses explantées (images ex-vivo) et utilisées comme référence. La réduction du bruit obtenue par le filtre stick modifié montrait de meilleurs résultats, en rapport signal/bruit, en comparaison aux filtres de diffusion anisotrope. Toutes les méthodes de segmentation ont permis une reconstruction 3D des feuillets. L'analyse qualitative a montré une bonne concordance entre les images obtenues in-vivo et les altérations des bioprothèses. Les résultats des différentes méthodes étaient comparés par critères volumétriques et discutés. Les images scanner des bioprothèses aortiques nécessitent un traitement de débruitage et de réduction des artéfacts de façon à permettre le rehaussement des feuillets prothétiques. La méthode de segmentation de régions par sticks semble représenter une approche pertinente pour caractériser morphologiquement la dégénérescence des bioprothèses.

Page generated in 0.0567 seconds