• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 528
  • 225
  • 59
  • 31
  • 8
  • 5
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 863
  • 241
  • 154
  • 152
  • 144
  • 138
  • 123
  • 118
  • 108
  • 104
  • 100
  • 92
  • 86
  • 85
  • 78
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
511

Classification multi-vues d'un objet immergé à partir d'images sonar et de son ombre portée sur le fond

Quidu, Isabelle 11 December 2001 (has links) (PDF)
La classification sur ombre de mines marines peut être effectuée à partir d'images sonar haute résolution. Cependant, la classification mono-vue admet des limites du fait de leur forme géométrique parfois complexe. Une manière de s'affranchir des ambiguïtés consiste à effectuer une classification multi-vues. Dans un premier temps, il convient d'assimiler les spécificités de l'imagerie sonar. D'un côté, les propriétés statistiques des pixels et le principe d'acquisition des images sont des connaissances avantageusement prises en compte lors de l'étape de segmentation. D'un autre côté, les distorsions géométriques qui affectent l'ombre portée du fait des performances du sonar et de la prise de vue doivent être considérées. En matière de reconnaissance de formes, les données sonar segmentées peuvent être diversement résumées suivant qu'on s'attache à définir des grandeurs indépendantes des positions relatives objet-sonar et/ou de la résolution du sonar ou bien, autorisant une reconstruction du contour et la conservation de l'orientation de la forme associée. Ces considérations du problème mono-vue ont préparé l'élaboration de processus plus complexes de classification multi-vues. D'une part, on manipule les attributs issus d'un traitement image par image. Deux cas se présentent : en exploitant l'évolution de la forme de l'ombre en fonction du trajet du sonar ou, au contraire, en s'affranchissant des transformations du plan. Dans le premier cas, on caractérise de manière globale l'ensemble des valeurs successives prises par des attributs sensibles aux diverses formes de l'ombre. Dans le second cas, sans connaissance précise des conditions d'acquisition, les attributs extraits sont fusionnés et présentés à l'opérateur sous forme de mesures pour l'aide à la décision. Par la logique floue d'autre part, les outils de reconnaissance de formes calculés sur des données binaires ont été étendus au cas de données en niveaux de gris d'une nouvelle image pour sa caractérisation.
512

Contributions a l'indexation et a la reconnaissance des manuscrits Syriaques

Bilane, P. 23 June 2010 (has links) (PDF)
CETTE THESE EST DEDIEE A L'EXPLORATION INFORMATIQUE DE MANUSCRITS SYRIAQUES, C'EST LA PREMIERE ETUDE DE CE TYPE MISE EN ŒUVRE. LE SYRIAQUE EST UNE LANGUE QUI S'EST DEVELOPPE A L'EST DU BASSIN MEDITERRANEEN, IL Y A PLUS DE VINGT SIECLES ET QUI AUJOURD'HUI EST ENCORE PRATIQUEE. LA PRESENTATION DE L'HISTOIRE DU DEVELOPPEMENT DE CETTE LANGUE FAIT L'OBJECT DU PREMIER CHAPITRE. LE SYRIAQUE S'ECRIT DE DROITE A GAUCHE, AVEC UN ASPECT TRES SINGULIER, UN PENCHE D'UN ANGLE D'ENVIRON 45° QUI REND LES ALGORITHMES DE TRAITEMENT ET D'ANALYSE DE DOCUMENTS DEVELOPPES POUR LES AUTRES ECRITURES INOPERANTS. DANS LE SECOND CHAPITRE, APRES NOUS ETRE INTERESSES A LA DESCRIPTION ET L'EXTRACTION DES STRUCTURES DES DOCUMENTS, NOUS AVONS ELABORE UNE METHODE DE SEGMENTATION DES MOTS QUI PREND EN COMPTE CE PENCHE; ELLE NOUS CONDUIT A UNE TRENTAINE DE FORMES STABLES QUI SONT DES LETTRES INDIVIDUELLES VERTICALES ET DES "N-GRAMMES" CONSTITUES PAR DES LETTRES PENCHEES. DANS LA DEUXIEME PARTIE DE LA THESE, NOUS NOUS SOMMES INTERESSES AU CONTENU DES DOCUMENTS POUR DES FINS D'INDEXATION. NOUS AVONS DEVELOPPE UNE METHODE DE REPERAGE DE MOTS QUI PERMET DE RETROUVER, DANS IN DOCUMENT, TOUTES LES OCCURRENCES D'UN MOT SELON PLUSIEUS MODES DE REQUETES (WORD SPOTTING, WORD RETRIEVAL). ELLE REPOSE SUR UNE SIMILARITE DE FORME EVALUEE A PARTIR D'UNE ANALYSE TRES FINE DE L'ORIENTATION DU TRACE DE L'ECRITURE. LE DERNIER CHAPITRE EST UNE PREMIERE CONTRIBUTION A LA TRANSCRIPTION ASSISTEE DES MANUSCRITS SYRIAQUES QUI REPOSE SUR LA SEGMENTATION DES MOTS DECRITE CI-DESSUS. NOUS MONTRONS QUE LA TRANSCRIPTION, QUI S'APPUIE SUR L'INTERACTION, EST EN RUPTURE AVES LES TRADITIONNELLES DEMARCHES DE RECONNAISSANCE PAR O. C. R.
513

Étude de paramètres géométriques à partir du code de Freeman

Trouillot, Xavier 12 December 2008 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la géométrie discrète 2D avec pour principales applications l'analyse et la caractérisation de formes. Nous nous intéressons ici aux différents codages de contour de formes binaires que nous présentons dans un premier temps. Nous présentons ensuite plus en détail le plus ancien d'entre eux : le codage de Freeman, et nous développons plus particulièrement des algorithmes sur ce qu'il est possible de faire à partir de ce code. Nous étudions donc l'estimation de paramètres géométriques et de paramètres de formes sur une forme binaire comme le périmètre, l'aire, les diamètres apparents, la dimension fractale, et les coefficients de symétrie d'une forme. Nous voyons ensuite les transformations qu'il est possible d'effectuer sur le code de Freeman sans revenir à la représentation classique de la scène. Enfin, nous abordons la notion de morphologie mathématique en proposant une méthode d'obtention du code du dilaté et de l'érodé d'une forme connue par son code de Freeman.
514

Decision Fusion in Identity Verification using Facial Images

Czyz, Jacek 12 December 2003 (has links)
Automatic verification of personal identity using facial images is the central topic of the thesis. This problem can be stated as follows. Given two face images, it must be determined automatically whether they are images of the same person or of different persons. Due to many factors such as variability of facial appearance, sensitivity to noise, template aging, etc., the problem is difficult. We can overcome some of these difficulties by combining different information sources for the classification/recognition task. In this thesis we propose strategies on how to combine the different information sources, i.e. fusion strategies, in order to improve the verification accuracy. We have designed and thoroughly optimised a number of face verification algorithms. Their individual properties such as how their accuracy depends on algorithm parameters, image size, or sensitivity to mis-registrations have been studied. We have also studied how to combine the outputs of the different algorithms in order to reduce the verification error rates. Another decision fusion aspect considered in this thesis is the fusion of confidences obtained sequentially on several video frames of the same person's face. Finally multimodal fusion has been studied. In this case, the speech and face of the same subject are recorded and processed by different algorithms which output separate opinions. These two opinions are then conciliated at the fusion stage. It is shown that in all cases, information fusion allows a considerable performance improvement if the fusion stage is carefully designed.
515

Statistiques et réseaux de neurones pour un système de diagnostic : application au diagnostic de pannes automobiles

Poulard, Hervé 09 May 1996 (has links) (PDF)
Ce travail a été réalisé dans le cadre d'une convention CIFRE entre le LAAS-CNRS et la société ACTIA qui développe des outils d'aide au diagnostic de pannes automobiles. Le but était l'utilisation des réseaux de neurones artificiels pour la conception d'une nouvelle méthode de diagnostic de pannes automobiles sans modèle, ni information symbolique mais avec seulement des observations du système en bon et en mauvais fonctionnement. C'est donc une approche du diagnostic de système complexe par reconnaissance de formes. Après avoir mis au point le système d'acquisition, nous avons conçu une première maquette qui a démontré la faisabilité d'un tel système et l'intérêt des réseaux de neurones, mais qui a soulevé de nombreux problèmes. L'utilisation particulière des réseaux de neurones dans cette application a nécessité l'usage d'algorithmes de construction. Après une étude théorique des structures de l'hypercube qui n'a pas abouti à un algorithme de construction mais qui a fourni plusieurs résultats, nous avons développé une famille d'algorithmes pour la construction des réseaux de neurones binaires. La base de ces outils est une nouvelle méthode d'apprentissage d'unités à seuil très performante dénommée Barycentric Correction Procedure (BCP). L'aboutissement est un algorithme novateur car très général (entrées quelconques et sorties multiples), rapide et avec un bon pouvoir de généralisation. Nous avons finalement mis au point une nouvelle méthodologie de diagnostic, dans laquelle l'utilisation de méthodes statistiques et d'analyse de données en collaboration avec les réseaux neuronaux paru nécessaire. Cette méthodologie utilise donc des techniques très diverses : analyse en composantes principales, estimation de densité de probabilité, classification automatique, calcul d'enveloppes convexes, génération géométrique de bases d'apprentissage, construction de réseaux de neurones binaires, réseaux de neurones gaussiens et méthodes de diagnostic simples. Cette méthodologie a été appliquée avec succès au problème de la détection de pannes automobiles et a aussi montré des potentialités pour le diagnostic préventif. Elle est de plus assez générique pour avoir de nombreuses applications potentielles.
516

Contribution à l'analyse de la dynamique des écritures anciennes pour l'aide à l'expertise paléographique

Daher, Hani 22 November 2012 (has links) (PDF)
Mes travaux de thèse s'inscrivent dans le cadre du projet ANR GRAPHEM1 (Graphemebased Retrieval and Analysis for PaleograpHic Expertise of Middle Age Manuscripts). Ilsprésentent une contribution méthodologique applicable à l'analyse automatique des écrituresanciennes pour assister les experts en paléographie dans le délicat travail d'étude et dedéchiffrage des écritures.L'objectif principal est de contribuer à une instrumetation du corpus des manuscritsmédiévaux détenus par l'Institut de Recherche en Histoire des Textes (IRHT - Paris) en aidantles paléographes spécialisés dans ce domaine dans leur travail de compréhension de l'évolutiondes formes de l'écriture par la mise en place de méthodes efficaces d'accès au contenu desmanuscrits reposant sur une analyse fine des formes décrites sous la formes de petits fragments(les graphèmes). Dans mes travaux de doctorats, j'ai choisi d'étudier la dynamique del'élément le plus basique de l'écriture appelé le ductus2 et qui d'après les paléographes apportebeaucoup d'informations sur le style d'écriture et l'époque d'élaboration du manuscrit.Mes contributions majeures se situent à deux niveaux : une première étape de prétraitementdes images fortement dégradées assurant une décomposition optimale des formes en graphèmescontenant l'information du ductus. Pour cette étape de décomposition des manuscrits, nousavons procédé à la mise en place d'une méthodologie complète de suivi de traits à partir del'extraction d'un squelette obtenu à partir de procédures de rehaussement de contraste et dediffusion de gradients. Le suivi complet du tracé a été obtenu à partir de l'application des règlesfondamentales d'exécution des traits d'écriture, enseignées aux copistes du Moyen Age. Il s'agitd'information de dynamique de formation des traits portant essentiellement sur des indicationsde directions privilégiées.Dans une seconde étape, nous avons cherché à caractériser ces graphèmes par desdescripteurs de formes visuelles compréhensibles à la fois par les paléographes et lesinformaticiens et garantissant une représentation la plus complète possible de l'écriture d'unpoint de vue géométrique et morphologique. A partir de cette caractérisation, nous avonsproposé une approche de clustering assurant un regroupement des graphèmes en classeshomogènes par l'utilisation d'un algorithme de classification non-supervisé basée sur lacoloration de graphe. Le résultat du clustering des graphèmes a conduit à la formation dedictionnaires de formes caractérisant de manière individuelle et discriminante chaque manuscrittraité. Nous avons également étudié la puissance discriminatoire de ces descripteurs afin d'obtenir la meilleure représentation d'un manuscrit en dictionnaire de formes. Cette étude a étéfaite en exploitant les algorithmes génétiques par leur capacité à produire de bonne sélection decaractéristiques.L'ensemble de ces contributions a été testé à partir d'une application CBIR sur trois bases demanuscrits dont deux médiévales (manuscrits de la base d'Oxford et manuscrits de l'IRHT, baseprincipale du projet), et une base comprenant de manuscrits contemporains utilisée lors de lacompétition d'identification de scripteurs d'ICDAR 2011. L'exploitation de notre méthode dedescription et de classification a été faite sur une base contemporaine afin de positionner notrecontribution par rapport aux autres travaux relevant du domaine de l'identification d'écritures etétudier son pouvoir de généralisation à d'autres types de documents. Les résultats trèsencourageants que nous avons obtenus sur les bases médiévales et la base contemporaine, ontmontré la robustesse de notre approche aux variations de formes et de styles et son caractèrerésolument généralisable à tout type de documents écrits.
517

Du sismogramme complexe à l'information pertinente : exemples dans le domaine des sources et des structures

Maggi, Alessia 01 September 2010 (has links) (PDF)
Les sujets de recherche que j'ai choisi de traiter ces dix dernières années sont relativement éclectiques, couvrant des aspects relatifs tant aux sources sismiques qu'à la structure de la Terre. Un thème fédérateur qui émerge cependant est mon intérêt pour les nombreuses méthodes utilisées en sismologie pour extraire l'information pertinente des sismogrammes. Dans cette thèse d'habilitation, je parcours le fil conducteur des idées qui ont contribué à former ma pensée sur ce thème, décrivant avec plus de détails deux méthodes que j'ai développées et qui ont abouti récemment: FLEXWIN, qui permet d'identifier automatiquement dans un sismogramme complexe les fenêtres temporelles de mesure les plus appropriées dans un certain contexte, et WaveLoc, qui détecte et localise automatiquement les phénomènes sismiques à partir de formes d'ondes continues en exploitant la cohérence de l'information sur un réseau de stations sismologiques. De tels outils, basés au départ sur l'intégration du savoir-faire "artisanal" et son automatisation, permettent en fait d'aller plus loin dans l'exploitation des sismogrammes, et sont devenus indispensables au sismologue pour faire face au volume de données gigantesque produit par les réseaux sismologiques modernes.
518

Le Crétacé Supérieur - Paléogène du Bassin Compressif Nord-Pyrénéen (Bassin de l'Adour). Sédimentologie, Stratigraphie, Géodynamique.

Serrano, Olivier 06 April 2001 (has links) (PDF)
Les bassins sédimentaires sont l'expression de déformations lithosphériques. Plus la durée de vie d'un bassin est longue, plus sa probabilité de changer de nature géodynamique est forte. De nombreux bassins enregistrent le passage d'un régime extensif à un régime compressif. Cette évolution peut se traduire par un arrêt définitif de son fonctionnement, ou à l'inverse, par une réorganisation majeure de la subsidence et des faciès. Ces évolutions sont de type marge passive / marge active ou de type bassin intracratonique / bassin d'avant-pays, voire rift oblique / avant-pays. Si le premier type d'évolution a fait l'objet de nombreuses modélisations, ce n'est pas le cas du dernier. Le propos de ce travail est d'étudier les modalités de passage d'un rift oblique à un bassin d'avant-pays et ses conséquences sur l'enregistrement sédimentaire à partir de l'analyse 3D des géométries sédimentaires (Serrano et al., 2001). Le domaine étudié est le bassin d'Aquitaine du Crétacé supérieur au Paléogène, durant la 'convergence Ibérie-Eurasie et sa conséquence: la formation de la chaîne des Pyrénées. En effet, si l'histoire du Crétacé inférieur à l'Eocène supérieur est relativement bien connue, avec (1) un rift oblique au Crétacé inférieur et (2) la "phase" dite pyrénéenne à l'Eocène moyen-supérieur, les modalités d'évolution de l'un à l'autre demeurent sujettes à nombreuses discussions. Nous nous proposons donc, d'apporter de nouveaux éléments pour contraindre cette étape cruciale de l'histoire du bassin d'Aquitaine que constitue le passage d'un régime extensif à un régime compressif. Cette démarche repose sur une analyse 3D des géométries sédimentaires selon les principes de la stratigraphie séquentielle, sur puits et sismique.
519

Una metodología general para optimización estructural en diseño asistido por ordenador

Navarrina Martínez, Fermín 20 May 1987 (has links)
En aquest treball s'analitza el procés de disseny des d'una perspectiva metodològica general. Aquest enfocament condueix de forma natural al concepte de disseny òptim i a la seva formulació com un problema de Programació Matemàtica. En aquests termes es planteja la realització de l'anàlisi de sensibilitat de primer i segon ordre i es discuteix la aplicabilitat del mètode d'estat adjunt com alternativa al mètode de diferenciació directa. Amb aquests plantejaments s'aborda l'optimització de la forma i les dimensions d'estructures contínues, duent a terme l'anàlisi estructural mitjançant el Mètode d'Elements Finits. La formulació es desenvolupa completament per problemes en règim estàtic i lineal i s'indiquen les implicacions de la seva extensió a problemes no-lineals. Per la realització de l'anàlisi de sensibilitat (de primer ordre i d'ordre superior) es desenvolupa un nou procediment -exacte des del punt de vista analític i ben fonamentat matemàticament- que permet unificar els problemes clàsicament diferenciats d'optimització de dimensions i d'optimització de formes. Finalment, es proposa un algorisme de Programació Matemàtica específic per aquest tipus de problemes. Tot això es concreta en la realització d'un potent i versàtil sistema de disseny asistit per ordinador basat en el Mètode d'Elements Finits, en la que la seva eficàcia, fiabilitat i robustesa es posen de manifest mitjançant la solució de diversos problemes d'optimització estructural. / En este trabajo se analiza el proceso de diseño desde una perspectiva metodológica general. Este enfoque conduce de forma natural al concepto de diseño óptimo y a su formulación como un problema general de Programación Matemática. En estos términos se plantea la realización del análisis de sensibilidad de primer y segundo orden y se discute la aplicabilidad del método de estado adjunto como alternativa al método de diferenciación directa. Con estos planteamientos se aborda la optimización de la forma y de las dimensiones de estructuras continuas, realizando el análisis estructural mediante el Método de Elementos Finitos. La formulación se desarrolla completamente para problemas en régimen estático y lineal y se indican las implicaciones de su extensión a problemas no lineales. Para la realización del análisis de sensibilidad (de primer orden y de orden superior) se desarrolla un nuevo procedimiento -exacto desde el punto de vista analítico y bien fundamentado matemáticamente- que permite unificar los problemas clásicamente diferenciados de optimización de dimensiones y de optimización de formas. Finalmente, se propone un algoritmo de Programación Matemática específico para este tipo de problemas. Todo ello se concreta en la realización de un potente y versátil sistema de diseño asistido óptimo por ordenador basado en el Método de Elementos Finitos, cuya eficacia, fiabilidad y robustez se ponen de manifiesto mediante la solución de diversos problemas de optimización estructural. / In this work the design process is analyzed from a general methodological point of view. This approach leads naturally to the concept of optimum design and to its statement in terms of a general Mathematical Programming problem. In these terms, the first and second order sensitivity analysis is stated and the applicability of the adjoint state method as an alternative to the direct differentiation method is discussed. Following this approach the general problem of structural sizing and shape optimization is addressed, being the structural analysis performed by means of the Finite Element Method. The formulation is enterely developed for linear static problems and its further extension for the treatment of non-linear problems is briefly analyzed. A new unified procedure -exact from the analytical point of view and mathematically well founded- is proposed for the first and higher order sensitivity analysis of both, the structural sizing and shape optimization cases. Finally, a suitable Mathematical Programming algorithm is proposed to solve this kind of problems. Following all these ideas, a powerfull and versatile computer aided optimum design system is developed on the basis of the Finite Element Method. The efficiency, reliability and robustness of the system is demonstrated by solving several application problems of structural optimization.
520

Modèles physiologiques et statistiques du cœur guidés par imagerie médicale : application à la tétralogie de Fallot

Mansi, Tommaso 10 September 2010 (has links) (PDF)
Les travaux de cette thèse sont consacrés à la quantification de cardiopathies, la prédiction de leur évolution et la planification de thérapies, avec pour application principale la tétralogie de Fallot, une malformation congénitale grave du cœur. L'idée sous-jacente est d'utiliser des modèles informatiques sophistiqués combinant traitement d'images, statistique et physiologie, pour assister la gestion clinique de ces patients. Dans un premier temps, nous proposons une nouvelle méthode de recalage d'images plus précise pour estimer la déformation cardiaque à partir d'images médi- cales anatomiques, où seulement le mouvement apparent du cœur est visible. L'algorithme proposé s'appuie sur la méthode dite des démons, que l'on contraint de manière rigoureuse à être élastique et incompressible grâce à une nouvelle justification de l'étape de régularisation de l'algorithme. Les expériences réalisées sur des images synthétiques et réelles ont démontré que l'ajout de ces contraintes améliore de manière significative la précision des déformations estimées. Nous étudions ensuite la croissance du cœur par une approche statistique basée sur les "courants". Une analyse en composantes principales permet d'identifier des altérations morphologiques dues à la pathologie. L'utilisation conjointe de la méthode PLS (moindres carrés partiels) et de l'analyse des corrélations canoniques permet de créer un modèle statistique moyen de croissance du cœur. L'analyse du ventricule droit de 32 patients avec tétralogie de Fallot a révélé une dilatation du ventricule, une déformation de sa base et un élargissement de son apex, caractéristiques que l'on retrouve dans la littérature clinique. Le modèle de croissance montre qu'elles apparaissent progressivement au fil du temps. Enfin, nous adaptons un modèle électromécanique du cœur pour simuler la fonction cardiaque chez des patients et tester diverses stratégies de pose de valves pulmonaires. Le modèle électromécanique simule les caractéristiques principales de la fonction cardiaque. Une fois personnalisé, le modèle est utilisé pour prédire les effets postopératoires de la pose de valves chez le patient. Le modèle a été ainsi capable de reproduire, de manière qualitative, la fonction cardiaque de deux patients. Comme attendu, la fonction simulée du ventricule droit est améliorée après pose de valves, ainsi que celle du ventricule gauche, suggérant une relation étroite entre les deux ventricules du cœur. Les méthodes de traitement d'images médicales, d'analyses statistiques et de modèles de la physiologie du cœur forment un cadre puissant pour le développe- ment d'une médecine plus personnalisée et assistée par ordinateur.

Page generated in 0.0314 seconds