• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1489
  • 473
  • 437
  • 372
  • 104
  • 74
  • 68
  • 34
  • 33
  • 32
  • 28
  • 26
  • 21
  • 18
  • 11
  • Tagged with
  • 3676
  • 1096
  • 750
  • 488
  • 460
  • 450
  • 419
  • 390
  • 389
  • 348
  • 346
  • 328
  • 321
  • 317
  • 316
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
561

Design and Analysis of Table-based Arithmetic Units with Memory Reduction

Chen, Kun-Chih 01 September 2009 (has links)
In many digital signal processing applications, we often need some special function units which can compute complicated arithmetic functions such as reciprocal and logarithm. Conventionally, table-based arithmetic design strategy uses lookup tables to implement these kinds of function units. However, the table size will increase exponentially with respect to the required precision. In this thesis, we propose two methods to reduce the table size: bottom-up non-uniform segmentation and the approach which merges uniform piecewise interpolation and Newton-Raphson method. Experimental results show that we obtain significant table sizes reduction in most cases.
562

An Enhanced Conditional Random Field Model for Chinese Word Segmentation

Huang, Jhao-ming 03 February 2010 (has links)
In Chinese language, the smallest meaningful unit is a word which is composed of a sequence of characters. A Chinese sentence is composed of a sequence of words without any separation between them. In the area of information retrieval or data mining, the segmentation of a sequence of Chinese characters should be done before anyone starts to use these segments of characters. The process is called the Chinese word segmentation. The researches of Chinese word segmentation have been developed for many years. Although some recent researches have achieved very high performance, the recall of those words that are not in the dictionary only achieves sixty or seventy percent. An approach described in this paper makes use of the linear-chain conditional random fields (CRFs) to have a more accurate Chinese word segmentation. The discriminatively trained model that uses two of our proposed feature templates for deciding the boundaries between characters is used in our study. We also propose three other methods, which are the duplicate word repartition, the date representation repartition, and the segment refinement, to enhance the accuracy of the processed segments. In the experiments, we use several different approaches for testing and compare the results with those proposed by Li et al. and Lau and King based on three different Chinese word corpora. The results prove that the improved feature template which makes use of the information of prefix and postfix could increase both the recall and the precision. For example, the F-measure reaches 0.964 in the MSR dataset. By detecting repeat characters, the duplicated characters could also be better repartitioned without using extra resources. In the representation of date, the wrongly segmented date could be better repartitioned by using the proposed method which deals with numbers, date, and measure words. If a word is segmented differently from that of the corresponding standard segmentation corpus, a proper segment could be produced by repartitioning the assembled segment which is composed of the current segment and the adjacent segment. In the area of using the conditional random fields for Chinese word segmentation, we have proposed a feature template for better result and three methods which focus on other specific segmentation problems.
563

Segmentation in a Distributed Real-Time Main-Memory Database

Mathiason, Gunnar January 2002 (has links)
<p>To achieve better scalability, a fully replicated, distributed, main-memory database is divided into subparts, called segments. Segments may have individual degrees of redundancy and other properties that can be used for replication control. Segmentation is examined for the opportunity of decreasing replication effort, lower memory requirements and decrease node recovery times. Typical usage scenarios are distributed databases with many nodes where only a small number of the nodes share information. We present a framework for virtual full replication that implements segments with scheduled replication of updates between sharing nodes.</p><p>Selective replication control needs information about the application semantics that is specified using segment properties, which includes consistency classes and other properties. We define a syntax for specifying the application semantics and segment properties for the segmented database. In particular, properties of segments that are subject to hard real-time constraints must be specified. We also analyze the potential improvements for such an architecture.</p>
564

Optical Flow Based Structure from Motion

Zucchelli, Marco January 2002 (has links)
No description available.
565

Segmentation and Alignment of 3-D Transaxial Myocardial Perfusion Images and Automatic Dopamin Transporter Quantification / Segmentering och uppvinkling av tredimensionella, transaxiella myokardiska perfusionsbilder och automatisk dopaminreceptorkvantifiering

Bergnéhr, Leo January 2008 (has links)
<p>Nukleärmedicinska bilder som exempelvis SPECT (Single Photon Emission Tomogra-phy) är en bildgenererande teknik som ofta används i många applikationer vid mätning av fysiologiska egenskaper i den mänskliga kroppen. En vanlig sorts undersökning som använder sig av SPECT är myokardiell perfusion (blodflöde i hjärtvävnaden), som ofta används för att undersöka t.ex. en möjlig hjärtinfarkt. För att göra det möjligt för läkare att ställa en kvalitativ diagnos baserad på dessa bilder, måste bilderna först segmenteras och roteras av en biomedicinsk analytiker. Detta utförs på grund av att hjärtat hos olika patienter, eller hos patienter vid olika examinationstillfällen, inte är lokaliserat och roterat på samma sätt, vilket är ett väsentligt antagande av läkaren vid granskning</p><p>av bilderna. Eftersom olika biomedicinska analytiker med olika mängd erfarenhet och expertis roterar bilderna olika uppkommer variation av de slutgiltiga bilder, vilket ofta kan vara ett problem vid diagnostisering.</p><p>En annan sorts nukleärmedicinsk undersökning är vid kvantifiering av dopaminreceptorer i de basala ganglierna i hjärnan. Detta utförs ofta på patienter som visar symptom av Parkinsons sjukdom, eller liknande sjukdomar. För att kunna bestämma graden av sjukdomen används ofta ett utförande för att räkna ut olika kvoter mellan områden runt dopaminreceptorerna. Detta är ett tröttsamt arbete för personen som utför kvantifieringen och trots att de insamlade bilderna är tredimensionella, utförs kvantifieringen allt för ofta endast på en eller flera skivor av bildvolymen. I likhet med myokardiell perfusionsundersökningar är variation mellan kvantifiering utförd av olika personer en möjlig felkälla.</p><p>I den här rapporten presenteras en ny metod för att automatiskt segmentera hjärtats vänstra kammare i SPECT-bilder. Segmenteringen är baserad på en intensitetsinvariant lokal-fasbaserad lösning, vilket eliminerar svårigheterna med den i myokardiella perfusionsbilder ofta varierande intensiteten. Dessutom används metoden för att uppskatta vinkeln hos hjärtats vänstra kammare. Efter att metoden sedan smått justerats används den som ett förslag på ett nytt sätt att automatiskt kvantifiera dopaminreceptorer i de basala ganglierna, vid användning av den radioaktiva lösningen DaTSCAN.</p> / <p>Nuclear medical imaging such as SPECT (Single Photon Emission Tomography) is an imaging modality which is readily used in many applications for measuring physiological properties of the human body. One very common type of examination using SPECT is when measuring myocardial perfusion (blood flow in the heart tissue), which is often used to examine e.g. a possible myocardial infarction (heart attack). In order for doctors to give a qualitative diagnose based on these images, the images must first be segmented and rotated by a medical technologist. This is performed due to the fact that the heart of different patients, or for patients at different times of examination, is not situated and rotated equally, which is an essential assumption for the doctor when examining the images. Consequently, as different technologists with different amount of experience and expertise will rotate images differently, variability between operators arises and can often become a problem in the process of diagnosing.</p><p>Another type of nuclear medical examination is when quantifying dopamine transporters in the basal ganglia in the brain. This is commonly done for patients showing symptoms of Parkinson’s disease or similar diseases. In order to specify the severity of the disease, a scheme for calculating different fractions between parts of the dopamine transporter area is often used. This is tedious work for the person performing the quantification, and despite the acquired three dimensional images, quantification is too often performed on one or more slices of the image volume. In resemblance with myocardial perfusion examinations, variability between different operators can also here present a possible source of errors.</p><p>In this thesis, a novel method for automatically segmenting the left ventricle of the heart in SPECT-images is presented. The segmentation is based on an intensity-invariant local-phase based approach, thus removing the difficulty of the commonly varying intensity in myocardial perfusion images. Additionally, the method is used to estimate the angle of the left ventricle of the heart. Furthermore, the method is slightly adjusted, and a new approach on automatically quantifying dopamine transporters in the basal ganglia using the DaTSCAN radiotracer is proposed.</p>
566

Application de la morphologie mathématique à l'analyse des conditions d'éclairage des images couleur

Risson, Valéry 17 December 2001 (has links) (PDF)
Cette thèse présente des outils d'analyse d'images couleur visant à extraire des informations pertinentes sur les conditions d'éclairage dans lesquelles ont été prises les photos. A travers ces outils, nous cherchons à comprendre le contenu sémantique d'une image en étudiant sa composante lumineuse. Ces connaissances sont utiles dans divers domaines d'imagerie tels que la réalité augmentée, la post-production cinématographique, l'indexation d'image et la reconnaissance des formes. L'information intrinsèque à la composante lumineuse n'est pas directement disponible à travers les données image. L'information contenue dans une image numérisée est le résultat de l'intégration et de la numérisation du flux spectral incident qui est modifié par les caractéristiques géométriques et spectrales des objets composant la scène. Nous identifions donc des objets sémantiques d'intérêt dans le cadre de notre problématique et nous développons les outils nécessaires pour les analyser. Dans ce but, nous nous appuyons sur des modèles physiques d'illumination pour décrire les phénomènes de réflexion lumineuse et comprendre comment ils se traduisent dans les données image. Dans un premier temps, nous présentons une approche photométrique de l'analyse des conditions d'éclairage qui s'articule autour d'un outil de détection des ombres dans les images couleur. L'information contenue dans les ombres permet de mesurer le contraste de luminance global sur les images, ce qui donne une indication sur le rapport entre la lumière directe et la lumière ambiante. Pour afiner l'analyse, nous présentons aussi un outil de détection de ciel qui permet d'identifier les conditions météorologiques au moment de la prise de vue. Selon que le ciel soit couvert, dégagé ou nuageux, les conditions d'éclairage varient et modifient l'aspect de l'image. Dans un deuxième temps, nous présentons une méthode de détection de la chrominance de l'illuminant. Cet outil reprend le principe de convergence chromatique basé sur le modèle de réflexion dichromatique. La convergence observée sur les surfaces inhomogènes est utilisée pour identifier la chrominance de l'illuminant. Les problèmes inhérents aux méthodes de détection existantes, liés à la nature statistique des traitements mis en oeuvre, trouvent une solution dans l'emploi de la segmentation morphologique couleur. Elle permet d'effectuer un découpage de l'image en zones homogènes en couleur et en luminance ; chaque région correspond à une réflectance spectrale particulière. Ensuite, un filltrage des régions est introduit pour éliminer celles qui ne vérifient pas les hypothèses de base du modèle de réflexion dichromatique. Enfin, les droites de convergences chromatiques calculées sur chaque région sont reportées sur le plan chromatique où est déterminée l'intersection entre le faisceau des droites et le locus des radiateurs de Planck. C'est le point correspondant aux coordonnées chromatiques de la chrominance de l'illuminant.
567

Segmentation et structuration d'un document vidéo pour la caractérisation et l'indexation de son contenu sémantique

Demarty, Claire-Hélène 24 January 2000 (has links) (PDF)
La multitude de documents multimédia déjà existants ou créés chaque jour nous confronte au problème de la recherche d' informations au sein de bases de données gigantesques qui rendent toute volonté d'indexation entièrement manuelle impossible. Dans ce contexte il est devenu nécessaire de concevoir et de construire des outils capables sinon d' extraire tout le contenu sémantique d'un document donné du moins d' en élaborer une première structuration de manière automatique. En se restreignant aux documents vidéo, cette thèse se propose donc de bâtir des outils automatiques réalisant une structuration en deux étapes. Tout d'abord linéaire, elle aboutit à un découpage d'un document vidéo en entités allant de la scène à l'image en passant par la prise de vue et le morceau de prise de vue. Puis relationnelle, elle consiste en l'extraction de relations par la mise en évidence de liens syntaxiques ou sémantiques de tout ordre entre deux entités de types quelconques. En plus de leur caractère général et automatique, l'ensemble des outils que nous présentons sont, en outre, conçus dans le respect d'une méthodologie précise. Cette dernière consiste à n'utiliser que des critères simples et de bas niveau de traitements d'images et tout particulièrement de morphologie mathématique qui combinés entre eux et avec des règles logiques de décision permettent déjà d'atteindre une structuration cohérente efficace et représentative d'un contenu informationnel de niveau sémantique élevé. Ce choix induit de plus une grande rapidité de nos outils puisque dans leur ensemble leur temps d'exécution est inférieur au temps réel. Leur validation est obtenue au travers de nombreux exemples et applications appartenant essentiellement à la classe des journaux télévisés.
568

Mise en correspondance de partitions en vue du suivi d'objets

Gomila, Cristina 12 September 2001 (has links) (PDF)
Dans le domaine des applications multimédia, les futurs standards vont permettre de créer de nouvelles voies de communication, d'accès et de manipulation de l'information audiovisuelle qui vont bien au-delà de la simple compression à laquelle se limitaient les standards de codage précédents. Parmi les nouvelles fonctionnalités, il est espéré que l'utilisateur pourra avoir accès au contenu des images par édition et manipulation des objets présents. Néanmoins, la standardisation ne couvre que la représentation et le codage de ces objets, en laissant ouvert un large champ de développement pour ce qui concerne la probl ématique liée à leur extraction et à leur suivi lorsqu'ils évoluent au long d'une séquence vidéo. C'est précisément sur ce point que porte cette thèse. Dans un premier temps, nous avons procédé à l' étude et à la mise au point d'algorithmes de filtrage et de segmentation à caractère générique, car ces outils sont à la base de tout système d'analyse du contenu d'une image ou d'une séquence. Plus concr ètement, nous avons étudié en détail une nouvelle classe de filtres morphologiques connus sous le nom de nivellements ainsi qu'une variation des algorithmes de segmentation basée sur l'inondation contrainte d'une image gradient. Les techniques de segmentation ont pour but de produire une partition de l'image aussi proche que possible de celle faite par l' oeil humain, en vue de la reconnaissance postérieure des objets. Néanmoins, dans la plupart des cas, cette dernière tâche ne peut être faite que par interaction humaine et, pourtant, lorsqu'on veut retrouver un objet dans une large collection d'images, ou suivre son évolution au long d'une s équence, la surveillance de chacune des partitions devient impossible. S'impose alors le développement d'algorithmes de mise en correspondance capables de propager l'information dans une série d'images, en limitant l'interaction humaine à une seule étape d'initialisation. En faisant le passage des images fixes aux séquences, la partie centrale de cette thèse est consacrée à l' étude du problème de la mise en correspondance de partitions. La méthode que nous avons développée, nommée technique de Segmentation et Appariement Conjoint (SAC), peut être définie comme étant de nature hybride. Elle combine des algorithmes classiques de mise en correspondance de graphes avec de nouvelles techniques d' édition, basées sur les hiérarchies de partitions fournies par la segmentation morphologique. Cette combinaison a donné lieu à un algorithme très robuste, malgré l'instabilité typiquement associée aux processus de segmentation. La segmentation de deux images peut différer fortement si on la considère du seul point de vue d'une partition unique ; néanmoins nous avons montré qu'elle est beaucoup plus stable si on considère des hiérarchies de partitions emboîtées, dans lesquelles tous les contours présents apparaissent, chacun avec une valuation indiquant sa force. Les résultats obtenus par la technique SAC ont fait d'elle une approche très prometteuse. Souple et puissante, elle est capable de reconnaître un objet lorsqu'il réapparaît après occultation grâce à la gestion d'un graphe de mémoire. Bien que nous nous soyons int éressés tout particulièrement à la problématique du suivi, les algorithmes mis au point ont un champ d'application beaucoup plus vaste dans le domaine de l'indexation, en particulier pour la recherche d'objets dans une base de données d'images ou de séquences. Finalement, dans le cadre du projet européen M4M (MPEG f(o)ur mobiles) nous avons abordé la mise en oeuvre d'un démonstrateur de segmentation en temps réel capable de détecter, segmenter et suivre un personnage dans des séquences de vidéophonie. Dans le cadre de cette application, la contrainte du temps réel est devenue le grand d éfi à surmonter, en nous obligeant a simplifier et à optimiser nos algorithmes. L'int erêt principal en termes des nouveaux services est double : d'un côté le détourage automatique du locuteur permettrait d'adapter le codage à l'objet, économisant du débit sans perte de qualité sur les régions d'int erêt ; d'un autre côté il permettrait de faire l' édition personnalisée des séquences en changeant la composition de la scène, par exemple en introduisant un nouveau fond, ou en disposant plusieurs locuteurs dans une salle de conférence virtuelle.
569

A Direct Approach for the Segmentation of Unorganized Points and Recognition of Simple Algebraic Surfaces / Ein direktes Verfahren zur Segmentierung unstrukturierter Punktdaten und Bestimmung algebraischer Oberflächenelemente

Vanco, Marek 02 June 2003 (has links) (PDF)
In Reverse Engineering a physical object is digitally reconstructed from a set of boundary points. In the segmentation phase these points are grouped into subsets to facilitate consecutive steps as surface fitting. In this thesis we present a segmentation method with subsequent classification of simple algebraic surfaces. Our method is direct in the sense that it operates directly on the point set in contrast to other approaches that are based on a triangulation of the data set. The reconstruction process involves a fast algorithm for $k$-nearest neighbors search and an estimation of first and second order surface properties. The first order segmentation, that is based on normal vectors, provides an initial subdivision of the surface and detects sharp edges as well as flat or highly curved areas. One of the main features of our method is to proceed by alternating the steps of segmentation and normal vector estimation. The second order segmentation subdivides the surface according to principal curvatures and provides a sufficient foundation for the classification of simple algebraic surfaces. If the boundary of the original object contains such surfaces the segmentation is optimized based on the result of a surface fitting procedure. / Im Reverse Engineering wird ein existierendes Objekt aus einer Menge von Oberflächenpunkten digital rekonstruiert. Während der Segmentierungsphase werden diese Punkte in Teilmengen zusammengefügt, um die nachfolgenden Schritte wie Flächenerkennung (surface fitting) zu vereinfachen. Wir präsentieren in dieser Arbeit eine Methode zur Segmentierung der Punkte und die anschließende Klassifikation einfacher algebraischen Flächen. Unser Verfahren ist direkt in dem Sinne, dass es direkt an den Punkten arbeitet, im Gegensatz zu anderen Verfahren, die auf einer Triangulierung der Punktmenge basieren. Der Rekonstruktionsprozess schließt einen neuen Algorithmus zur Berechnung der k-nächsten Nachbarn eines Oberflächenpunktes und Verfahren zur Schätzung der Flächeneigenschaften ersten und zweiten Grades ein. Die normalenbasierte Segmentierung (Segmentierung ersten Grades) liefert eine Aufteilung des Objektes und detekiert scharfe Kanten, sowie flache oder stark gekrümmte Gebiete des Objektes. Ein zentrales Element unserer Methode ist die Wiederholung der Schritte der Segmentierung und der Schätzung der Normalen. Erst die Iteration ermöglicht die Schätzung der Normalen in der benötigten Genauigkeit und die Generierung einer zufriedenstellender Segmentierung. Die Segmentierung zweiten Grades teilt die Oberfläche nach den Hauptkrümmungen auf und bietet eine zuverlässige Grundlage für die Klassifizierung einfacher algebraischen Flächen. Falls der Rand des Ausgangsobjektes solche Flächen enthält, wird der Segmentierungsprozess auf der Grundlage des Ergebnisses der Flächenerkennungsprozedur optimiert.
570

ANALYSE DE TEXTURE PAR METHODES MARKOVIENNES ET PAR MORPHOLOGIE MATHEMATIQUE : APPLICATION A L'ANALYSE DES ZONES URBAINES SUR DES IMAGES SATELLITALES /

LORETTE, ANNE. Zerubia, Josiane January 1999 (has links)
Thèse de doctorat : SCIENCES ET TECHNIQUES : Nice : 1999. / 1999NICE5327. 134 ref.

Page generated in 0.0992 seconds