• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 62
  • 12
  • 10
  • 9
  • 7
  • 3
  • 2
  • 2
  • 2
  • 1
  • 1
  • Tagged with
  • 131
  • 131
  • 43
  • 20
  • 17
  • 16
  • 16
  • 15
  • 14
  • 13
  • 11
  • 10
  • 10
  • 9
  • 9
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Characterization of multiphoton emission from aggregated gold nano particles

Eguchi, Akira, Lu, Phat, Kim, Youngsik, Milster, Tom D. 17 September 2016 (has links)
Although gold nanoparticles (GNPs) are promising probes for biological imaging because of their attracting optical properties and bio-friendly nature, properties of the multi-photon (MP) emission from GNP aggregates produced by a short-wave infrared (SWIR) laser have not been examined. In this paper, characterization of MP emission from aggregated 50 nm GNPs excited by a femtosecond (fs) laser at 1560 nm is discussed with respect to aggregate structures. The key technique in this work is single particle spectroscopy. A pattern matching technique is applied to correlate MP emission and SEM images, which includes an optimization processes to maximize cross correlation coefficients between a binary microscope image and a binary SEM image with respect to xy displacement, image rotation angle, and image magnification. Once optimization is completed, emission spots are matched to the SEM image, which clarifies GNP ordering and emission properties of each aggregate. Correlation results showed that GNP aggregates have stronger MP emission than single GNPs. By combining the pattern matching technique with spectroscopy, MP emission spectrum is characterized for each GNP aggregate. A broad spectrum in the visible region and near infrared (NIR) region is obtained from GNP dimers, unlike previously reported surface plasmon enhanced emission spectrum.
32

Robust indoor positioning with lifelong learning

Xiao, Zhuoling January 2014 (has links)
Indoor tracking and navigation is a fundamental need for pervasive and context-aware applications. However, no practical and reliable indoor positioning solution is available at present. The major challenge of a practical solution lies in the fact that only the existing devices and infrastructure can be utilized to achieve high positioning accuracy. This thesis presents a robust indoor positioning system with the lifelong learning ability. The typical features of the proposed solution is low-cost, accurate, robust, and scalable. This system only takes the floor plan and the existing devices, e.g. phones, pads, etc. and infrastructure such as WiFi/BLE access points for the sake of practicality. This system has four closely correlated components including, non-line-of-sight identification and mitigation (NIMIT), robust pedestrian dead reckoning (R-PDR), lightweight map matching (MapCraft), and lifelong learning. NIMIT projects the received signal strength (RSS) from WiFi/BLE to locations. The R-PDR component converts the data from inertial measurement unit (IMU) sensors ubiquitous in mobile devices and wearables to the trajectories of the user. Then MapCraft fuses trajectories estimated from the R-PDR and the coarse location information from NIMIT with the floor plan and provides accurate location estimations. The lifelong learning component then learns the various parameters used in all other three components in an unsupervised manner, which continuously improves the the positioning accuracy of the system. Extensive real world experiments in multiple sites show how the proposed system outperforms state-of-the art approaches, demonstrating excellent sub-meter positioning accuracy and accurate reconstruction of tortuous trajectories with zero training effort. As proof of its robustness, we also demonstrate how it is able to accurately track the position regardless of the users, devices, attachments, and environments. We believe that such an accurate and robust approach will enable always-on background localization, enabling a new era of location-aware applications to be developed.
33

Automatic analysis for continuous integration test failures

Zhao, Xuhui January 2019 (has links)
CI (Continuous Integration) is a software development practice which became more and more popular in last decade. Ericsson followed the trends and used CI several years. Because of the complexity of RBS (Radio Base Station) software few levels of CI have been implemented there. In RCS (RBS Control System) module CI there are many automatic JCAT (Java Common Auto Tester) test loops running every day and some of them failed. This thesis tries to find a way to classify these test failures automatically, so efficiency and lead time can be improved. Two methods are presented and investigated in this report, rule matching and machine learning. After analysis and comparisons rule matching approach is selected because it does not require huge effort in the initial phase and rule matched data can be used as labeled data for machine learning. This approach requires manual work to add new rules continuously but with correctly defined rules the accuracy is 100%, if the rule is general it can classify one type of issue including the ones which never happen before. One analysis system is designed and implemented, and only small update is required to the result report block of the CI flow. One matching example is showed and according to estimation this method could save many man hours every year.
34

Permutation pattern matching / Recherche de motif dans les permutations

Neou, Both Emerite 18 December 2017 (has links)
Cette thèse s'intéresse au problème de la recherche de motif dans les permutations, qui a pour objectif de savoir si un motif apparaît dans un texte, en prenant en compte que le motif et le texte sont des permutations. C'est-à-dire s'il existe des éléments du texte tel que ces éléments sont triés de la même manière et apparaissent dans le même ordre que les éléments du motif. Ce problème est NP complet. Cette thèse expose des cas particuliers de ce problème qui sont solvable en temps polynomial.Pour cela nous étudions le problème en donnant des contraintes sur le texte et/ou le motif. En particulier, le cas où le texte et/ou le motif sont des permutations qui ne contiennent pas les motifs 2413 et 3142 (appelé permutation séparable) et le cas où le texte et/ou le motif sont des permutations qui ne contiennent pas les motifs 213 et 231 sont considérés. Des problèmes dérivés de la recherche de motif et le problème de la recherche de motif bivinculaire sont aussi étudiés. / This thesis focuses on permutation pattern matching problem, which askswhether a pattern occurs in a text where both the pattern and text are permutations.In other words, we seek to determine whether there exist elements ofthe text such that they are sorted and appear in the same order as the elementsof the pattern. The problem is NP-complete. This thesis examines particularcases of the problem that are polynomial-time solvable.For this purpose, we study the problem by giving constraints on the permutationstext and/or pattern. In particular, the cases in which the text and/orpattern are permutations in which the patterns 2413 and 3142 do not occur(also known as separable permutations) and in which the text and/or patternare permutations in which the patterns 213 and 231 do not occur (also known aswedge permutations) are also considered. Some problems related to the patternmatching and the permutation pattern matching with bivincular pattern arealso studied.
35

Syntax-driven argument identification and multi-argument classification for semantic role labeling

Lin, Chi-San Althon January 2007 (has links)
Semantic role labeling is an important stage in systems for Natural Language Understanding. The basic problem is one of identifying who did what to whom for each predicate in a sentence. Thus labeling is a two-step process: identify constituent phrases that are arguments to a predicate, then label those arguments with appropriate thematic roles. Existing systems for semantic role labeling use machine learning methods to assign roles one-at-a-time to candidate arguments. There are several drawbacks to this general approach. First, more than one candidate can be assigned the same role, which is undesirable. Second, the search for each candidate argument is exponential with respect to the number of words in the sentence. Third, single-role assignment cannot take advantage of dependencies known to exist between semantic roles of predicate arguments, such as their relative juxtaposition. And fourth, execution times for existing algorithm are excessive, making them unsuitable for real-time use. This thesis seeks to obviate these problems by approaching semantic role labeling as a multi-argument classification process. It observes that the only valid arguments to a predicate are unembedded constituent phrases that do not overlap that predicate. Given that semantic role labeling occurs after parsing, this thesis proposes an algorithm that systematically traverses the parse tree when looking for arguments, thereby eliminating the vast majority of impossible candidates. Moreover, instead of assigning semantic roles one at a time, an algorithm is proposed to assign all labels simultaneously; leveraging dependencies between roles and eliminating the problem of duplicate assignment. Experimental results are provided as evidence to show that a combination of the proposed argument identification and multi-argument classification algorithms outperforms all existing systems that use the same syntactic information.
36

Contraintes d'anti-filtrage et programmation par réécriture

Kopetz, Radu 15 October 2008 (has links) (PDF)
L'objectif principal de cette thèse est l'étude et la formalisation de nouvelles constructions permettant d'augmenter l'expressivité du filtrage et des langages à base de règles en général. Ceci est motivé par le développement de Tom, un système qui enrichit les langages impératifs comme Java et C avec des constructions de haut niveau comme le filtrage et les stratégies. Une première extension que l'on propose est la notion d'anti-patterns, i.e. des motifs qui peuvent contenir des symboles de complément. La négation est intrinsèque au raisonnement habituel, et la plupart du temps quand on cherche quelque chose, on base nos motifs sur des conditions positives et négatives. Cela doit naturellement se retrouver dans les logiciels permettant les recherches à base de motifs. Par exemple, les anti-patterns permettent de spécifier qu'on cherche des voitures blanches qui ne sont pas des monospaces, ou qu'on cherche une liste d'objets qui ne contient pas deux éléments identiques. Nous définissons alors de manière formelle la sémantique des anti-patterns dans le cas syntaxique, i.e. quand les symboles n'ont aucune théorie associée, et aussi modulo une théorie équationnelle arbitraire. Puis nous étendons la notion classique de filtrage entre les motifs et les termes clos au filtrage entre les anti-patterns et les termes clos (anti-filtrage). S'inspirant de l'expressivité des règles de production, nous proposons plusieurs extensions aux constructions de filtrage fournies par Tom. Par conséquent, la condition pour l'application d'une règle n'est plus une simple contrainte de filtrage, mais une combinaison (conjonction ou disjonction) de contraintes de filtrage et d'anti-filtrage ainsi que d'autres types de conditions. Les techniques classiques de compilation du filtrage ne sont pas bien adaptées à ces conditions complexes. Ceci a motivé l'étude d'une nouvelle méthode de compilation basée sur des systèmes de réécriture. L'application de ces systèmes est contrôlée par des stratégies, permettant la mise en place d'extensions futures (comme la prise en compte de nouvelles théories de filtrage) de manière simple et naturelle, sans interférer avec le code existant. Nous avons complètement réécrit le compilateur de Tom en utilisant cette technique. Une fois tous ces éléments rassemblés, on obtient un environnement pour décrire et implémenter des transformations de manière élégante et concise. Pour promouvoir son utilisation dans des projets complexes du milieu industriel, nous développons une technique pour extraire de manière automatique des informations structurelles à partir d'une hiérarchie arbitraire de classes Java. Cela permet l'intégration du filtrage offert par Tom dans n'importe quelle application Java, nouvelle ou déjà existante.
37

Modeling and Pattern Matching Security Properties with Dependence Graphs

Fåk, Pia January 2005 (has links)
<p>With an increasing number of computers connected to the Internet, the number of malicious attacks on computer systems also raises. The key to all successful attacks on information systems is finding a weak spot in the victim system. Some types of bugs in software can constitute such weak spots. This thesis presents and evaluates a technique for statically detecting such security related bugs. It models the analyzed program as well as different types of security bugs with dependence graphs. Errors are detected by searching the program graph model for subgraphs matching security bug models.</p><p>The technique has been implemented in a prototype tool called GraphMatch. Its accuracy and performance have been measured by analyzing open source application code for missing input validation vulnerabilities. The test results show that the accuracy obtained so far is low and the complexity of the algorithms currently used cause analysis times of several hours even for fairly small projects. Further research is needed to determine if the performance and accuracy can be improved.</p>
38

Boosting Image Database Retrieval

Tieu, Kinh, Viola, Paul 10 September 1999 (has links)
We present an approach for image database retrieval using a very large number of highly-selective features and simple on-line learning. Our approach is predicated on the assumption that each image is generated by a sparse set of visual "causes" and that images which are visually similar share causes. We propose a mechanism for generating a large number of complex features which capture some aspects of this causal structure. Boosting is used to learn simple and efficient classifiers in this complex feature space. Finally we will describe a practical implementation of our retrieval system on a database of 3000 images.
39

Développement et évaluation de méthodes bioinformatiques pour la détection de séquences cis-régulatrices impliquées dans le développement de la drosophile

Turatsinze, Jean Valery 23 November 2009 (has links)
L'objectif de ce travail est de développer et d'évaluer des approches méthodologiques pour la prédiction de séquences cis-régulatrices. Ces approches ont été intégrées dans la suite logicielle RSAT (Regulatory Sequences Analysis Tools). Ces séquences jouent un rôle important dans la régulation de l'expression des gènes. Cette régulation, au niveau transcriptionnel, s'effectue à travers la reconnaissance spécifique entre les facteurs de transcription et leurs sites de fixation (TFBS) au niveau de l'ADN. Nous avons développé et évalué une série d'outils bioinformatiques qui utilisent les matrices position-poids pour prédire les TFBS ainsi que les modules cis-régulateurs (CRM). Nos outils présentent l'avantage d'intégrer les différentes approches déjà proposées par d'autres auteurs tout en proposant des fonctionnalités innovantes. Nous proposons notamment une nouvelle approche pour la prédiction de CRM basé sur la détection de régions significativement enrichies en TFBS. Nous les avons appelés les CRER (pour Cis-Regulatory Elements Enriched Regions). Un autre aspect essentiel de toute notre approche réside dans le fait que nous proposons des mesures statistiques rigoureuses pour estimer théoriquement et empiriquement le risque associé aux différentes prédictions. Les méthodes de prédictions de séquences cis-regulatrices prédisent en effet un taux de fausses prédictions généralement élevé. Nous intégrons un calcul des P-valeurs associées à toutes les prédictions. Nous proposons ainsi une mesure fiable de la probabilité de faux positifs. Nous avons appliqué nos outils pour une évaluation systématique de l'effet du modèle de background sur la précision des prédictions à partir de la base de données de TRANSFAC. Nos résultats suggèrent une grande variabilité pour les modèles qui optimisent la précision des prédictions. Il faut choisir le modèle de background au cas par cas selon la matrice considérée. Nous avons ensuite évalué la qualité des matrices de tous les facteurs de transcription de drosophile de la base de données ORegAnno, c'est à dire leur pouvoir de discrimination entre les TFBS et les séquences génomiques. Nous avons ainsi collecté des matrices des facteurs de transcription de drosophile de bonne qualité. A partir des matrices de drosophile que nous avons collectées, nous avons entamé une analyse préliminaire multi-genome de prédictions de TFBS et de CRM dans la région de lʼenhancer dorsocentral (DCE) du complexe achaete-scute de drosophile. Les gènes de ce complexe jouent un rôle important dans la détermination des cellules système nerveux périphérique de drosophile. Il a été prouvé expérimentalement qu'il existe un lien direct entre le phénotype du système nerveux périphérique et les séquences cis-régulateurs des gènes de ce complexe. Les outils que nous avons développés durant ce projet peuvent s'appliquer à la prédiction des séquences de régulation dans les génomes de tous les organismes.
40

Improvement Of Radar Detection By Doppler Pattern Matching

Celebi, Duygu 01 September 2006 (has links) (PDF)
In this thesis, improvement of Cell Averaging Constant False Alarm Rate (CA CFAR) radar processors is studied. A new improvement method is proposed that will reduce probability of false alarm while keeping probability of detection at good values. This method makes use of Doppler spreading patterns that appear after Doppler processing. Therefore this method is called Doppler Pattern Matching (DPM). Performance of the algorithm has been investigated by Monte Carlo simulations. In order to evaluate the performance, improvement factor is calculated which is the ratio of the probability of false alarm of original detector to the false alarm of improved detector. It is observed that improvement factor changes depending on the simulation scenario. Almost in every case, good improvement factor can be obtained. Moreover, in most of the cases, there has been no reduction in probability of detection after DPM is applied to CA CFAR detector.

Page generated in 0.0944 seconds