• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 86
  • 64
  • 31
  • 29
  • 18
  • 18
  • 8
  • 7
  • 5
  • 5
  • 4
  • 4
  • 3
  • 3
  • 2
  • Tagged with
  • 308
  • 49
  • 48
  • 36
  • 31
  • 28
  • 23
  • 23
  • 22
  • 21
  • 20
  • 19
  • 19
  • 19
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Development of a web-based drug intelligence database system

Liao, Jianghong 01 October 2000 (has links)
No description available.
182

A study of Oracle performance prediction using Kalman filter

Rahman, Seema 01 April 2001 (has links)
No description available.
183

Classification automatique pour la compréhension de la parole : vers des systèmes semi-supervisés et auto-évolutifs / Machine learning applied to speech language understanding : towards semi-supervised and self-evolving systems

Gotab, Pierre 04 December 2012 (has links)
La compréhension automatique de la parole est au confluent des deux grands domaines que sont la reconnaissance automatique de la parole et l'apprentissage automatique. Un des problèmes majeurs dans ce domaine est l'obtention d'un corpus de données conséquent afin d'obtenir des modèles statistiques performants. Les corpus de parole pour entraîner des modèles de compréhension nécessitent une intervention humaine importante, notamment dans les tâches de transcription et d'annotation sémantique. Leur coût de production est élevé et c'est la raison pour laquelle ils sont disponibles en quantité limitée.Cette thèse vise principalement à réduire ce besoin d'intervention humaine de deux façons : d'une part en réduisant la quantité de corpus annoté nécessaire à l'obtention d'un modèle grâce à des techniques d'apprentissage semi-supervisé (Self-Training, Co-Training et Active-Learning) ; et d'autre part en tirant parti des réponses de l'utilisateur du système pour améliorer le modèle de compréhension.Ce dernier point touche à un second problème rencontré par les systèmes de compréhension automatique de la parole et adressé par cette thèse : le besoin d'adapter régulièrement leurs modèles aux variations de comportement des utilisateurs ou aux modifications de l'offre de services du système / Two wide research fields named Speech Recognition and Machine Learning meet with the Automatic Speech Language Understanding. One of the main problems in this domain is to obtain a sufficient corpus to train an efficient statistical model. Such speech corpora need a lot of human involvement to transcript and semantically annotate them. Their production cost is therefore quite high and they are difficultly available.This thesis mainly aims at reducing the need of human intervention in two ways: firstly, reducing the amount of corpus needed to build a model thanks to some semi-supervised learning methods (Self-Training, Co-Training and Active-Learning); And lastly, using the answers of the system end-user to improve the comprehension model.This last point addresses another problem related to automatic speech understanding systems: the need to adapt their models to the fluctuation of end-user habits or to the modification of the services list offered by the system
184

Sélection de variables pour la classification non supervisée en grande dimension / Variable selection in model-based clustering for high-dimensional data

Meynet, Caroline 09 November 2012 (has links)
Il existe des situations de modélisation statistique pour lesquelles le problème classique de classification non supervisée (c'est-à-dire sans information a priori sur la nature ou le nombre de classes à constituer) se double d'un problème d'identification des variables réellement pertinentes pour déterminer la classification. Cette problématique est d'autant plus essentielle que les données dites de grande dimension, comportant bien plus de variables que d'observations, se multiplient ces dernières années : données d'expression de gènes, classification de courbes... Nous proposons une procédure de sélection de variables pour la classification non supervisée adaptée aux problèmes de grande dimension. Nous envisageons une approche par modèles de mélange gaussien, ce qui nous permet de reformuler le problème de sélection des variables et du choix du nombre de classes en un problème global de sélection de modèle. Nous exploitons les propriétés de sélection de variables de la régularisation l1 pour construire efficacement, à partir des données, une collection de modèles qui reste de taille raisonnable même en grande dimension. Nous nous démarquons des procédures classiques de sélection de variables par régularisation l1 en ce qui concerne l'estimation des paramètres : dans chaque modèle, au lieu de considérer l'estimateur Lasso, nous calculons l'estimateur du maximum de vraisemblance. Ensuite, nous sélectionnons l'un des ces estimateurs du maximum de vraisemblance par un critère pénalisé non asymptotique basé sur l'heuristique de pente introduite par Birgé et Massart. D'un point de vue théorique, nous établissons un théorème de sélection de modèle pour l'estimation d'une densité par maximum de vraisemblance pour une collection aléatoire de modèles. Nous l'appliquons dans notre contexte pour trouver une forme de pénalité minimale pour notre critère pénalisé. D'un point de vue pratique, des simulations sont effectuées pour valider notre procédure, en particulier dans le cadre de la classification non supervisée de courbes. L'idée clé de notre procédure est de n'utiliser la régularisation l1 que pour constituer une collection restreinte de modèles et non pas aussi pour estimer les paramètres des modèles. Cette étape d'estimation est réalisée par maximum de vraisemblance. Cette procédure hybride nous est inspirée par une étude théorique menée dans une première partie dans laquelle nous établissons des inégalités oracle l1 pour le Lasso dans les cadres de régression gaussienne et de mélange de régressions gaussiennes, qui se démarquent des inégalités oracle l0 traditionnellement établies par leur absence totale d'hypothèse. / This thesis deals with variable selection for clustering. This problem has become all the more challenging since the recent increase in high-dimensional data where the number of variables can largely exceeds the number of observations (DNA analysis, functional data clustering...). We propose a variable selection procedure for clustering suited to high-dimensional contexts. We consider clustering based on finite Gaussian mixture models in order to recast both the variable selection and the choice of the number of clusters into a global model selection problem. We use the variable selection property of l1-regularization to build a data-driven model collection in a efficient way. Our procedure differs from classical procedures using l1-regularization as regards the estimation of the mixture parameters: in each model of the collection, rather than considering the Lasso estimator, we calculate the maximum likelihood estimator. Then, we select one of these maximum likelihood estimators by a non-asymptotic penalized criterion. From a theoretical viewpoint, we establish a model selection theorem for maximum likelihood estimators in a density estimation framework with a random model collection. We apply it in our context to determine a convenient penalty shape for our criterion. From a practical viewpoint, we carry out simulations to validate our procedure, for instance in the functional data clustering framework. The basic idea of our procedure, which consists in variable selection by l1-regularization but estimation by maximum likelihood estimators, comes from theoretical results we establish in the first part of this thesis: we provide l1-oracle inequalities for the Lasso in the regression framework, which are valid with no assumption at all contrary to the usual l0-oracle inequalities in the literature, thus suggesting a gap between l1-regularization and l0-regularization.
185

Modèles de mélange pour la régression en grande dimension, application aux données fonctionnelles / High-dimensional mixture regression models, application to functional data

Devijver, Emilie 02 July 2015 (has links)
Les modèles de mélange pour la régression sont utilisés pour modéliser la relation entre la réponse et les prédicteurs, pour des données issues de différentes sous-populations. Dans cette thèse, on étudie des prédicteurs de grande dimension et une réponse de grande dimension. Tout d’abord, on obtient une inégalité oracle ℓ1 satisfaite par l’estimateur du Lasso. On s’intéresse à cet estimateur pour ses propriétés de régularisation ℓ1. On propose aussi deux procédures pour pallier ce problème de classification en grande dimension. La première procédure utilise l’estimateur du maximum de vraisemblance pour estimer la densité conditionnelle inconnue, en se restreignant aux variables actives sélectionnées par un estimateur de type Lasso. La seconde procédure considère la sélection de variables et la réduction de rang pour diminuer la dimension. Pour chaque procédure, on obtient une inégalité oracle, qui explicite la pénalité nécessaire pour sélectionner un modèle proche de l’oracle. On étend ces procédures au cas des données fonctionnelles, où les prédicteurs et la réponse peuvent être des fonctions. Dans ce but, on utilise une approche par ondelettes. Pour chaque procédure, on fournit des algorithmes, et on applique et évalue nos méthodes sur des simulations et des données réelles. En particulier, on illustre la première méthode par des données de consommation électrique. / Finite mixture regression models are useful for modeling the relationship between a response and predictors, arising from different subpopulations. In this thesis, we focus on high-dimensional predictors and a high-dimensional response. First of all, we provide an ℓ1-oracle inequality satisfied by the Lasso estimator. We focus on this estimator for its ℓ1-regularization properties rather than for the variable selection procedure. We also propose two procedures to deal with this issue. The first procedure leads to estimate the unknown conditional mixture density by a maximum likelihood estimator, restricted to the relevant variables selected by an ℓ1-penalized maximum likelihood estimator. The second procedure considers jointly predictor selection and rank reduction for obtaining lower-dimensional approximations of parameters matrices. For each procedure, we get an oracle inequality, which derives the penalty shape of the criterion, depending on the complexity of the random model collection. We extend these procedures to the functional case, where predictors and responses are functions. For this purpose, we use a wavelet-based approach. For each situation, we provide algorithms, apply and evaluate our methods both on simulations and real datasets. In particular, we illustrate the first procedure on an electricity load consumption dataset.
186

The Future of COBOL : Modernizing Bolagsverket’s COBOL applications

Åhman, Stefan January 2013 (has links)
COBOL is an old programming language that, despite its age, is still used in many different areas, such as financial and insurance administration. The Swedish Companies Registration Office, also known as Bolagsverket is no exception. This agency administers information regarding Swedish companies and associations. Although the COBOL programs work, they have many disadvantages. The system is both expensive, inflexible and there are very few new developers available. Bolagsverket would therefore gladly replace COBOL with a more flexible and affordable alternative. This thesis will study and present some solutions and also provide actual examples of how they can be used. Two different products have been studied; Oracle SALT and Micro Focus Visual COBOL. SALT offers a web service interface, which enables the users to access services related to the COBOL programs remotely via the Internet or other networks. Visual COBOL, on the other hand, compiles the code into low-level code and deploys it onto new platforms. Both products can make the use of the code in a more flexible manner. Visual COBOL has, however, more substantial and long-term functionality that Bolagsverket is very interested in pursuing, even though it costs five times as much as SALT. One other main reason is that the second product can drastically reduce the gap between the COBOL programs and the surrounding systems. It is even possible to save money since some components can be reduced or even completely removed. The final conclusion is that neither of the programs offers any pure replacement with regards to COBOL, but they have made the language much more adapted to twenty-first century computer systems. They are therefore considered as a good option instead of rewriting the entire COBOL code into a new language. / COBOL är ett gammalt programmeringsspråk som trots sin ålder fortfarande används inom många olika områden, såsom administration inom finans- och försäkringsbranschen. Bolagsverket i Sverige är inget undantag. Den här myndigheten hanterar information rörande de företag och föreningar som finns i Sverige. Även om COBOL-programmen fungerar som det ska finns det många nackdelar. Det är dyrt, inte särskilt medgörligt och dessutom finns det få nya utvecklare att tillgå. Bolagsverket skulle därför gärna vilja byta ut programmen mot något mer flexibelt och prisvärt alternativ. Det här examensarbetet kommer presentera några aktuella lösningar. Kodexempel kommer också att skapas för att visa hur detta kan användas i praktiken. Två olika produkter kommer att behandlas i rapporten; Oracle SALT och Micro Focus Visual COBOL. SALT erbjuder ett gränssnitt för webtjänster. Det möjliggör att användarna kan komma åt tjänster knutna till COBOL programmen, fast på distans, via exempelvis Internet eller något annat nätverk. Visual COBOL har i sin tur en helt annan lösning, nämligen kompilering av COBOL till ett lågnivåspråk som går att använda på flera nya plattformar. Både produkterna erbjuder stora möjligheter i att göra COBOL mer flexibelt. Visual COBOL har däremot mer omfattande och långsiktiga funktioner som Bolagsverket kan tänkas gå vidare med, trots att det kostar fem gånger så mycket som SALT. En annan fördel med Visual COBOL är att flera delar av arkitekturen kan komma att användas mindre, eller till och med avvecklas helt, och kan således även sänka kostnaderna. Slutsatserna som kan dras är att ingen av produkterna byter ut COBOL helt, däremot kan de göra det gamla programmeringsspråket mer anpassat för 2000-talets moderna datorsystem. De betraktas därmed som fullt dugliga alternativ istället för en total omskrivning av COBOL-koden till ett annat språk.
187

Functional testing of an Android application / Funktionell testning av en Androidapplikation

Bångerius, Sebastian, Fröberg, Felix January 2016 (has links)
Testing is an important step in the software development process in order to increase the reliability of the software. There are a number of different methods available to test software that use different approaches to find errors, all with different requirements and possible results. In this thesis we have performed a series of tests on our own mobile application developed for the Android platform. The thesis starts with a theory section in which most of the important terms for software testing are described. Afterwards our own application and test cases are presented. The results of our tests along with our experiences are reviewed and compared to existing studies and literature in the field of testing. The test cases have helped us find a number of faults in our source code that we had not found before. We have discovered that automated testing for Android is a field where there are a lot of good tools, although these are not often used in practice. We believe the app development process could be improved greatly by regularly putting the software through automated testing systems.
188

Databáze pohybujících se objektů / The Database of Moving Objects

Vališ, Jaroslav January 2008 (has links)
This work treats the representation of moving objects and operations over these objects. Intro­duces the support for spatio-temporal data in Oracle Database 10g and presents two designs of moving objects database structure. Upon these designs a database was implemented using the user-defined data types. Sample application provides a graphical output of stored spatial data and allows us to call an implemented spatio-temporal operations. Finally, an evaluation of achieved results is done and possible extensions of project are discussed.
189

Dynamic Website and Data Engine Generators for Distributed Enterprise/Business Architectures

Qaddoura, Fareed 17 December 2004 (has links)
Creating websites providing dynamic services is an extensive process. Intelligent systems are used to create websites with dynamic services. Current intelligent systems are hard to use and configure by the average user. The generated websites are usually custom built to solve one problem and cannot be fully customizable for users on different environments. This thesis presents a technological solution that enables the average user to create websites with dynamic services by providing a number of parameters. The website generator is a web-based application that generates all the components of the website. The components act as portlets and the generated website will be the portal application. The data engine generator creates the website's underlying database. To enable distributed enterprise/business architecture, the data engine generator records the metadata about the database and the website to be generated. The website generator is a cost effective, dynamic, secure, reliable, and scalable solution that outperforms current website generators and portal applications.
190

Analýza a porovnání BI nástrojů společností Microsoft a Oracle / Analysis and comparison of BI tools from Microsoft and Oracle

Srnský, Martin January 2010 (has links)
The aim of this thesis is to analyze the global market with Business Intelligence, recognize the most significant companies running a business in this area and try to estimate the future trends and development of the market and then to analyze BI tools of two important companies on the market, Microsoft and Oracle. Analysis and comparison of these tools will be done according to specified metrics, which will focus on both technological and business features of the tools. The main contribution should be complex comparison of quality of tools from two big competitors on the market.

Page generated in 0.031 seconds