• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 93
  • 25
  • 13
  • 6
  • 5
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 186
  • 186
  • 97
  • 82
  • 52
  • 42
  • 33
  • 32
  • 27
  • 26
  • 25
  • 23
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Experiments with Support Vector Machines and Kernels

Kohram, Mojtaba 21 October 2013 (has links)
No description available.
142

Development of Radial Basis Function Cascade Correlation Networks and Applications of Chemometric Techniques for Hyphenated Chromatography-Mass Spectrometry Analysis

Lu, Weiying January 2011 (has links)
No description available.
143

Models of EEG data mining and classification in temporal lobe epilepsy: wavelet-chaos-neural network methodology and spiking neural networks

Ghosh Dastidar, Samanwoy 22 June 2007 (has links)
No description available.
144

Software quality studies using analytical metric analysis

Rodríguez Martínez, Cecilia January 2013 (has links)
Today engineering companies expend a large amount of resources on the detection and correction of the bugs (defects) in their software. These bugs are usually due to errors and mistakes made by programmers while writing the code or writing the specifications. No tool is able to detect all of these bugs. Some of these bugs remain undetected despite testing of the code. For these reasons, many researchers have tried to find indicators in the software’s source codes that can be used to predict the presence of bugs. Every bug in the source code is a potentially failure of the program to perform as expected. Therefore, programs are tested with many different cases in an attempt to cover all the possible paths through the program to detect all of these bugs. Early prediction of bugs informs the programmers about the location of the bugs in the code. Thus, programmers can more carefully test the more error prone files, and thus save a lot of time by not testing error free files. This thesis project created a tool that is able to predict error prone source code written in C++. In order to achieve this, we have utilized one predictor which has been extremely well studied: software metrics. Many studies have demonstrated that there is a relationship between software metrics and the presence of bugs. In this project a Neuro-Fuzzy hybrid model based on Fuzzy c-means and Radial Basis Neural Network has been used. The efficiency of the model has been tested in a software project at Ericsson. Testing of this model proved that the program does not achieve high accuracy due to the lack of independent samples in the data set. However, experiments did show that classification models provide better predictions than regression models. The thesis concluded by suggesting future work that could improve the performance of this program. / Idag spenderar ingenjörsföretag en stor mängd resurser på att upptäcka och korrigera buggar (fel) i sin mjukvara. Det är oftast programmerare som inför dessa buggar på grund av fel och misstag som uppkommer när de skriver koden eller specifikationerna. Inget verktyg kan detektera alla dessa buggar. Några av buggarna förblir oupptäckta trots testning av koden. Av dessa skäl har många forskare försökt hitta indikatorer i programvarans källkod som kan användas för att förutsäga förekomsten av buggar. Varje fel i källkoden är ett potentiellt misslyckande som gör att applikationen inte fungerar som förväntat. För att hitta buggarna testas koden med många olika testfall för att försöka täcka alla möjliga kombinationer och fall. Förutsägelse av buggar informerar programmerarna om var i koden buggarna finns. Således kan programmerarna mer noggrant testa felbenägna filer och därmed spara mycket tid genom att inte behöva testa felfria filer. Detta examensarbete har skapat ett verktyg som kan förutsäga felbenägen källkod skriven i C ++. För att uppnå detta har vi utnyttjat en välkänd metod som heter Software Metrics. Många studier har visat att det finns ett samband mellan Software Metrics och förekomsten av buggar. I detta projekt har en Neuro-Fuzzy hybridmodell baserad på Fuzzy c-means och Radial Basis Neural Network använts. Effektiviteten av modellen har testats i ett mjukvaruprojekt på Ericsson. Testning av denna modell visade att programmet inte Uppnå hög noggrannhet på grund av bristen av oberoende urval i datauppsättningen. Men gjordt experiment visade att klassificering modeller ger bättre förutsägelser än regressionsmodeller. Exjobbet avslutade genom att föreslå framtida arbetet som skulle kunna förbättra detta program. / Actualmente las empresas de ingeniería derivan una gran cantidad de recursos a la detección y corrección de errores en sus códigos software. Estos errores se deben generalmente a los errores cometidos por los desarrolladores cuando escriben el código o sus especificaciones.  No hay ninguna herramienta capaz de detectar todos estos errores y algunos de ellos pasan desapercibidos tras el proceso de pruebas. Por esta razón, numerosas investigaciones han intentado encontrar indicadores en los códigos fuente del software que puedan ser utilizados para detectar la presencia de errores. Cada error en un código fuente es un error potencial en el funcionamiento del programa, por ello los programas son sometidos a exhaustivas pruebas que cubren (o intentan cubrir) todos los posibles caminos del programa para detectar todos sus errores. La temprana localización de errores informa a los programadores dedicados a la realización de estas pruebas sobre la ubicación de estos errores en el código. Así, los programadores pueden probar con más cuidado los archivos más propensos a tener errores dejando a un lado los archivos libres de error. En este proyecto se ha creado una herramienta capaz de predecir código software propenso a errores escrito en C++. Para ello, en este proyecto se ha utilizado un indicador que ha sido cuidadosamente estudiado y ha demostrado su relación con la presencia de errores: las métricas del software. En este proyecto un modelo híbrido neuro-disfuso basado en Fuzzy c-means y en redes neuronales de función de base radial ha sido utilizado. La eficacia de este modelo ha sido probada en un proyecto software de Ericsson. Como resultado se ha comprobado que el modelo no alcanza una alta precisión debido a la falta de muestras independientes en el conjunto de datos y los experimentos han mostrado que los modelos de clasificación proporcionan mejores predicciones que los modelos de regresión. El proyecto concluye sugiriendo trabajo que mejoraría el funcionamiento del programa en el futuro.
145

Transient engine model for calibration using two-stage regression approach

Khan, Muhammad Alam Z. January 2011 (has links)
Engine mapping is the process of empirically modelling engine behaviour as a function of adjustable engine parameters, predicting the output of the engine. The aim is to calibrate the electronic engine controller to meet decreasing emission requirements and increasing fuel economy demands. Modern engines have an increasing number of control parameters that are having a dramatic impact on time and e ort required to obtain optimal engine calibrations. These are further complicated due to transient engine operating mode. A new model-based transient calibration method has been built on the application of hierarchical statistical modelling methods, and analysis of repeated experiments for the application of engine mapping. The methodology is based on two-stage regression approach, which organise the engine data for the mapping process in sweeps. The introduction of time-dependent covariates in the hierarchy of the modelling led to the development of a new approach for the problem of transient engine calibration. This new approach for transient engine modelling is analysed using a small designed data set for a throttle body inferred air ow phenomenon. The data collection for the model was performed on a transient engine test bed as a part of this work, with sophisticated software and hardware installed on it. Models and their associated experimental design protocols have been identi ed that permits the models capable of accurately predicting the desired response features over the whole region of operability. Further, during the course of the work, the utility of multi-layer perceptron (MLP) neural network based model for the multi-covariate case has been demonstrated. The MLP neural network performs slightly better than the radial basis function (RBF) model. The basis of this comparison is made on assessing relevant model selection criteria, as well as internal and external validation ts. Finally, the general ability of the model was demonstrated through the implementation of this methodology for use in the calibration process, for populating the electronic engine control module lookup tables.
146

Moderní regresní metody při dobývání znalostí z dat / Modern regression methods in data mining

Kopal, Vojtěch January 2015 (has links)
The thesis compares several non-linear regression methods on synthetic data sets gen- erated using standard benchmarks for a continuous black-box optimization. For that com- parison, we have chosen the following regression methods: radial basis function networks, Gaussian processes, support vector regression and random forests. We have also included polynomial regression which we use to explain the basic principles of regression. The com- parison of these methods is discussed in the context of black-box optimization problems where the selected methods can be applied as surrogate models. The methods are evalu- ated based on their mean-squared error and on the Kendall's rank correlation coefficient between the ordering of function values according to the model and according to the function used to generate the data. 1
147

Transfert de déformations géométriques lors des couplages de codes de calcul : Application aux dispositifs expérimentaux du réacteur de recherche Jules Horowitz

Duplex, Benjamin 14 December 2011 (has links)
Le CEA développe et utilise des logiciels de calcul, également appelés codes de calcul, dans différentes disciplines physiques pour optimiser les coûts de ses installations et de ses expérimentations. Lors d'une étude, plusieurs phénomènes physiques interagissent. Un couplage et des échanges de données entre plusieurs codes sont nécessaires.Chaque code réalise ses calculs sur une géométrie, généralement représentée sous forme d'un maillage contenant des milliers voire des millions de mailles. Cette thèse se focalise sur le transfert de déformations géométriques entre les maillages spécifiques de chacun des codes de calcul couplés. Pour cela, elle présente une méthode de couplage de plusieurs codes, dont le calcul des déformations est réalisé par l'un d'entre eux. Elle traite également de la mise en place d'un modèle commun aux différents codes de l'étude regroupant l'ensemble des données partagées. Enfin, elle porte sur les transferts de déformations entre des maillages représentant une même géométrie ou des géométries adjacentes. Les modifications géométriques sont de nature discrète car elles s'appuient sur un maillage. Afin de les rendre accessible à l'ensemble des codes de l'étude et pour permettre leur transfert, une représentation continue est calculée. Pour cela, deux fonctions sont développées : l'une à support global, l'autre à support local. Toutes deux combinent une méthode de simplification et un réseau de fonctions de base radiale. Un cas d'application complet est traité dans le cadre du réacteur Jules Horowitz. L'effet des dilatations différentielles sur le refroidissement d'un dispositif expérimental est étudié. / The CEA develops and uses scientific software, called physical codes, in various physical disciplines to optimize installation and experimentation costs. During a study, several physical phenomena interact, so a code coupling and some data exchanges between different physical codes are required.Each physical code computes on a particular geometry, usually represented by a mesh composed of thousands to millions of elements. This PhD Thesis focuses on the geometrical modification transfer between specific meshes of each coupled physical code. First, it presents a physical code coupling method where deformations are computed by one of these codes. Next, it discusses the establishment of a model, common to different physical codes, grouping all the shared data. Finally, it covers the deformation transfers between meshes of the same geometry or adjacent geometries. Geometrical modifications are discrete data because they are based on a mesh. In order to permit every code to access deformations and to transfer them, a continuous representation is computed. Two functions are developed, one with a global support, and the other with a local support. Both functions combine a simplification method and a radial basis function network. A whole use case is dedicated to the Jules Horowitz reactor. The effect of differential dilatations on experimental device cooling is studied.
148

Sur la modélisation du tissu cardiaque comme un milieu à microdilatation : une investigation numérique / On the modelling of cardiac tissue as a microdilatation medium : a numerical investigation

Thurieau, Nicolas 14 January 2014 (has links)
Contexte : Le tissu biologique mou présente une organisation structurelle extrêmement complexe et est le siège de nombreux phénomènes d'échanges. De nombreuses applications s'étendant du diagnostic clinique à l'ingénierie tissulaire nécessitent la connaissance du comportement mécanique du tissu. A cette fin, de nombreuses approches plus ou moins satisfaisantes sont développées. Elles s'efforcent toutes de tenir compte de manière plus ou moins systématique de la microstructure du milieu. La considération du tissu biologique comme un milieu micromorphe donne des résultats probants dans sa particularisation au milieu micropolaire appliquée au tissu osseux. Il est donc fort probable que des résultats du genre soient obtenus pour d'autres tissus. Notre travail était orienté vers le tissu cardiaque et la problématique de l'infarctus ischémique. Dans ce contexte, il nous a semblé que la particularisation de comportement la mieux adaptée est celle d'un milieu à microdilatation. Travail réalisé : Le travail réalisé dans le cadre de cette thèse est essentiellement numérique. Il a pour objectif de mettre en lumière les particularités de la réponse à une sollicitation extérieure d'un échantillon de milieu à microdilatation. Cette étape est essentielle pour l'analyse future des résultats d'expériences qui seront menées. Il a également pour objectif d'étudier les potentialités du modèle vis-à-vis du tissu cardiaque en considérant l'infarctus ischémique et la perte associée de la capacité d'éjection de volume sanguin. Les outils numériques d'analyse de tels milieux sont en plein développement. Il nous a fallu développer notre propre outil basé sur la LPI-BEM (Local Point Interpolation - Boundary Element Method). Du fait de la similitude des équations de champs associées, la validité de la stratégie numérique mise en oeuvre est testée sur le cas d'un matériau piézoélectrique. Ce choix n'est pas innocent car, dans l'avenir la considération du milieu piézoélectrique à microdilatation permettra d'analyser le cas d'une sollicitation électrique du tissu. Les détails de cette stratégie numérique originale sont consignés dans le chapitre 2 du mémoire. Le chapitre 3 est consacré à l'analyse de la robustesse de la méthode et aux particularités de la réponse d'un milieu à microdilatation. Le quatrième chapitre est consacré à l'application au tissu cardiaque. En se limitant au cas de petites déformations, on montre que le modèle est bien adapté à la représentation du comportement du tissu cardiaque. En effet, assimilant le ventricule gauche à une structure tubulaire, la fraction d'éjection du ventricule gauche (critère clinique d'insuffisance cardiaque) est fortement diminuée en présence d'une zone infarcie. Cette dernière est modélisée comme une région à frontière diffuse où les points matériels ont perdu leur capacité de « respirer ». Ces résultats sont prometteurs. Ils encouragent à poursuivre dans cette voie en prenant en compte le caractère anisotrope du tissu et en se plaçant dans le cadre des grandes déformations / Background: A soft biological tissue is subjected to numerous exchange phenomena and has an extremely complex structural organization. The knowledge of its mechanical behavior is required in many applications ranging from clinical diagnostic to tissue engineering. To achieve this goal, more or less satisfactory approaches are developed. They all seek to take into account in a more or less systematic manner the microstructure of the medium. Assuming that the biological tissue is a particular micromorphic medium (micropolar medium) leads to good results in the case bone tissue. It is therefore likely that the results of this kind will be obtained for other tissues. Our interest is on the heart tissue and the problem of ischemic heart attack. In this context, it seemed that the most appropriate behavior particularization is that of a microdilatation medium. Work done: The work presented in this thesis is essentially numerical. It aims to highlight the features of the response of microdilatation medium to an external mechanical load. This step is essential for the analysis of the experimental results to be conducted in the future. The work also aims to investigate the potentialities of the model with respect to the heart tissue regarding heart attack and the associated loss of the ability to eject sufficient blood volume. The numerical tools for the analysis of such media are in increasing development. We had to develop our own tool based on the LPI-BEM (Local Point Interpolation - Boundary Element Method). Because of the similarity of the associated field equations, the validity of the numerical strategy is assessed in the case of a piezoelectric material. This choice is not innocent because the piezoelectric medium with microdilatation will allow analyzing the case of an electrical solicitation of the tissue. The details of this original numerical approach are given in Chapter 2 of the thesis. Chapter 3 is devoted to the analysis of the robustness of the method and to the peculiarities of the response of a microdilatation medium. The fourth chapter is devoted to the application to the cardiac tissue. By limiting the study to the case of small strains, it is shown that the model is well suited to the representation of the behavior of cardiac tissue. Indeed, considering the left ventricle as a tubular structure, the left ventricle ejection fraction (clinical criterion of the heart failure) is greatly reduced in the presence of an infarcted area. The latter is modeled as a zone with diffuse boundary where the material points have lost their ability to "breath". These results are promising and encourage further investigations in this direction by taking into account the anisotropic nature of the tissue in a geometrically nonlinear context
149

Utilising Local Model Neural Network Jacobian Information in Neurocontrol

Carrelli, David John 16 November 2006 (has links)
Student Number : 8315331 - MSc dissertation - School of Electrical and Information Engineering - Faculty of Engineering and the Built Environment / In this dissertation an efficient algorithm to calculate the differential of the network output with respect to its inputs is derived for axis orthogonal Local Model (LMN) and Radial Basis Function (RBF) Networks. A new recursive Singular Value Decomposition (SVD) adaptation algorithm, which attempts to circumvent many of the problems found in existing recursive adaptation algorithms, is also derived. Code listings and simulations are presented to demonstrate how the algorithms may be used in on-line adaptive neurocontrol systems. Specifically, the control techniques known as series inverse neural control and instantaneous linearization are highlighted. The presented material illustrates how the approach enhances the flexibility of LMN networks making them suitable for use in both direct and indirect adaptive control methods. By incorporating this ability into LMN networks an important characteristic of Multi Layer Perceptron (MLP) networks is obtained whilst retaining the desirable properties of the RBF and LMN approach.
150

Paramétrisation et transfert d’animations faciales 3D à partir de séquences vidéo : vers des applications en temps réel / Rigging and retargetting of 3D facial animations from video : towards real-time applications

Dutreve, Ludovic 24 March 2011 (has links)
L’animation faciale est l’un des points clés dans le réalisme des scènes 3D qui mettent en scène des personnages virtuels. Ceci s’explique principalement par les raisons suivantes : le visage et les nombreux muscles qui le composent permettent de générer une multitude d’expressions ; ensuite, notre faculté de perception nous permet de détecter et d’analyser ses mouvements les plus fins. La complexité de ce domaine se retrouve dans les approches existantes par le fait qu’il est très difficile de créer une animation de qualité sans un travail manuel long et fastidieux. Partant de ce constat, cette thèse a pour but de développer des techniques qui contribuent au processus de création d’animations faciales. Trois thèmes sont principalement abordés. Le premier concerne la paramétrisation du visage pour l’animation. La paramétrisation a pour but de définir des moyens de contrôle pour pouvoir déformer et animer le visage. Le second s’oriente sur l’animation, et plus particulièrement sur le transfert d’animation. Le but est de proposer une méthode qui permette d’animer le visage d’un personnage à partir de données variées. Ces données peuvent être issues d’un système de capture de mouvement, ou bien elles peuvent être obtenues à partir de l’animation d’un personnage virtuel qui existe déjà. Enfin, nous nous sommes concentrés sur les détails fins liés à l’animation comme les rides. Bien que ces rides soient fines et discrètes, ces déformations jouent un rôle important dans la perception et l’analyse des émotions. C’est pourquoi nous proposons une technique d’acquisition mono-caméra et une méthode à base de poses références pour synthétiser dynamiquement les détails fins d’animation sur le visage. L’objectif principal des méthodes proposées est d’offrir des solutions afin de faciliter et d’améliorer le processus de création d’animations faciales réalistes utilisées dans le cadre d’applications en temps réel. Nous nous sommes particulièrement concentrés sur la facilité d’utilisation et sur la contrainte du temps réel. De plus, nous offrons la possibilité à l’utilisateur ou au graphiste d’interagir afin de personnaliser sa création et/ou d’améliorer les résultats obtenus / Facial animation is one of the key points of the realism of 3D scenes featuring virtual humans. This is due to several reasons : face and the many muscles that compose it can generate a multitude of expressions ; then, our faculty of perception provides us a great ability to detect and analyze its smallest variations. This complexity is reflected in existing approaches by the fact that it is very difficult to create an animation without a long and a tedious manual work. Based on these observations, this thesis aims to develop techniques that contribute to the process of creating facial animation. Three main themes have been addressed. The first concerns the rigging issue of a virtual 3D face for animation. Rigging aims at defining control parameters in order to deform and animate the face. The second deals with the animation, especially on the animation retargeting issue. The goal is to propose a method to animate a character’s face from various data. These data can be obtained from a motion capture system or from an existing 3D facial animation. Finally, we focus on animation finescale details like wrinkles. Although these are thin and discreet, their deformations play an important part in the perception and analysis of emotions. Therefore we propose a monocular acquisition technique and a reference pose based method to synthetise dynamically animation fine details over the face. The purpose is to propose methods to facilitate and improve the process of creating realistic facial animations for interactive applications. We focused on ease to use in addition to the real-time aspect. Moreover, we offer the possibility to the user or graphist to interact in order to personalize its creation and/or improve the results

Page generated in 0.0565 seconds