161 |
海外可轉換公司債的評價-考慮平均重設條款、信用風險及利率期間結構張世東, CHANG SHIH TUNG Unknown Date (has links)
影響海外可轉換公司債的因素有許多,包括股價、國內利率、國外利率、匯率,若將時間變數也加入計算,其變動因子高達5階,這種「高維度」的問題已非有限差分法或樹狀方法能處理;且海外可轉債常附有平均式條款、回顧式條款等「路徑相依」性質的選擇權,更是格狀結構數值法(Lattice)難以處理的問題。若使用蒙地卡羅模擬,雖然可以處理高維度及路徑相依的問題,但遇到美式契約時,則會有無法判斷轉換時點的問題,更遑論還必須處理的重設條款或界限型契約。
本論文研究海外可轉換公司債的評價,特點是可以處理其契約中各種可能的複雜條款,本文所使用的最小平方蒙地卡羅模擬,由Longstaff and Schwartz [2000]提出,對於美式契約、路徑相依及高維度問題皆可處理。本文並以Hull and White利率三元樹配適公司債利率符合市場利率期間結構。此外本研究加入海外可轉換公司債評價中最重要的信用風險因素,過去可轉債文獻理論價格大都高於實際市價,這是由於忽略了公司的信用風險溢酬,本文所使用的信用風險模型是由Lando [1998]所提出,特點是不以信用等級作為考量,探討公司特性與所屬產業,並考慮總體因素對違約機率的影響,從市場價格中估計違約密度參數,進而求得信用價差。
本研究對仁寶電腦在2002年所發的ECB做實證研究,比較LSM理論價格與實際市價之誤差,及對Takahashi[2001]所提出之歐式模型做比較,發現本文提出模型之評價結果相當不錯,誤差僅有0.83%;此外並對建華金控2002所發之ECB,探討各種複雜新奇條款對ECB價格的影響,發現市場上嚴重低估了重設條款所提高的價值,而實際市價卻十分接近僅含賣回條款的理論價格。
|
162 |
Chimiométrie appliquée à la spectroscopie de plasma induit par laser (LIBS) et à la spectroscopie terahertz / Chemometric applied to laser-induced breakdown spectroscopy (LIBS) and terahertz spectroscopyEl Haddad, Josette 13 December 2013 (has links)
L’objectif de cette thèse était d’appliquer des méthodes d’analyse multivariées au traitement des données provenant de la spectroscopie de plasma induit par laser (LIBS) et de la spectroscopie térahertz (THz) dans le but d’accroître les performances analytiques de ces techniques.Les spectres LIBS provenaient de campagnes de mesures directes sur différents sites géologiques. Une approche univariée n’a pas été envisageable à cause d’importants effets de matrices et c’est pour cela qu’on a analysé les données provenant des spectres LIBS par réseaux de neurones artificiels (ANN). Cela a permis de quantifier plusieurs éléments mineurs et majeurs dans les échantillons de sol avec un écart relatif de prédiction inférieur à 20% par rapport aux valeurs de référence, jugé acceptable pour des analyses sur site. Dans certains cas, il a cependant été nécessaire de prendre en compte plusieurs modèles ANN, d’une part pour classer les échantillons de sol en fonction d’un seuil de concentration et de la nature de leur matrice, et d’autre part pour prédire la concentration d’un analyte. Cette approche globale a été démontrée avec succès dans le cas particulier de l’analyse du plomb pour un échantillon de sol inconnu. Enfin, le développement d’un outil de traitement par ANN a fait l’objet d’un transfert industriel.Dans un second temps, nous avons traité des spectres d’absorbance terahertz. Ce spectres provenaient de mesures d’absorbance sur des mélanges ternaires de Fructose-Lactose-acide citrique liés par du polyéthylène et préparés sous forme de pastilles. Une analyse semi-quantitative a été réalisée avec succès par analyse en composantes principales (ACP). Puis les méthodes quantitatives de régression par moindres carrés partiels (PLS) et de réseaux de neurons artificiels (ANN) ont permis de prédire les concentrations de chaque constituant de l’échantillon avec une valeur d’erreur quadratique moyenne inférieure à 0.95 %. Pour chaque méthode de traitement, le choix des données d’entrée et la validation de la méthode ont été discutés en détail. / The aim of this work was the application of multivariate methods to analyze spectral data from laser-induced breakdown spectroscopy (LIBS) and terahertz (THz) spectroscopy to improve the analytical ability of these techniques.In this work, the LIBS data were derived from on-site measurements of soil samples. The common univariate approach was not efficient enough for accurate quantitative analysis and consequently artificial neural networks (ANN) were applied. This allowed quantifying several major and minor elements into soil samples with relative error of prediction lower than 20% compared to reference values. In specific cases, a single ANN model didn’t allow to successfully achieving the quantitative analysis and it was necessary to exploit a series of ANN models, either for classification purpose against a concentration threshold or a matrix type, or for quantification. This complete approach based on a series of ANN models was efficiently applied to the quantitative analysis of unknown soil samples. Based on this work, a module of data treatment by ANN was included into the software Analibs of the IVEA company. The second part of this work was focused on the data treatment of absorbance spectra in the terahertz range. The samples were pressed pellets of mixtures of three products, namely fructose, lactose and citric acid with polyethylene as binder. A very efficient semi-quantitative analysis was conducted by using principal component analysis (PCA). Then, quantitative analyses based on partial least squares regression (PLS) and ANN allowed quantifying the concentrations of each product with a root mean square error (RMSE) lower than 0.95 %. All along this work on data processing, both the selection of input data and the evaluation of each model have been studied in details.
|
163 |
Índice de não-detecção de erros grosseiros no processo de estimação de estado em sistemas elétricos de potência / Undetectability index of gross errors in power systems state estimationBenedito, Raphael Augusto de Souza 03 June 2011 (has links)
A partir de uma análise geométrica, do estimador de estado por mínimos quadrados ponderados, propõe-se, neste trabalho, um índice para classificação das medidas de acordo com as suas características de não refletirem grande parcela de seus erros nos resíduos do processo de estimação de estado, por mínimos quadrados ponderados. O índice proposto foi denominado Índice de Não-Detecção de Erros, ou apenas UI (Undetectability Index). As medidas com maiores UI são aquelas cujos erros grosseiros (EGs) são mais difíceis de serem detectados através de métodos que fazem uso da análise dos resíduos. Isto porque os erros dessas medidas são, de certa forma, \"mascarados\", isto é, não são refletidos nos resíduos das mesmas. Nesse sentido, a medida crítica é o caso limite de medidas cujos erros são mascarados, isto é, possui UI infinito e seu resíduo é igual a zero, independente de a mesma ter ou não EG. Para obtenção dos índices UI das medidas, desenvolveu-se um algoritmo simples e de fácil implementação. Tomando por base o índice UI, propõe-se, também, uma metodologia para processamento de EGs e dois algoritmos para projeto ou fortalecimento de sistemas de medição. Esses algoritmos possibilitam a obtenção de sistemas de medição confiáveis (observáveis e isentos de medidas críticas e de conjuntos críticas de medidas), de baixo custo e formados por medidas com índices UI menores que um valor pré-estabelecido. Para validar o índice UI e as suas aplicações propostas neste trabalho, realizaram-se diversas simulações computacionais nos sistemas de 14 e 30 barras do IEEE, tendo sido satisfatórios todos os resultados obtidos. / The present thesis proposes an index, called Undetectability Index (UI), to classify the measurements according to their characteristics of not reflecting their errors into the residuals of the weighted least squares state estimation process from a geometric analysis of this estimator. Gross errors in measurements with higher UIs are very difficult to be detected by methods based on the residual analysis, as the errors in those measurements are \"masked\", i.e., they are not reflected in the residuals. In this sense, critical measurements are the limit case of measurements that mask errors, that is, they have infinite UI and their residuals are always zero independently of their having or not gross errors. Based on the UI a methodology for gross error processing and two algorithms for metering system planning are also proposed in this thesis. These algorithms enable the obtaining of reliable measurement systems (observable and free from critical measurements and critical sets of measurements) with low investment and containing only measurements with UIs lower than a pre-established value. Several simulation results (with IEEE 14-bus and 30-bus systems) have validated the UI and its application.
|
164 |
Ensemble baseado em métodos de Kernel para reconhecimento biométrico multimodal / Ensemble Based on Kernel Methods for Multimodal Biometric RecognitionCosta, Daniel Moura Martins da 31 March 2016 (has links)
Com o avanço da tecnologia, as estratégias tradicionais para identificação de pessoas se tornaram mais suscetíveis a falhas, de forma a superar essas dificuldades algumas abordagens vêm sendo propostas na literatura. Dentre estas abordagens destaca-se a Biometria. O campo da Biometria abarca uma grande variedade de tecnologias usadas para identificar e verificar a identidade de uma pessoa por meio da mensuração e análise de aspectos físicos e/ou comportamentais do ser humano. Em função disso, a biometria tem um amplo campo de aplicações em sistemas que exigem uma identificação segura de seus usuários. Os sistemas biométricos mais populares são baseados em reconhecimento facial ou de impressões digitais. Entretanto, existem outros sistemas biométricos que utilizam a íris, varredura de retina, voz, geometria da mão e termogramas faciais. Nos últimos anos, o reconhecimento biométrico obteve avanços na sua confiabilidade e precisão, com algumas modalidades biométricas oferecendo bom desempenho global. No entanto, mesmo os sistemas biométricos mais avançados ainda enfrentam problemas. Recentemente, esforços têm sido realizados visando empregar diversas modalidades biométricas de forma a tornar o processo de identificação menos vulnerável a ataques. Biometria multimodal é uma abordagem relativamente nova para representação de conhecimento biométrico que visa consolidar múltiplas modalidades biométricas. A multimodalidade é baseada no conceito de que informações obtidas a partir de diferentes modalidades se complementam. Consequentemente, uma combinação adequada dessas informações pode ser mais útil que o uso de informações obtidas a partir de qualquer uma das modalidades individualmente. As principais questões envolvidas na construção de um sistema biométrico unimodal dizem respeito à definição das técnicas de extração de característica e do classificador. Já no caso de um sistema biométrico multimodal, além destas questões, é necessário definir o nível de fusão e a estratégia de fusão a ser adotada. O objetivo desta dissertação é investigar o emprego de ensemble para fusão das modalidades biométricas, considerando diferentes estratégias de fusão, lançando-se mão de técnicas avançadas de processamento de imagens (tais como transformada Wavelet, Contourlet e Curvelet) e Aprendizado de Máquina. Em especial, dar-se-á ênfase ao estudo de diferentes tipos de máquinas de aprendizado baseadas em métodos de Kernel e sua organização em arranjos de ensemble, tendo em vista a identificação biométrica baseada em face e íris. Os resultados obtidos mostraram que a abordagem proposta é capaz de projetar um sistema biométrico multimodal com taxa de reconhecimento superior as obtidas pelo sistema biométrico unimodal. / With the advancement of technology, traditional strategies for identifying people become more susceptible to failure, in order to overcome these difficulties some approaches have been proposed in the literature. Among these approaches highlights the Biometrics. The field of Biometrics encompasses a wide variety of technologies used to identify and verify the person\'s identity through the measurement and analysis of physiological and behavioural aspects of the human body. As a result, biometrics has a wide field of applications in systems that require precise identification of their users. The most popular biometric systems are based on face recognition and fingerprint matching. Furthermore, there are other biometric systems that utilize iris and retinal scan, speech, face, and hand geometry. In recent years, biometrics authentication has seen improvements in reliability and accuracy, with some of the modalities offering good performance. However, even the best biometric modality is facing problems. Recently, big efforts have been undertaken aiming to employ multiple biometric modalities in order to make the authentication process less vulnerable to attacks. Multimodal biometrics is a relatively new approach to biometrics representation that consolidate multiple biometric modalities. Multimodality is based on the concept that the information obtained from different modalities complement each other. Consequently, an appropriate combination of such information can be more useful than using information from single modalities alone. The main issues involved in building a unimodal biometric System concern the definition of the feature extraction technique and type of classifier. In the case of a multimodal biometric System, in addition to these issues, it is necessary to define the level of fusion and fusion strategy to be adopted. The aim of this dissertation is to investigate the use of committee machines to fuse multiple biometric modalities, considering different fusion strategies, taking into account advanced methods in machine learning. In particular, it will give emphasis to the analyses of different types of machine learning methods based on Kernel and its organization into arrangements committee machines, aiming biometric authentication based on face, fingerprint and iris. The results showed that the proposed approach is capable of designing a multimodal biometric System with recognition rate than those obtained by the unimodal biometrics Systems.
|
165 |
[en] LINEAR ELASTIC FRACTURE MECHANICS ANALYSIS OF FATIGUE CRACK GROWTH UNDER COMPLEX LOADING USING THE DIGITAL IMAGE CORRELATION TECHNIQUE / [pt] ANÁLISE DO CRESCIMENTO DE TRINCAS DE FADIGA PELA MECÂNICA DE FRATURA ELASTICA LINEAR SOB CARGA COMPLEXA UTILIZANDO A TÉCNICA DE CORRELAÇÃO DE IMAGENS DIGITAISJORGE GUILLERMO DIAZ RODRIGUEZ 25 January 2019 (has links)
[pt] A avaliação da propagação de trincas de fadiga inclui a identificação da direção da trinca, o conhecimento do Fator de Intensidade de Tensões (SIF) equivalente, a determinação de uma taxa de crescimento de comprimento de trinca por número de ciclos da/dN e o estabelecimento de uma regra de propagação de trinca conectando SIF e da/dN, como uma regra de tipo Paris. Quando ocorrem cargas mistas e não proporcionais, esses parâmetros ainda não são totalmente compreendidos. Esta tese trata de algumas das variáveis que influenciam a propagação de trincas sob carregamento no modo misto não proporcional. A técnica de Correlação de Imagens Digitais (DIC) foi utilizada para a aquisição de imagens de corpos de prova submetidos a carregamento proporcional e não proporcional cíclico. Dois tipos de corpos de prova foram utilizados. Primeiramente, dois corpos de prova planos foram testados; um disk compact tension (DCT, em inglês) e um compact tension modificado (C (T) em inglês). Eles foram submetidos a carregamento cíclico induzindo o modo I de abertura de trinca ou modos I e II de abertura de trinca proporcionais. Em segundo lugar, os dados DIC adquiridos anteriormente, e em outro lugar, para cinco tubos finos sujeitos a carregamento cíclico foram analisados. Os tubos finos tiveram entalhes usinados a partir dos quais as trincas por fadiga iniciaram e se propagaram. Esses cinco tubos finos foram submetidos a diferentes casos de carga proporcional e não proporcional. Um corpo de prova tipo tubo fino foi exposto a carga axial e apresentou modo de abertura de trinca tipo I. Os outros quatro foram submetidos a carregamento de torção ou carga axial-torcional mista e exibiram todos os três modos de abertura de trinca I, II e III. Os campos de deslocamento adquiridos experimentalmente com a técnica DIC foram processados para calcular independentemente o SIF para cada modo de abertura existente usando formulações de mecânica de fratura elástica linear (MFLE). Uma formulação delas utilizou dados de deslocamento de campo completos adquiridos em pequenas áreas que circundavam a ponta da trinca. Outra formulação usou dados adquiridos de um par de pontos localizados ao longo dos flancos opostos das faces da trinca. Os SIFs determinados foram usados para encontrar os SIFs equivalentes e faixas de SIF equivalentes usando o critério da tensão máxima de tração (para ambas as versões 2D e 3D de combinações dos modos I-II e modos I-II-III respectivamente) que implicitamente incluíram o ângulo de propagação de trinca. Verificou-se que a inclusão do SIF no modo III experimentalmente determinado efetivamente faz diferença nas faixas do SIF e dos SIF equivalentes estimados. A curva da/dN versus faixa do SIF equivalente foi elaborado com as taxas de crescimento de trinca medidas experimentalmente e as faixas de SIF que foram encontradas usando a suposição amplamente aceita de que as trincas cresceram na direção que maximiza a tensão de tração. Para isso, extensões do modelo de Schollmann et. al. e bem como o modelo de Erdogan-Sih, que são geralmente aplicados ao carregamento proporcional, foram usados para determinar os SIFs equivalentes e faixas de SIF equivalentes para os casos de carregamento proporcional e não proporcional. Finalmente, a segunda zona da regra de Paris (da/dN versus faixa do SIF equivalente) foi plotada para os cinco casos de carregamento nos tubos finos mostrando que eles caíram dentro de uma faixa razoavelmente fina e dispersa. / [en] Fatigue crack propagation assessment includes identifying the crack direction, knowing the equivalent Stress Intensity Factor (SIF) range, determining a crack length growth rate per number of cycles (da/dN), and establishing a crack propagation rule connecting the equivalent SIF and da/dN rate, such as a Paris type of rule. When mixed and non-proportional loading occur, those parameters are not fully understood yet. This thesis deals with some of the variables that influence crack propagation under non-proportional mixed mode loading. The Digital Image Correlation (DIC) technique was used to acquire images of test specimens subjected to cyclic proportional and non-proportional loading. Two types of specimen samples were used. Firstly, two different plate test specimens were tested; a disk compact tension (DCT), and a modified compact tension, C(T). They were subjected cyclic loading inducing crack opening mode I or proportional crack opening modes I and II. Secondly, the previously and elsewhere acquired DIC data for five thin tubes subject to cyclic loading were analyzed. The thin tubes had pre-fabricated slit-notches from which fatigue cracks initiated and propagated. Those five thin tubes were subjected to different cases of proportional and non- proportional loading. One tube specimen was exposed to axial loading and presented mode I crack opening. The other four were subjected to torsion loading or mixed axial-torsional loading and exhibited all three I, II and III crack-opening modes. The experimentally acquired DIC displacement fields were processed to independently calculate SIF for each existing opening mode using linear elastic fracture mechanics (LEFM) formulations. One formulation used full field displacement data acquired in small areas that surrounded the crack tip. Another formulation used data acquired from a pair of points located along the opposite crack flanks. The determined SIFs were used to find equivalent SIFs and equivalent SIF ranges using the maximum tensile stress criterion (for both 2D and 3D versions of combinations of modes I-II and modes I-II-III respectively) which implicitly included the crack propagation angle. It was found that the inclusion of the experimentally determined mode III SIF indeed makes a difference in the determined equivalent SIF and equivalent SIF ranges. A da/dN versus equivalent SIF ranges plot was drafted with the experimentally measured crack growth rates and the SIF ranges that were found by using the widely accepted assumption that the cracks grew in the direction that maximizes the tensile stress. For this, extensions of the Schollmann et. al. model as well as of the Erdogan-Sih model, which are generally applied to proportional loading, were used to determine equivalent SIFs and equivalent SIF ranges for the cases of proportional and non-proportional loading. Finally, the second stage of the Paris rule (da/dN versus SIF range) was plotted for the five thin tubes loading cases showing that they fell inside a reasonably thin scattered band.
|
166 |
Índice de não-detecção de erros grosseiros no processo de estimação de estado em sistemas elétricos de potência / Undetectability index of gross errors in power systems state estimationRaphael Augusto de Souza Benedito 03 June 2011 (has links)
A partir de uma análise geométrica, do estimador de estado por mínimos quadrados ponderados, propõe-se, neste trabalho, um índice para classificação das medidas de acordo com as suas características de não refletirem grande parcela de seus erros nos resíduos do processo de estimação de estado, por mínimos quadrados ponderados. O índice proposto foi denominado Índice de Não-Detecção de Erros, ou apenas UI (Undetectability Index). As medidas com maiores UI são aquelas cujos erros grosseiros (EGs) são mais difíceis de serem detectados através de métodos que fazem uso da análise dos resíduos. Isto porque os erros dessas medidas são, de certa forma, \"mascarados\", isto é, não são refletidos nos resíduos das mesmas. Nesse sentido, a medida crítica é o caso limite de medidas cujos erros são mascarados, isto é, possui UI infinito e seu resíduo é igual a zero, independente de a mesma ter ou não EG. Para obtenção dos índices UI das medidas, desenvolveu-se um algoritmo simples e de fácil implementação. Tomando por base o índice UI, propõe-se, também, uma metodologia para processamento de EGs e dois algoritmos para projeto ou fortalecimento de sistemas de medição. Esses algoritmos possibilitam a obtenção de sistemas de medição confiáveis (observáveis e isentos de medidas críticas e de conjuntos críticas de medidas), de baixo custo e formados por medidas com índices UI menores que um valor pré-estabelecido. Para validar o índice UI e as suas aplicações propostas neste trabalho, realizaram-se diversas simulações computacionais nos sistemas de 14 e 30 barras do IEEE, tendo sido satisfatórios todos os resultados obtidos. / The present thesis proposes an index, called Undetectability Index (UI), to classify the measurements according to their characteristics of not reflecting their errors into the residuals of the weighted least squares state estimation process from a geometric analysis of this estimator. Gross errors in measurements with higher UIs are very difficult to be detected by methods based on the residual analysis, as the errors in those measurements are \"masked\", i.e., they are not reflected in the residuals. In this sense, critical measurements are the limit case of measurements that mask errors, that is, they have infinite UI and their residuals are always zero independently of their having or not gross errors. Based on the UI a methodology for gross error processing and two algorithms for metering system planning are also proposed in this thesis. These algorithms enable the obtaining of reliable measurement systems (observable and free from critical measurements and critical sets of measurements) with low investment and containing only measurements with UIs lower than a pre-established value. Several simulation results (with IEEE 14-bus and 30-bus systems) have validated the UI and its application.
|
167 |
Ensemble baseado em métodos de Kernel para reconhecimento biométrico multimodal / Ensemble Based on Kernel Methods for Multimodal Biometric RecognitionDaniel Moura Martins da Costa 31 March 2016 (has links)
Com o avanço da tecnologia, as estratégias tradicionais para identificação de pessoas se tornaram mais suscetíveis a falhas, de forma a superar essas dificuldades algumas abordagens vêm sendo propostas na literatura. Dentre estas abordagens destaca-se a Biometria. O campo da Biometria abarca uma grande variedade de tecnologias usadas para identificar e verificar a identidade de uma pessoa por meio da mensuração e análise de aspectos físicos e/ou comportamentais do ser humano. Em função disso, a biometria tem um amplo campo de aplicações em sistemas que exigem uma identificação segura de seus usuários. Os sistemas biométricos mais populares são baseados em reconhecimento facial ou de impressões digitais. Entretanto, existem outros sistemas biométricos que utilizam a íris, varredura de retina, voz, geometria da mão e termogramas faciais. Nos últimos anos, o reconhecimento biométrico obteve avanços na sua confiabilidade e precisão, com algumas modalidades biométricas oferecendo bom desempenho global. No entanto, mesmo os sistemas biométricos mais avançados ainda enfrentam problemas. Recentemente, esforços têm sido realizados visando empregar diversas modalidades biométricas de forma a tornar o processo de identificação menos vulnerável a ataques. Biometria multimodal é uma abordagem relativamente nova para representação de conhecimento biométrico que visa consolidar múltiplas modalidades biométricas. A multimodalidade é baseada no conceito de que informações obtidas a partir de diferentes modalidades se complementam. Consequentemente, uma combinação adequada dessas informações pode ser mais útil que o uso de informações obtidas a partir de qualquer uma das modalidades individualmente. As principais questões envolvidas na construção de um sistema biométrico unimodal dizem respeito à definição das técnicas de extração de característica e do classificador. Já no caso de um sistema biométrico multimodal, além destas questões, é necessário definir o nível de fusão e a estratégia de fusão a ser adotada. O objetivo desta dissertação é investigar o emprego de ensemble para fusão das modalidades biométricas, considerando diferentes estratégias de fusão, lançando-se mão de técnicas avançadas de processamento de imagens (tais como transformada Wavelet, Contourlet e Curvelet) e Aprendizado de Máquina. Em especial, dar-se-á ênfase ao estudo de diferentes tipos de máquinas de aprendizado baseadas em métodos de Kernel e sua organização em arranjos de ensemble, tendo em vista a identificação biométrica baseada em face e íris. Os resultados obtidos mostraram que a abordagem proposta é capaz de projetar um sistema biométrico multimodal com taxa de reconhecimento superior as obtidas pelo sistema biométrico unimodal. / With the advancement of technology, traditional strategies for identifying people become more susceptible to failure, in order to overcome these difficulties some approaches have been proposed in the literature. Among these approaches highlights the Biometrics. The field of Biometrics encompasses a wide variety of technologies used to identify and verify the person\'s identity through the measurement and analysis of physiological and behavioural aspects of the human body. As a result, biometrics has a wide field of applications in systems that require precise identification of their users. The most popular biometric systems are based on face recognition and fingerprint matching. Furthermore, there are other biometric systems that utilize iris and retinal scan, speech, face, and hand geometry. In recent years, biometrics authentication has seen improvements in reliability and accuracy, with some of the modalities offering good performance. However, even the best biometric modality is facing problems. Recently, big efforts have been undertaken aiming to employ multiple biometric modalities in order to make the authentication process less vulnerable to attacks. Multimodal biometrics is a relatively new approach to biometrics representation that consolidate multiple biometric modalities. Multimodality is based on the concept that the information obtained from different modalities complement each other. Consequently, an appropriate combination of such information can be more useful than using information from single modalities alone. The main issues involved in building a unimodal biometric System concern the definition of the feature extraction technique and type of classifier. In the case of a multimodal biometric System, in addition to these issues, it is necessary to define the level of fusion and fusion strategy to be adopted. The aim of this dissertation is to investigate the use of committee machines to fuse multiple biometric modalities, considering different fusion strategies, taking into account advanced methods in machine learning. In particular, it will give emphasis to the analyses of different types of machine learning methods based on Kernel and its organization into arrangements committee machines, aiming biometric authentication based on face, fingerprint and iris. The results showed that the proposed approach is capable of designing a multimodal biometric System with recognition rate than those obtained by the unimodal biometrics Systems.
|
168 |
Development and validation of an integrated model for evaluating e-service quality, usability and user experience (e-SQUUX) of Web-based applications in the context of a University web portalSsemugabi, Samuel 01 1900 (has links)
Text in English / Developments in Internet technology and pervasive computing over the past two and half decades have resulted in a variety of Web-based applications (WBAs) that provide products and services to online users or customers. The Internet is used not only to transfer information via the web but is increasingly used to provide electronic services including business transactions, information-delivery and social networking, as well as e-government, e-health and e-learning. For such organisations, e-service quality, usability and user experience are considered to be critical determinants of their products’ or services’ success. Many studies to model these three concepts separately have been undertaken as part of broader studies of software quality or service quality modelling. However, to the current researcher’s knowledge, none of the studies have focussed on proposing an evaluation model that integrates and combines the three of them. This research is an effort to fill that gap.
The primary purpose of this mixed-methods research was to develop a conceptual integrated model for evaluating e-service quality, usability and user experience (e-SQUUX) of WBAs and then contextualise it to evaluation of a University web portal (UWP). This was undertaken using an exploratory sequential research design. During a qualitative phase, an extensive extensive systematic literature review of 264 relevant sources relating to dimensions of e-service quality, usability and user experience, was undertaken to derive an integrated conceptual e-service quality, usability and user experience (e-SQUUX) Model for evaluating WBAs. The model was then empirically refined through a sequential series of validations, thus developing various versions of the e-SQUUX Model. First, it was content validated by a set of four expert reviewers. Second, during the quantitative phase, in the context of a University web portal, a questionnaire survey was conducted that included a comprehensive pilot study with 29 partipants, prior to the main survey. The main survey data from 174 particiapants was used to determine a validated model, using Exploratory factor analysis (EFA), followed by producing a structural model, using partial least square – structural equation modelling (PLS-SEM). This version consisted of the components of the final e-SQUUX Model. Consequently, the research enriches the body of knowledge on IS and HCI by providing the e-SQUUX Model as an evaluation tool. For designers, developers and managers of UWPs, the model serves as a customisable set of evaluation criteria and also provides specific recommendations for design.
In line with the Exploratory sequential design of mixed methods research, the findings of the qualitative work in this research influenced the subsequent quantitative study, since the potential Likert-scale questionnaire items were derived from the definitions and meanings of the components that emanated from the qualitative phase of the study. Consequently, this research is an exemplar for developing an integrated evaluation model for specific facets or domains, and of its application in a particular context, in this case, a University web portal.
Keywords: e-service quality, usability, user experience, evaluation model, integrated model, exploratory factor analysis, partial least square – structural equation modelling (PLS-SEM), mixed methods research, Exploratory sequential design, quantitative study, qualitative study, validation, Web-based applications, University web portal / Information System / Ph D. (Information Systems)
|
169 |
On the theory of records and applicationsMbah, Alfred Kubong 01 June 2007 (has links)
No description available.
|
170 |
基因晶片實驗其樣本數之研究 / Sample Size Determination in a Microarray Experiment黃東溪, Huang, Dong-Si Unknown Date (has links)
微陣列晶片是發展及應用較為成熟的生物晶片技術。由於微陣列實驗程序複雜,故資料常包含多種不同來源的實驗誤差,為了適當的區分實驗中來自處理、晶片及基因的效應,我們提出混合效應變異數分析模型來調整系統誤差。針對各基因在不同實驗環境的差異性假設檢定問題,利用最小平方法推導出點估計以及對應的檢定統計量。本研究介紹多重檢定問題中的族型一誤差,並證明在此模型下,Sidak調整法為適當的多重檢定方法。在給定族型一誤差率的顯著水準,利用檢定力的公式,運算出在預設檢定力的最低水準下所需最小樣本(晶片)數。最後我們透過電腦模擬,以蒙地卡羅法來估計檢定力與族型一誤差率,由模擬結果發現,採用此最小樣本數結果,其檢定力可達到預期的水準以上,並且其族型一誤差率皆適當地控制在顯著水準以內。
|
Page generated in 0.1028 seconds