• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 15
  • 8
  • 5
  • 5
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 51
  • 11
  • 11
  • 9
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

The use of evidential support logic and a new similarity measurement for fuzzy sets to model the decision making process

Tocatlidou, Athena January 1996 (has links)
No description available.
2

Evidential Reasoning for Multimodal Fusion in Human Computer Interaction

Reddy, Bakkama Srinath January 2007 (has links)
Fusion of information from multiple modalities in Human Computer Interfaces (HCI) has gained a lot of attention in recent years, and has far reaching implications in many areas of human-machine interaction. However, a major limitation of current HCI fusion systems is that the fusion process tends to ignore the semantic nature of modalities, which may reinforce, complement or contradict each other over time. Also, most systems are not robust in representing the ambiguity inherent in human gestures. In this work, we investigate an evidential reasoning based approach for intelligent multimodal fusion, and apply this algorithm to a proposed multimodal system consisting of a Hand Gesture sensor and a Brain Computing Interface (BCI). There are three major contributions of this work to the area of human computer interaction. First, we propose an algorithm for reconstruction of the 3D hand pose given a 2D input video. Second, we develop a BCI using Steady State Visually Evoked Potentials, and show how a multimodal system consisting of the two sensors can improve the efficiency and the complexity of the system, while retaining the same levels of accuracy. Finally, we propose an semantic fusion algorithm based on Transferable Belief Models, which can successfully fuse information from these two sensors, to form meaningful concepts and resolve ambiguity. We also analyze this system for robustness under various operating scenarios.
3

Evidential Reasoning for Multimodal Fusion in Human Computer Interaction

Reddy, Bakkama Srinath January 2007 (has links)
Fusion of information from multiple modalities in Human Computer Interfaces (HCI) has gained a lot of attention in recent years, and has far reaching implications in many areas of human-machine interaction. However, a major limitation of current HCI fusion systems is that the fusion process tends to ignore the semantic nature of modalities, which may reinforce, complement or contradict each other over time. Also, most systems are not robust in representing the ambiguity inherent in human gestures. In this work, we investigate an evidential reasoning based approach for intelligent multimodal fusion, and apply this algorithm to a proposed multimodal system consisting of a Hand Gesture sensor and a Brain Computing Interface (BCI). There are three major contributions of this work to the area of human computer interaction. First, we propose an algorithm for reconstruction of the 3D hand pose given a 2D input video. Second, we develop a BCI using Steady State Visually Evoked Potentials, and show how a multimodal system consisting of the two sensors can improve the efficiency and the complexity of the system, while retaining the same levels of accuracy. Finally, we propose an semantic fusion algorithm based on Transferable Belief Models, which can successfully fuse information from these two sensors, to form meaningful concepts and resolve ambiguity. We also analyze this system for robustness under various operating scenarios.
4

Väsentlighetsbedömning - hur sker det i praktiken? : En studie om hur revisorerna bedömer väsentligheten vid en revision.

Mäki, Lisa, Rautila, Hanna January 2007 (has links)
<p>Revision innebär en granskning av årsredovisningen, bokföringen och förvaltningen. Revisionen delas in i fyra steg vilka går ut på att erhålla och acceptera nya klienter, planera revisionen, utföra granskningen samt slutsatser och rapportering. Det viktigaste steget är planeringen där väsentlighet och risk är centrala begrepp. Väsentlighet är en förutsättning vid granskningen och avgör vad revisionen ska innehålla. Det finns både kvantitativa och kvalitativa faktorer att ta hänsyn till vid en bedömning av väsentligheten. Dessa är exempelvis revisionsprogram och standarder samt erfarenhet och personliga egenskaper. Som hjälpmedel för denna bedömning används ett väsentlighetsbelopp som skiljer det väsentliga från det oväsentliga. Det kan vara svårt med väsentlighetsbedömningar eftersom det är diffust samt att det inte finns någon utförlig vägledning. Hur utförs det egentligen i praktiken? Detta leder oss till forskningsfrågan. Hur bedömer revisorerna väsentligheten vid en revision?</p><p>Vårt syfte med uppsatsen är att förstå hur revisorer bedömer väsentligheten vid en revision. Vi vill dels ta reda vad de grundar sin bedömning på och dels utreda hur de kommer fram till väsentlighetsbeloppet. Utifrån detta har vi som delsyfte att jämföra olika stora revisionsbyråer för att se om och i så fall vilka skillnader det finns i väsentlighetsbedömningen.</p><p>Uppsatsen grundas på litteratur om revision och revisionsprocessen. Genom dessa kommer vi in på väsentlighet och risk. Detta följs av mer ingående litteratur om väsentlighet, väsentlighetsbedömningen samt kvantitativa och kvalitativa faktorer som är viktiga för bedömningen. Vidare diskuteras väsentlighetsbeloppet och dess olika baser samt skillnader i en väsentlighetsbedömning.</p><p>Vi har intervjuat sex personer vid tre stora och tre små revisionsbyråer. Således har vi använt oss av en kvalitativ metod. Vi har använt litteraturen som ett hjälpmedel att formulera våra intervjufrågor och case. Respondenternas diskussioner har presenterats i en empiridel med en tillhörande analys av respektive revisor. Därefter har revisorernas uppfattningar jämförts i en mellanfallsanalys.</p><p>Revisorerna grundar sin väsentlighetsbedömning på både kvalitativa och kvantitativa faktorer där vissa revisorer är mer kvalitativa och andra mer kvantitativa. De främsta kvalitativa aspekterna är erfarenhet, branschkunskap, kännedom om ägarna, känsla och personligt omdöme. Viktiga kvantitativa aspekterna är revisionsprogram, disciplinärenden och utbildning. Vidare beräknas väsentlighetsbeloppet med olika baser som underlag. Valet av bas grundar sig bland annat på erfarenhet, företagets verksamhet samt på hur stabil resultatutvecklingen är. De mest vanliga baserna är företagets resultat, eget kapital, balansomslutning och omsättning. Revisionsprogrammen som revisorn använder sig av, för att bedöma väsentligheten, ger förslag på ett väsentlighetsbelopp. Detta använder revisorerna som vägledning vilket dem kan ändra själva utifrån vad de anser är lämpligt. Slutligen ser vi större skillnader revisorer emellan än mellan olika stora revisionsbyråer. Väsentlighetsbedömning handlar därmed mer om personlig bedömning. Således uppfattar vi att det är mer kvalitativt än kvantitativt.</p>
5

Väsentlighetsbedömning - hur sker det i praktiken? : En studie om hur revisorerna bedömer väsentligheten vid en revision.

Mäki, Lisa, Rautila, Hanna January 2007 (has links)
Revision innebär en granskning av årsredovisningen, bokföringen och förvaltningen. Revisionen delas in i fyra steg vilka går ut på att erhålla och acceptera nya klienter, planera revisionen, utföra granskningen samt slutsatser och rapportering. Det viktigaste steget är planeringen där väsentlighet och risk är centrala begrepp. Väsentlighet är en förutsättning vid granskningen och avgör vad revisionen ska innehålla. Det finns både kvantitativa och kvalitativa faktorer att ta hänsyn till vid en bedömning av väsentligheten. Dessa är exempelvis revisionsprogram och standarder samt erfarenhet och personliga egenskaper. Som hjälpmedel för denna bedömning används ett väsentlighetsbelopp som skiljer det väsentliga från det oväsentliga. Det kan vara svårt med väsentlighetsbedömningar eftersom det är diffust samt att det inte finns någon utförlig vägledning. Hur utförs det egentligen i praktiken? Detta leder oss till forskningsfrågan. Hur bedömer revisorerna väsentligheten vid en revision? Vårt syfte med uppsatsen är att förstå hur revisorer bedömer väsentligheten vid en revision. Vi vill dels ta reda vad de grundar sin bedömning på och dels utreda hur de kommer fram till väsentlighetsbeloppet. Utifrån detta har vi som delsyfte att jämföra olika stora revisionsbyråer för att se om och i så fall vilka skillnader det finns i väsentlighetsbedömningen. Uppsatsen grundas på litteratur om revision och revisionsprocessen. Genom dessa kommer vi in på väsentlighet och risk. Detta följs av mer ingående litteratur om väsentlighet, väsentlighetsbedömningen samt kvantitativa och kvalitativa faktorer som är viktiga för bedömningen. Vidare diskuteras väsentlighetsbeloppet och dess olika baser samt skillnader i en väsentlighetsbedömning. Vi har intervjuat sex personer vid tre stora och tre små revisionsbyråer. Således har vi använt oss av en kvalitativ metod. Vi har använt litteraturen som ett hjälpmedel att formulera våra intervjufrågor och case. Respondenternas diskussioner har presenterats i en empiridel med en tillhörande analys av respektive revisor. Därefter har revisorernas uppfattningar jämförts i en mellanfallsanalys. Revisorerna grundar sin väsentlighetsbedömning på både kvalitativa och kvantitativa faktorer där vissa revisorer är mer kvalitativa och andra mer kvantitativa. De främsta kvalitativa aspekterna är erfarenhet, branschkunskap, kännedom om ägarna, känsla och personligt omdöme. Viktiga kvantitativa aspekterna är revisionsprogram, disciplinärenden och utbildning. Vidare beräknas väsentlighetsbeloppet med olika baser som underlag. Valet av bas grundar sig bland annat på erfarenhet, företagets verksamhet samt på hur stabil resultatutvecklingen är. De mest vanliga baserna är företagets resultat, eget kapital, balansomslutning och omsättning. Revisionsprogrammen som revisorn använder sig av, för att bedöma väsentligheten, ger förslag på ett väsentlighetsbelopp. Detta använder revisorerna som vägledning vilket dem kan ändra själva utifrån vad de anser är lämpligt. Slutligen ser vi större skillnader revisorer emellan än mellan olika stora revisionsbyråer. Väsentlighetsbedömning handlar därmed mer om personlig bedömning. Således uppfattar vi att det är mer kvalitativt än kvantitativt.
6

Scalable Clustering Using the Dempster-Shafer Theory of Evidence

Chakeri, Alireza 27 October 2016 (has links)
Clustering large data sets has become very important as the amount of available unlabeled data increases. Single Pass Fuzzy C-Means (SPFCM) is useful when memory is too limited to load the whole data set. The main idea is to divide dataset into several chunks and to apply fuzzy c-means (FCM) to each chunk. SPFCM uses the weighted cluster centers of the previous chunk in the next data chunks. However, when the number of chunks is increased, the algorithm shows sensitivity to the order in which the data is processed. Hence, we improved SPFCM by recognizing boundary and noisy data in each chunk and using it to influence clustering in the next chunks. The proposed approach transfers the boundary and noisy data as well as the weighted cluster centers to the next chunks. We show that our proposed approach is significantly less sensitive to the order in which the data is loaded in each chunk.
7

A Framework to Handle Uncertainties of Machine Learning Models in Compliance with ISO 26262

Vasudevan, Vinod, Abdullatif, Amr R.A., Kabir, Sohag, Campean, Felician 10 December 2021 (has links)
Yes / Assuring safety and thereby certifying is a key challenge of many kinds of Machine Learning (ML) Models. ML is one of the most widely used technological solutions to automate complex tasks such as autonomous driving, traffic sign recognition, lane keep assist etc. The application of ML is making a significant contributions in the automotive industry, it introduces concerns related to the safety and security of these systems. ML models should be robust and reliable throughout and prove their trustworthiness in all use cases associated with vehicle operation. Proving confidence in the safety and security of ML-based systems and there by giving assurance to regulators, the certification authorities, and other stakeholders is an important task. This paper proposes a framework to handle uncertainties of ML model to improve the safety level and thereby certify the ML Models in the automotive industry.
8

Evidential Externalism

Fratantonio, Giada January 2018 (has links)
It is widely accepted, amongst epistemologists, that evidence plays an important role in our epistemic life. Crucially, there is no agreement on what evidence is. Following Silins, we can cash out the disagreement around the notion of evidence in terms of the opposition between Evidential Internalism and Evidential Externalism (Silins, 2005). Evidential internalists claim that evidence supervenes on one's non-factive mental states, such as, beliefs, impressions (BonJour, 1999, Audi, 2001). Evidential Externalists deny that. In this Thesis, first, I contrastively assess the plausibility of two prominent contemporary externalist theories: Duncan Pritchard's Epistemological Disjunctivism, the thesis on which one's evidence in perceptual cases is truth-entailing and reflectively accessible (Pritchard, 2012), and Timothy Williamson's E=K, the thesis on which one's evidence is all and only the propositions one knows (Williamson, 2000). Second, I develop a novel externalist account of evidence that I call Ecumenical Evidentialism. I show how Ecumenical Evidentialism is able to bring together some of the benefits of both Pritchard's Disjunctivism and Williamson's E=K. This Thesis is structured into three sections, each of which addresses the following three questions respectively: Does the Access Problem represent a real threat to Evidential Externalism? Is Evidential Externalism committed to a sceptical variety of Infallibilism? How does Evidential Externalism understand the relation between evidence and epistemic justification? I argue that neither Epistemological Disjunctivism nor E=K are fully satisfying Externalist accounts of evidence. On one hand, I argue that Disjunctivism captures the orthodox intuition on which justification is a matter of being evidence-responsive, but it does so on pain of facing the so-called Access Problem. On the other hand, by rejecting any strong accessibility thesis, Williamson's E=K is better positioned to resist both the Access Problem as well as the Infallibility Problem, but it does not vindicate the orthodox intuition on which justification is a matter of being evidence-responsive. Finally, I show that, while retaining the main commitments of Williamson's theory of evidence, such as, E=K, my Ecumenical Evidentialism is able to capture the orthodox responsiveness intuition about epistemic justification.
9

Real-time uncertainty estimation for deep learning / Realtidsosäkerhetsuppskattning för djupinlärning

Dagur Guðmundsson, Árni January 2023 (has links)
Modern deep neural networks do not produce well calibrated estimates of their own uncertainty, unless specific uncertainty estimation techniques are applied. Common uncertainty estimation techniques such as Deep Ensembles and Monte Carlo Dropout necessitate multiple forward pass evaluations for each input sample, making them too slow for real-time use. For real-time use, techniques which require only a single-forward pass are desired. Evidential Deep Learning (EDL), and Multiple-Input Multiple-Output (MIMO) networks are prior art in the space of real-time uncertainty estimation. This work introduces EDL-MIMO, a novel real-time uncertainty estimation method which combines the two. The core of this thesis is dedicated to comparing the quality of this new method to the pre-existing baselines of EDL and MIMO alone. / De neurala nätverk vi har idag har svårigheter med att bedöma sin egen osäkerhet utan särskilda metoder. Metoder som Deep Ensembles och Monte Carlo Dropout kräver flera beräkningar för varje indata, vilket gör dem för långsamma i realtid. För realtidstillämpning behövs metoder som endast kräver en beräkning. Det finns redan vetenskapliga artiklar om osäkerhetsmetoder som Evidential Deep Learning (EDL), och Multiple-Input Multiple-Output (MIMO) networks. Denna uppsats introducerar en ny metod som kombinerar båda. Fokus ligger på att jämföra kvaliteten på denna nya metod med EDL och MIMO när de används ensamma / Djúptauganet nútímans eiga erfitt með að meta sína eigin óvissu, án þess að sérstakar óvissumatsaðferðir séu notaðar. Algengar óvissumatsaðferðir líkt og Deep Ensembles, og Monte Carlo Dropout, krefjast þess að djúptauganetið sé reiknað oftar en einu sinni fyrir hvert inntak, sem gerir þessar aðferðir of hægar fyrir rauntímanotkun. Fyrir rauntímanotkun er leitast eftir aðferðum sem krefjast bara einn reikning. Evidential Deep Learning (EDL), og Multiple-Input Multiple-Output (MIMO) networks eru óvissumatsaðferðir sem hafa verið birtar í fyrri greinum. Þessi ritgerð kynnir í fyrsta sinn EDL-MIMO, nýja óvissumatsaðferð sem blandar þeim báðum saman. Kjarni þessarar ritgerðar snýst um að bera saman gæði þessarar nýju aðferðar í samanburð við að nota EDL eða MIMO einar og sér.
10

Modeling and Querying Evidential Databases / Modélisation et exploitation des bases de données évidentielles

Bousnina, Fatma Ezzahra 11 June 2019 (has links)
La théorie des fonctions des croyances offre des outils puissants pour modéliser et traiter les informations imparfaites. En effet, cette théorie peut représenter l'incertitude,l'imprécision et l'ignorance. Dans ce contexte, les données sont stockées dans des bases de données spécifiques qu'on appelle les bases de données crédibilistes. Une base de donnée crédibiliste a deux niveaux d'incertitudes: (i) l'incertitude au niveau des attributs qui se manifeste à travers des degrés de véracité sur les hypothèses des attributs; (ii) l'incertitude au niveau des tuples représentée par des intervalles de confiance sur l'existence des tuples au sein de la table en question. D'autre part, la base de donnée crédibiliste peut être modélisée sous deux formes: (i) la forme compacte caractérisée par un ensemble d'attributs et un ensemble de tuples; (ii) la forme des mondes possibles représentée par un ensemble de base de données candidates où chaque base candidate est une représentation possible de la base de donnée compacte. Interroger la représentation des mondes possibles est une étape fondamentale pour valider les méthodes d'interrogation sur la base compacte crédibiliste. En effet, un modèle de base de donnée est dit système fort si le résultat de l'interrogation de sa représentation compacte est équivalent au résultat de l'interrogation de sa représentation des mondes possibles.Cette thèse est une étude sur les fondements des bases de données crédibilistes. Les contributions sont résumées comme suit:(i) La modélisation et l'interrogation de la base crédibiliste (EDB): Nous mettons en pratique le modèle compacte de la base de données (EDB) en proposant une implémentation objet-relationnelle, ce qui permet d'introduire l'interrogation de ce modèle avec les opérateurs relationnels. D'autres part, nous présentons le formalisme, les algorithmes et les expérimentations d'autres types de requêtes :les top-k évidentiel et le skyline évidentiel que nous appliquons sur des données réelles extraites de la plateforme Tripadvisor.(ii) La modélisation de la base de données sous sa forme des mondes possibles: Nous modélisons la forme de mondes possibles de la base de données (EDB) en traitant les deux niveaux d'incertitudes (niveau attributs et niveau tuples).(iii) La modélisation et l'interrogation de la base de données crédibiliste (ECD): Après avoir prouvé que le modèle des bases de données (ED B) n'est pas un système de représentation fort, nous développons le modèle de la base de données crédibiliste conditionnelle nommée (ECD). Nous présentons le formalisme de l’interrogation sur les deux formes (compacte et mondes possibles) de la base de données (ECD). Finalement, nous discutons les résultats de ces méthodes d'interrogation et les spécificités du modèle (ECD). / The theory of belief functions (a.k.a, the Evidence Theory) offers powerful tools to mode! and handle imperfect pieces of information. Thus, it provides an adequate framework able to represent conjointly uncertainty, imprecision and ignorance. In this context, data are stored in a specific database model called evidential databases. An evidential database includes two levels of uncertainty: (i) the attribute level uncertainty expressed via some degrees of truthfulness about the hypotheses in attributes; (ii) the tuple level uncertainty expressed through an interval of confidence about the existenceof the tuple in the table. An evidential database itself can be modeled in two forms:(i) the compact form represented as a set of attributes and a set of tuples; (ii) the possible worlds' form represented as a set of candidate databases where each candidate is a possible representation of the imperfect compact database. Querying the possible worlds' form is a fundamental step in order to check the querying methods over the compact one. In fact, a model is said to be a strong representation system when results of querying its compact form are equivalent to results of querying its non compact form.This thesis focuses on foundations of evidential databases in both modeling and querying. The main contributions are summarized as follows:(i) Modeling and querying the compact evidential database (EDB): We implement the compact evidential database (EDB) using the object-relational design which allows to introduce the querying of the database model under relational operators. We also propose the formalism, the algorithms and the experiments of other typesof queries: the evidential top-k and the evidential skyline that we apply over a real dataset extracted from TripAdvisor.(ii) Modeling the possible worlds' form of (EDB): We model the possible worlds' form of the evidential database (EDB) by treating both levels of uncertainty (the tuple leve! and the attribute level).(iii) Modeling and querying the evidential conditional database (ECD): After provingt hat the evidential database (EDB) is not a strong representation system, we develop a new evidential conditional database model named (ECD). Thus, we present the formalism of querying the compact and the possible worlds' forms of the (ECD) to evaluate the querying methods under relational operators. Finally, we discuss the results of these querying methods and the specificities of the (ECD)model.

Page generated in 0.059 seconds