• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39627
  • 34542
  • 30041
  • 18393
  • 5319
  • 5186
  • 3190
  • 2606
  • 1205
  • 644
  • 588
  • 559
  • 532
  • 470
  • Tagged with
  • 5989
  • 5566
  • 5344
  • 5302
  • 5213
  • 5204
  • 4978
  • 4925
  • 4754
  • 4607
  • 4107
  • 4043
  • 4021
  • 3977
  • 3900
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
101

User Importance Modelling in Social Information Systems An Interaction Based Approach

Aggarwal, Anupam 2009 December 1900 (has links)
The past few years have seen the rapid rise of all things “social” on the web from the growth of online social networks like Facebook, to real-time communication services like Twitter, to user-contributed content sites like Flickr and YouTube, to content aggregators like Digg. Beyond these popular Web 2.0 successes, the emer- gence of Social Information Systems is promising to fundamentally transform what information we encounter and digest, how businesses market and engage with their customers, how universities educate and train a new generation of researchers, how the government investigates terror networks, and even how political regimes interact with their citizenry. Users have moved from being passive consumers of information (via querying or browsing) to becoming active participants in the creation of data and knowledge artifacts, actively sorting, ranking, and annotating other users and artifacts. This fundamental shift to social systems places new demands on providing de- pendable capabilities for knowing whom to trust and what information to trust, given the open and unregulated nature of these systems. The emergence of large-scale user participation in Social Information Systems suggests the need for the development of user-centric approaches to information quality. As a step in this direction this research proposes an interaction-based approach for modeling the notion of user im- portance. The interaction-based model is centered around the uniquely social aspects of these systems, by treating who communicates with whom (an interaction) as a core building block in evaluating user importance. We first study the interaction characteristics of Twitter, one of the most buzzworthy recent Social Web successes, examining the usage statistics, growth patterns, and user interaction behavior of over 2 million participants on Twitter. We believe this is the first large-scale study of dynamic interactions on a real-world Social Information System. Based on the anal- ysis of the interaction structure of Twitter, the second contribution of this thesis research is an exploration of approaches for measuring user importance. As part of this exploration, we study several different approaches that build on the inherent interaction-based framework of Social Information Systems. We explore this model through an experimental study over an interaction graph consisting of 800,000 nodes and about 1.9 million interaction edges. The user importance modeling approaches that we present can be applied to any Social Information System in which interactions between users can be monitored.
102

Harmonic measure on random fractals /

Beliaev, Dmitri. January 2005 (has links)
Diss. (sammanfattning) Stockholm : Tekniska högskolan, 2005. / Har av misstag fått samma numrering som Martin Ryner's examensarbete.
103

Provably Secure Pseudo-Random Generators

Agerblad, Josefin, Andersen, Martin January 2013 (has links)
This report is a literary study on provably secure pseudo-random generators. In the report we explain what provably secure pseudo-random generators are and what they are most commonly used for. We also discuss one-way functions which are closely related to our subject. Furthermore, two well-known generators are described and compared, one generator by Blum and Micali, and one by Blum, Blum and Shub. What we have concluded is that the x 2 mod N generator by Blum, Blum and Shub seems to be the better one concerning speed, security and application areas. You will also be able to read about how the Blum-Blum-Shub generator can be implemented and why we believe that implementation is suitable. / Den här rapporten är en litteraturstudie om bevisbart säkra pseudo-slumpmässiga generatorer. I rapporten förklarar vi vad bevisbart säkra pseudo-slumpmässiga generatorer är och vad de vanligtvis används till. Vi tar dessutom upp envägsfunktioner som är starkt kopplat till vårt ämne. Vidare beskrivs och jämförs två kända sådana generatorer, en generator av Blum och Micali och en generator av Blum, Blum och Shub. Den slutsats som vi kommit fram till är att x 2 mod N generatorn av Blum, Blum och Shub verkar vara den bättre utav dem vad gäller hastighet, säkerhet och applikationsområden. Ni kommer även kunna läsa om hur en sådan generator kan implementeras och vi förklarar varför den presenterade koden är bra.
104

Post-Pruning of Random Forests

Diyar, Jamal January 2018 (has links)
Abstract  Context. In machine learning, ensemble methods continue to receive increased attention. Since machine learning approaches that generate a single classifier or predictor have shown limited capabilities in some contexts, ensemble methods are used to yield better predictive performance. One of the most interesting and effective ensemble algorithms that have been introduced in recent years is Random Forests. A common approach to ensure that Random Forests can achieve a high predictive accuracy is to use a large number of trees. If the predictive accuracy is to be increased with a higher number of trees, this will result in a more complex model, which may be more difficult to interpret or analyse. In addition, the generation of an increased number of trees results in higher computational power and memory requirements.  Objectives. This thesis explores automatic simplification of Random Forest models via post-pruning as a means to reduce the size of the model and increase interpretability while retaining or increasing predictive accuracy. The aim of the thesis is twofold. First, it compares and empirically evaluates a set of state-of-the-art post-pruning techniques on the simplification task. Second, it investigates the trade-off between predictive accuracy and model interpretability.  Methods. The primary research method used to conduct this study and to address the research questions is experimentation. All post-pruning techniques are implemented in Python. The Random Forest models are trained, evaluated, and validated on five selected datasets with varying characteristics.  Results. There is no significant difference in predictive performance between the compared techniques and none of the studied post-pruning techniques outperforms the other on all included datasets. The experimental results also show that model interpretability is proportional to model accuracy, at least for the studied settings. That is, a positive change in model interpretability is accompanied by a negative change in model accuracy.  Conclusions. It is possible to reduce the size of a complex Random Forest model while retaining or improving the predictive accuracy. Moreover, the suitability of a particular post-pruning technique depends on the application area and the amount of training data available. Significantly simplified models may be less accurate than the original model but tend to be perceived as more comprehensible. / Sammanfattning  Kontext. Ensemble metoder fortsätter att få mer uppmärksamhet inom maskininlärning. Då maskininlärningstekniker som genererar en enskild klassificerare eller prediktor har visat tecken på begränsad kapacitet i vissa sammanhang, har ensemble metoder vuxit fram som alternativa metoder för att åstadkomma bättre prediktiva prestanda. En av de mest intressanta och effektiva ensemble algoritmerna som har introducerats under de senaste åren är Random Forests. För att säkerställa att Random Forests uppnår en hög prediktiv noggrannhet behöver oftast ett stort antal träd användas. Resultatet av att använda ett större antal träd för att öka den prediktiva noggrannheten är en komplex modell som kan vara svår att tolka eller analysera. Problemet med det stora antalet träd ställer dessutom högre krav på såväl lagringsutrymmet som datorkraften.  Syfte. Denna uppsats utforskar möjligheten att automatiskt förenkla modeller som är genererade av Random Forests i syfte att reducera storleken på modellen, öka dess tolkningsbarhet, samt bevara eller förbättra den prediktiva noggrannheten. Syftet med denna uppsats är tvåfaldigt. Vi kommer först att jämföra och empiriskt utvärdera olika beskärningstekniker. Den andra delen av uppsatsen undersöker sambandet mellan den prediktiva noggrannheten och modellens tolkningsbarhet.  Metod. Den primära forskningsmetoden som har använts för att genomföra den studien är experiment. Alla beskärningstekniker är implementerade i Python. För att träna, utvärdera, samt validera de olika modellerna, har fem olika datamängder använts.  Resultat. Det finns inte någon signifikant skillnad i det prediktiva prestanda mellan de jämförda teknikerna och ingen av de undersökta beskärningsteknikerna är överlägsen på alla plan. Resultat från experimenten har också visat att sambandet mellan tolkningsbarhet och noggrannhet är proportionellt, i alla fall för de studerade konfigurationerna. Det vill säga, en positiv förändring i modellens tolkningsbarhet åtföljs av en negativ förändring i modellens noggrannhet.  Slutsats. Det är möjligt att reducera storleken på en komplex Random Forests modell samt bibehålla eller förbättra den prediktiva noggrannheten. Dessutom beror valet av beskärningstekniken på användningsområdet och mängden träningsdata tillgänglig. Slutligen kan modeller som är signifikant förenklade vara mindre noggranna men å andra sidan tenderar de att uppfattas som mer förståeliga.
105

Random Edge is not faster than Random Facet on Linear Programs / Random Edge är inte snabbare än Random Facet på linjära program

Hedblom, Nicole January 2023 (has links)
A Linear Program is a problem where the goal is to maximize a linear function subject to a set of linear inequalities. Geometrically, this can be rephrased as finding the highest point on a polyhedron. The Simplex method is a commonly used algorithm to solve Linear Programs. It traverses the vertices of the polyhedron, and in each step, it selects one adjacent better vertex and moves there. There can be multiple vertices to choose from, and therefore the Simplex method has different variants deciding how the next vertex is selected. One of the most natural variants is Random Edge, which in each step of the Simplex method uniformly at random selects one of the better adjacent vertices. It is interesting and non-trivial to study the complexity of variants of the Simplex method in the number of variables, d, and inequalities, N. In 2011, Friedmann, Hansen, and Zwick found a class of Linear Programs for which the Random Edge algorithm is subexponential with complexity 2^Ω(N^(1/4)), where d=Θ(N). Previously all known lower bounds were polynomial. We give an improved lower bound of 2^Ω(N^(1/2)), for Random Edge on Linear Programs where d=Θ(N). Another well studied variant of the Simplex method is Random Facet. It is upper bounded by 2^O(N^(1/2)) when d=Θ(N). Thus we prove that Random Edge is not faster than Random Facet on Linear Programs where d=Θ(N). Our construction is very similar to the previous construction of Friedmann, Hansen and Zwick. We construct a Markov Decision Process which behaves like a binary counter with linearly many levels and linearly many nodes on each level. The new idea is a new type of delay gadget which can switch quickly from 0 to 1 in some circumstances, leading to fewer nodes needed on each level of the construction. The key idea is that it is worth taking a large risk of getting a small negative reward if the potential positive reward is large enough in comparison. / Ett linjärt program är ett problem där målet är att maximiera en linjär funktion givet en mängd linjära olikheter. Geometriskt kan detta omformuleras som att hitta den högsta punkten på en polyeder. Simplexmetoden är en algoritm som ofta används för att lösa linjära program. Den besöker hörnen i polyedern, och i varje steg väljer den ett närliggande bättre hörn och flyttar dit. Det kan finnas flera hörn att välja mellan, och därför finns det olika varianter av simplexmetoden som bestämmer hur nästa hörn ska väljas. En av de mest naturliga varianterna är Random Edge, som i varje steg av simplexmetoden, uniformt slumpmässigt väljer ett av de närliggande bättre hörnen. Det är intressant och icke-trivialt att studera komplexiteten av olika varianter av simplexmetoden i antalet variabler, d, och olikheter N. År 2011 hittade Friedmann, Hansen och Zwick en familj av linjära program där Random Edge är subexponentiell med komplexitet 2^Ω(N^(1/4)), där d=Θ(N). Innan dess var alla kända undre gränser polynomiska. Vi ger en förbättrad undre gräns på 2^Ω(N^(1/2)), för Random Edge på linjära program där d=Θ(N). En annan välstuderad variant av simplexmetoden är Random Facet. Dess komplexitet har en övre gräns på 2^O(N^(1/2)) när d=Θ(N). Alltså bevisar vi att Random Edge inte är snabbare än Random Facet på linjära program där d=Θ(N). Vår konstruktion är väldigt lik den tidigare konstruktionen av Friedmann, Hansen och Zwick. Vi konstruerar en Markov-beslutsprocess som beter sig som en binär räknare med linjärt många nivåer och linjärt många noder på varje nivå. Den nya idén är en ny typ av försenings-multinod som kan byta snabbt från 0 till 1 i vissa fall, vilket leder till att det behövs färre noder på varje nivå av konstruktionen. Nyckelidén är att det är värt att ta en stor risk att få en liten negativ poäng om den potentiella positiva poängen är stor nog i jämförelse.
106

Random finite sets in visual Slam

Falchetti Pareja, Angelo January 2017 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / Este trabajo trata sobre el diseño e implementación de un sistema de Localización y Mapeo Simultáneo (SLAM) visual usando la teoría de Conjuntos Finitos Aleatorios (RFS), en el que un navegador (e.g. robot, auto, teléfono celular, etc.) utiliza una cámara de vídeo RGB-D para reconstruir la escena a su alrededor y al mismo tiempo descubrir su propia posición. Esta capacidad es relevante para las tecnologías del futuro, que deberán desplazarse sin ayuda externa. Se considera la inclusión de modelos realistas de medición y movimiento, incluyendo la intermitencia de las detecciones de objetos, la presencia de falsos positivos en las mediciones y el ruido en la imagen. Para ello se analizan sistemas basados en la teoría RFS, que es capaz de incluir estos efectos de manera fundamentada, a diferencia de otras alternativas del estado del arte que se basan en heurísticas poco realistas como el conocimiento absoluto de las asociaciones de datos entre mediciones y puntos en el mapa. Se incluye una amplia revisión de la literatura, desde Structure from Motion a Odometría Visual, a los distintos algoritmos para SLAM. Luego, se procede a explicar los detalles de implementación de un sistema flexible para el análisis de algoritmos de SLAM, así como la implementación particular del algoritmo Rao-Blackwellized (RB)-Probability Hypothesis Density (PHD)-SLAM. Se presentan análisis del desempeño de este algoritmo al cambiar las distintas estadísticas que pueden variar en su uso práctico. Se hace una comparación detallada con la alternativa Incremental Smoothing and Mapping (iSAM2), usualmente usada en otros sistemas del estado del arte. Luego, basado en la teoría de Modelos Gráficos Probabilísticos (PGM) que está detrás de iSAM2, se propone un nuevo algoritmo, Loopy PHD-SLAM, capaz de propagar información a lo largo del grafo inducido de manera eficiente, incluyendo las estadísticas de RFS. Con una implementación sencilla como prueba de concepto, se observa la capacidad de este nuevo método de cerrar ciclos y converger a soluciones correctas. / Este trabajo ha sido auspiciado por Conicyt
107

Tracking robusto de robots usando random finite sets

Cano Montecinos, Pablo Ignacio January 2018 (has links)
Tesis para optar al grado de Magíster en Ciencias de la Ingeniería, Mención Eléctrica / Memoria para optar al título de Ingeniero Civil Eléctrico / Esta tesis se enfoca en resolver el problema del multi-target tracking en ambientes altamente dinámicos, y utilizando robots que poseen baja capacidad de procesamiento y sensores limi- tados. Para esto se utiliza un nuevo método de realizar tracking baso en Random Finite Sets (RFS). La utilización de este método supone diferentes mejoras como la eliminación del data association problem o la utilización de la información negativa de los sensores. La hipótesis que se desea probar es que la utilización de este nuevo método puede obtener mejores resultados que los clásicos métodos de tracking, como el EKF multi-hipótesis. Además se desea demostrar que es posible realizar un tracking de este estilo en robots de poco procesamiento computacional y que este resultado se puede mejorar aún más si un conjunto de robots comparten sus estimaciones para generar una estimación global. Para esto se utiliza el robot Nao, el cual es utilizado en la competencia RoboCup, la cual corresponde a una competencia de fútbol robótico. Es en este escenario donde se implementa un método de tracking, basado en RFS, que se utiliza para ubicar todos los robots de la cancha, con tal de realizar un mapa de obstáculos. La implementación de este método la caracterización de cada sensor del robot, los cuales son utilizados como inputs del sistema. Finalmente, se realizan diversas pruebas, ya sea con robots reales o con simulaciones realistas, la cuales constan de escenarios ficticios y de partidos reales. En cada una de estas, se compara el mapa de obstáculos obtenido con las posiciones reales de los robots con la cancha. Esta comparación se realiza utilizando una medida de distancia especialmente diseñada para comparar conjuntos, llamada OSPA. Los resultados obtenidos demuestran que el método propuesto en esta tesis supera en general a los métodos clásicos, ya sea tanto cualitativa como cuantitativamente. Se pueden observar claramente las ventajas de la utilización negativa de los sensores, así como la no necesidad de resolver el data association problem. También se puede observar la mejora generada al utilizar la información compartida entre robots, lo que genera un mapa de obstáculos más preciso. / Fondecyt 1161500
108

Lucretius de natuur en haar vormen Boek I en book V vertaling en verantwoording ...

Lucretius Carus, Titus. Gerhardt, Ida Gardina Margaretha, January 1942 (has links)
Editor's proefschrift--Utrecht. / "Bibliografie": p. [139]-142.
109

Lucretius de natuur en haar vormen Boek I en book V vertaling en verantwoording ...

Lucretius Carus, Titus. Gerhardt, Ida Gardina Margaretha, January 1942 (has links)
Editor's proefschrift--Utrecht. / "Bibliografie": p. [139]-142.
110

The model man : a life of Edward W. Bok, 1863-1930 /

Krabbendam, Johannes Leendert, January 1995 (has links)
Proefschrift--Amerikaanse geschiedenis--Rijksuniversiteit te Leiden, 1995. / Bibliogr. p. 254-266. Index.

Page generated in 0.2228 seconds