• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 8
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Utvärdering av ett nytt underhållsprogram

Hultberg, Susanne January 2002 (has links)
<p>ALSTOM Power Customer Service har tagit fram ett flödesschema för hur underhållsarbetet är tänkt att se ut. Underhållsprogrammet delas in i de fem faserna förberedelse-, sälj-, order-, genomförande- och rapportfas. Schemat beskriver hur det är tänkt att arbetet ska struktureras mellan tekniker, säljare, montörer/inspektörer och projektledare. Syftet är att skapa rutiner och system för underhållsprogrammet med avgränsningar för de olika ansvarsområdena. En stor del av arbetet bygger på rutin och erfarenhet. Det tänkta flödesschemat följs inte alltid av de olika leden i underhållsarbetet. Intervjuer med några inblandade personer ger en delvis annorlunda bild av arbetsflödet. Generellt finns problem med rapportering och uppföljning då inget finns sparat och dokumenterat i databaser. </p><p>Databasprogrammet Datastream 7i utvärderas i denna rapport. Det är ett fullt WEB-anpassat system med ett lättanvänt grafiskt användargränssnitt (GUI). Systemet är uppbyggt av 12 moduler som kan kombineras ihop och köpas in efter behov. För underhållsprocessen behövs 4-5 moduler som gås igenom grundligt. Systemet bygger på skapandet av arbetsorder som läggs upp i hierarkier. Standardarbetsorder och underordnad arbetsorder är viktiga begrepp. Kopplingar till lager, inköp och budget går att lägga till. Likaså projektplanering och processer kring arbetsflöde. 7i är kraftfullt och användbart för betydligt mer än underhåll inom ALSTOM. </p><p>Då det finns flera generationer av turbiner och olika moduler är ett stort och viktigt önskemål att kunna finna rätt typ av underhåll för den unika turbinen. Det finns dessutom tre nivåer av underhåll (stor revision, begränsad revision och säkerhetsinspektion) vilket gör kombinationerna av underhållsaktiviteter stort. Ett önskvärt tillstånd är att kunna välja modell och modul av turbin samt typ av revision och sedan få fram de aktiviteter och rapporter som är nödvändiga. </p><p>Datastream löser det problemet genom att man får definiera varje enskild turbin som ett unikt objekt. Man definierar vilka olika delar som turbinen består av. Aktiviteter defineras i ett schema för förebyggande underhåll som styrs av periodtid, mätarintervall eller ett exakt datum. Det går också att använda sig av klassificerade besiktningspunkter på turbinerna som styr när underhåll ska göras. </p><p>För att ALSTOM ska kunna använda sig av Datastream 7i behöver man ändra vissa delar av sitt underhållsarbete. En oro finns för att registrera och underhålla en så stor databas som det kommer att bli tal om. Fördelar är man kan följa upp händelser och aktiviteter då allt kommer bli registrerat i en databas. Det blir också lättare att få en överblick och att komma in som ny då mycket tidigare har byggt på enskilt kunnande och erfarenhet. Dokumentation och instruktion blir tydlig och detaljerad. Information behöver också bara ändras på en plats i ett nytt databassystem där allt är länkat. Detta är en stor fördel mot idag. För att lyckas införa ett nytt system krävs utbildning och en möjlighet av att delta i processen. Alla inblandade behöver förstå vikten av att modernisera ALSTOM Power Customer Service.</p>
2

Maintaining Stream Data Distribution Over Sliding Window

Chen, Jian January 2018 (has links)
In modern applications, it is a big challenge that analyzing the order statistics about the most recent parts of the high-volume and high velocity stream data. There are some online quantile algorithms that can keep the sketch of the data in the sliding window and they can answer the quantile or rank query in a very short time. But most of them take the GK algorithm as the subroutine, which is not known to be mergeable. In this paper, we propose another algorithm to keep the sketch that maintains the order statistics over sliding windows. For the fixed-size window, the existing algorithms can’t maintain the correctness in the process of updating the sliding window. Our algorithm not only can maintain the correctness but also can achieve similar performance of the optimal algorithm. Under the basis of maintaining the correctness, the insert time and query time are close to the best results, while others can't maintain the correctness. In addition to the fixed-size window algorithm, we also provide the time-based window algorithm that the window size varies over time. Last but not least, we provide the window aggregation algorithm which can help extend our algorithm into the distributed system.
3

Utvärdering av ett nytt underhållsprogram

Hultberg, Susanne January 2002 (has links)
ALSTOM Power Customer Service har tagit fram ett flödesschema för hur underhållsarbetet är tänkt att se ut. Underhållsprogrammet delas in i de fem faserna förberedelse-, sälj-, order-, genomförande- och rapportfas. Schemat beskriver hur det är tänkt att arbetet ska struktureras mellan tekniker, säljare, montörer/inspektörer och projektledare. Syftet är att skapa rutiner och system för underhållsprogrammet med avgränsningar för de olika ansvarsområdena. En stor del av arbetet bygger på rutin och erfarenhet. Det tänkta flödesschemat följs inte alltid av de olika leden i underhållsarbetet. Intervjuer med några inblandade personer ger en delvis annorlunda bild av arbetsflödet. Generellt finns problem med rapportering och uppföljning då inget finns sparat och dokumenterat i databaser. Databasprogrammet Datastream 7i utvärderas i denna rapport. Det är ett fullt WEB-anpassat system med ett lättanvänt grafiskt användargränssnitt (GUI). Systemet är uppbyggt av 12 moduler som kan kombineras ihop och köpas in efter behov. För underhållsprocessen behövs 4-5 moduler som gås igenom grundligt. Systemet bygger på skapandet av arbetsorder som läggs upp i hierarkier. Standardarbetsorder och underordnad arbetsorder är viktiga begrepp. Kopplingar till lager, inköp och budget går att lägga till. Likaså projektplanering och processer kring arbetsflöde. 7i är kraftfullt och användbart för betydligt mer än underhåll inom ALSTOM. Då det finns flera generationer av turbiner och olika moduler är ett stort och viktigt önskemål att kunna finna rätt typ av underhåll för den unika turbinen. Det finns dessutom tre nivåer av underhåll (stor revision, begränsad revision och säkerhetsinspektion) vilket gör kombinationerna av underhållsaktiviteter stort. Ett önskvärt tillstånd är att kunna välja modell och modul av turbin samt typ av revision och sedan få fram de aktiviteter och rapporter som är nödvändiga. Datastream löser det problemet genom att man får definiera varje enskild turbin som ett unikt objekt. Man definierar vilka olika delar som turbinen består av. Aktiviteter defineras i ett schema för förebyggande underhåll som styrs av periodtid, mätarintervall eller ett exakt datum. Det går också att använda sig av klassificerade besiktningspunkter på turbinerna som styr när underhåll ska göras. För att ALSTOM ska kunna använda sig av Datastream 7i behöver man ändra vissa delar av sitt underhållsarbete. En oro finns för att registrera och underhålla en så stor databas som det kommer att bli tal om. Fördelar är man kan följa upp händelser och aktiviteter då allt kommer bli registrerat i en databas. Det blir också lättare att få en överblick och att komma in som ny då mycket tidigare har byggt på enskilt kunnande och erfarenhet. Dokumentation och instruktion blir tydlig och detaljerad. Information behöver också bara ändras på en plats i ett nytt databassystem där allt är länkat. Detta är en stor fördel mot idag. För att lyckas införa ett nytt system krävs utbildning och en möjlighet av att delta i processen. Alla inblandade behöver förstå vikten av att modernisera ALSTOM Power Customer Service.
4

Résumé de Flots de Données : motifs, Cubes et Hiérarchies / Datastream Summarization : patterns, Data Cubes and Hierarchies

Pitarch, Yoann 10 May 2011 (has links)
L'explosion du volume de données disponibles due au développement des technologies de l'information et de la communication a démocratisé les flots qui peuvent être définis comme des séquences non bornées de données très précises et circulant à grande vitesse. Les stocker intégralement est par définition impossible. Il est alors essentiel de proposer des techniques de résumé permettant une analyse a posteriori de cet historique. En outre, un grand nombre de flots de données présentent un caractère multidimensionnel et multiniveaux que très peu d'approches existantes exploitent. Ainsi, l'objectif de ces travaux est de proposer des méthodes de résumé exploitant ces spécificités multidimensionnelles et applicables dans un contexte dynamique. Nous nous intéressons à l'adaptation des techniques OLAP (On Line Analytical Processing ) et plus particulièrement, à l'exploitation des hiérarchies de données pour réaliser cette tâche. Pour aborder cette problématique, nous avons mis en place trois angles d'attaque. Tout d'abord, après avoir discuté et mis en évidence le manque de solutions satisfaisantes, nous proposons deux approches permettant de construire un cube de données alimenté par un flot. Le deuxième angle d'attaque concerne le couplage des approches d'extractions de motifs fréquents (itemsets et séquences) et l'utilisation des hiérarchies pour produire un résumé conservant les tendances d'un flot. Enfin, les catégories de hiérarchies existantes ne permettent pas d'exploiter les connaissances expertes dans le processus de généralisation. Nous pallions ce manque en définissant une nouvelle catégorie de hiérarchies, dites contextuelles, et en proposant une modélisation conceptuelle, graphique et logique d'un entrepôt de données intégrant ces hiérarchies contextuelles. Cette thèse s'inscrivant dans un projet ANR (MIDAS), une plateforme de démonstration intégrant les principales approches de résumé a été mise au point. En outre, la présence de partenaires industriels tels que Orange Labs ou EDF RD dans le projet a permis de confronter nos approches à des jeux de données réelles. / Due to the rapid increase of information and communication technologies, the amount of generated and available data exploded and a new kind of data, the stream data, appeared. One possible and common definition of data stream is an unbounded sequence of very precise data incoming at an high rate. Thus, it is impossible to store such a stream to perform a posteriori analysis. Moreover, more and more data streams concern multidimensional and multilevel data and very few approaches tackle these specificities. Thus, in this work, we proposed some practical and efficient solutions to deal with such particular data in a dynamic context. More specifically, we were interested in adapting OLAP (On Line Analytical Processing ) and hierarchy techniques to build relevant summaries of the data. First, after describing and discussing existent similar approaches, we have proposed two solutions to build more efficiently data cube on stream data. Second, we were interested in combining frequent patterns and the use of hierarchies to build a summary based on the main trends of the stream. Third, even if it exists a lot of types of hierarchies in the literature, none of them integrates the expert knowledge during the generalization phase. However, such an integration could be very relevant to build semantically richer summaries. We tackled this issue and have proposed a new type of hierarchies, namely the contextual hierarchies. We provide with this new type of hierarchies a new conceptual, graphical and logical data warehouse model, namely the contextual data warehouse. Finally, since this work was founded by the ANR through the MIDAS project and thus, we had evaluated our approaches on real datasets provided by the industrial partners of this project (e.g., Orange Labs or EDF R&D).
5

[pt] MINERAÇÃO DE ITENS FREQUENTES EM SEQUÊNCIAS DE DADOS: UMA IMPLEMENTAÇÃO EFICIENTE USANDO VETORES DE BITS / [en] MINING FREQUENT ITEMSETS IN DATA STREAMS: AN EFFICIENT IMPLEMENTATION USING BIT VECTORS

FRANKLIN ANDERSON DE AMORIM 11 February 2016 (has links)
[pt] A mineração de conjuntos de itens frequentes em sequências de dados possui diversas aplicações práticas como, por exemplo, análise de comportamento de usuários, teste de software e pesquisa de mercado. Contudo, a grande quantidade de dados gerada pode representar um obstáculo para o processamento dos mesmos em tempo real e, consequentemente, na sua análise e tomada de decisão. Sendo assim, melhorias na eficiência dos algoritmos usados para estes fins podem trazer grandes benefícios para os sistemas que deles dependem. Esta dissertação apresenta o algoritmo MFI-TransSWmais, uma versão otimizada do algoritmo MFI-TransSW, que utiliza vetores de bits para processar sequências de dados em tempo real. Além disso, a dissertação descreve a implementação de um sistema de recomendação de matérias jornalísticas, chamado ClickRec, baseado no MFI-TransSWmais, para demonstrar o uso da nova versão do algoritmo. Por último, a dissertação descreve experimentos com dados reais e apresenta resultados da comparação de performance dos dois algoritmos e dos acertos do sistema de recomendações ClickRec. / [en] The mining of frequent itemsets in data streams has several practical applications, such as user behavior analysis, software testing and market research. Nevertheless, the massive amount of data generated may pose an obstacle to processing then in real time and, consequently, in their analysis and decision making. Thus, improvements in the efficiency of the algorithms used for these purposes may bring great benefits for systems that depend on them. This thesis presents the MFI-TransSWplus algorithm, an optimized version of MFI-TransSW algorithm, which uses bit vectors to process data streams in real time. In addition, this thesis describes the implementation of a news articles recommendation system, called ClickRec, based on the MFI-TransSWplus, to demonstrate the use of the new version of the algorithm. Finally, the thesis describes experiments with real data and presents results of performance and a comparison between the two algorithms in terms of performance and the hit rate of the ClickRec recommendation system.
6

Three essays on the German capital market

Brückner, Roman 04 April 2013 (has links)
Die vorliegende Dissertation umfasst drei eigen¬ständige Aufsätze zum deutschen Aktienmarkt. In allen drei Aufsätzen stehen eigene empirische Unter¬suchungen im Mittel-punkt. Bisherige empirische Untersuchungen zum deutschen Aktienmarkt konzentrieren sich meist auf das höchste deutsche Marktsegment, den Amtlichen Markt in Frankfurt. Die Anzahl der empirischen Arbeiten zu den Aktien der unteren Marktsegmente, insbesondere zum Geregelten Markt in Frankfurt, ist hingegen gering. Der erste Aufsatz beschäftigt sich mit dem Geregelten Markt und analysiert, ob die Performance mit dem Amtlichen Markt zu vergleichen ist. Beispielsweise war unklar, ob der Geregelte Markt ein ähnliches Desaster wie der Neue Markt darstellt. Wir stellen fest, dass die Aktien des Geregelten Marktes durchaus mit denen des Amtlichen Marktes mithalten können. Im zweiten Aufsatz wird untersucht, inwiefern das das CAPM nach Sharpe (1964), Lintner (1965) und Mossin (1966) die Renditen deutscher Aktien erklären kann. Zusätzlich wird untersucht, ob das CAPM in Deutschland um Faktoren für Size und Buchwert-Marktwert erweitert werden sollte. Auf Basis unserer Untersuchungen stellen wir fest, dass eine Erweiterung des CAPMs um Size- und/oder Buchwert-/Marktwertfaktoren derzeit nicht sinnvoll erscheint. In beiden Aufsätzen und in empirischen Untersuchungen im Allgemeinen spielt die Qualität der verwendeten Daten eine wichtige Rolle. Dementsprechend wird im dritten Aufsatz die Qualität der Datastream Daten für den deutschen Aktienmarkt untersucht. Hierbei kommen wir zu dem Ergebnis, dass Datastream als primäre Datenquelle für den deutschen Kapitalmarkt vor 1990 ungeeignet ist. Nach 1990 kommt es zwar zu zufälligen Fehlern in Datastream, diese sind allerdings nur selten gravierend. / This thesis consists of three empirical essays on the German stock market. Prior empirical research on the German stock market primarily focused on the top market segment in Germany, the Amtlicher Markt in Frankfurt. Only few empirical studies look at the lower market segments like the Geregelter Markt in Frankfurt. The first essay examines whether the performance of the stocks of the Geregelter Markt is comparable to the performance of the stocks listed in the Amtlicher Markt. For example, it was unclear whether the stocks from the Geregelter Markt performed as disastrous as the stocks from the Neuer Markt. We find that the performance of the stocks from the Geregelter Markt is comparable to those of the Amtlicher Markt. The second essay, examines whether the CAPM of Sharpe (1964), Lintner (1965) and Mossin (1966) explains the cross-section of German stock returns. Additionally, we evaluate whether the CAPM should be extended by factors for size and book-to-market. Based on our results, we conclude that the CAPM should not be extended by size and book-to-market in Germany. Data quality is an important aspect of both essays. As a consequence, we examine the quality of equity data from Datastream for the German stock market in the third essay. We conclude that before 1990 Datastream should not be used as the primary data source for empirical studies on the German stock market. After 1990, we find random errors in Datastream, but these are rarely severe.
7

Malleable Contextual Partitioning and Computational Dreaming

Brar, Gurkanwal Singh 20 January 2015 (has links)
Computer Architecture is entering an era where hundreds of Processing Elements (PE) can be integrated onto single chips even as decades-long, steady advances in instruction, thread level parallelism are coming to an end. And yet, conventional methods of parallelism fail to scale beyond 4-5 PE's, well short of the levels of parallelism found in the human brain. The human brain is able to maintain constant real time performance as cognitive complexity grows virtually unbounded through our lifetime. Our underlying thesis is that contextual categorization leading to simplified algorithmic processing is crucial to the brains performance efficiency. But, since the overheads of such reorganization are unaffordable in real time, we also observe the critical role of sleep and dreaming in the lives of all intelligent beings. Based on the importance of dream sleep in memory consolidation, we propose that it is also responsible for contextual reorganization. We target mobile device applications that can be personalized to the user, including speech, image and gesture recognition, as well as other kinds of personalized classification, which are arguably the foundation of intelligence. These algorithms rely on a knowledge database of symbols, where the database size determines the level of intelligence. Essential to achieving intelligence and a seamless user interface however is that real time performance be maintained. Observing this, we define our chief performance goal as: Maintaining constant real time performance against ever increasing algorithmic and architectural complexities. Our solution is a method for Malleable Contextual Partitioning (MCP) that enables closer personalization to user behavior. We conceptualize a novel architectural framework, the Dream Architecture for Lateral Intelligence (DALI) that demonstrates the MCP approach. The DALI implements a dream phase to execute MCP in ideal MISD parallelism and reorganize its architecture to enable contextually simplified real time operation. With speech recognition as an example application, we show that the DALI is successful in achieving the performance goal, as it maintains constant real time recognition, scaling almost ideally, with PE numbers up to 16 and vocabulary size up to 220 words. / Master of Science
8

Générateur de coprocesseur pour le traitement de données en flux (vidéo ou similaire) sur FPGA. / CoProcessor generator for real-time data flow processing FPGA

Goavec-Merou, Gwenhael 26 November 2014 (has links)
L’utilisation de matrice de portes logiques reconfigurables (FPGA) est une des seules solutionspour traiter des flux de plusieurs 100 MÉchantillons/seconde en temps-réel. Toutefois, ce typede composant présente une grande difficulté de mise en oeuvre : au delà d’un type langage spécifique,c’est tout un environnement matériel et une certaine expérience qui sont requis pourobtenir les traitements les plus efficaces. Afin de contourner cette difficulté, de nombreux travauxont été réalisés dans le but de proposer des solutions qui, partant d’un code écrit dans unlangage de haut-niveau, vont produire un code dans un langage dédié aux FPGAs. Nos travaux,suivant l’approche d’assemblage de blocs et en suivant la méthode du skeleton, ont visé à mettreen place un logiciel, nommé CoGen, permettant, à partir de codes déjà développés et validés,de construire des chaînes de traitements en tenant compte des caractéristiques du FPGA cible,du débit entrant et sortant de chaque bloc pour garantir l’obtention d’une solution la plus adaptéepossible aux besoins et contraintes. Les implémentations des blocs de traitements sont soitgénérés automatiquement soit manuellement. Les entrées-sorties de chaque bloc doivent respecterune norme pour être exploitable dans l’outil. Le développeur doit fournir une descriptionconcernant les ressources nécessaires et les limitations du débit de données pouvant être traitées.CoGen fournit à l’utilisateur moins expérimenté une méthode d’assemblage de ces blocsgarantissant le synchronisme et cohérence des flux de données ainsi que la capacité à synthétiserle code sur les ressources matérielles accessibles. Cette méthodologie de travail est appliquéeà des traitements sur des flux vidéos (seuillage, détection de contours et analyse des modespropres d’un diapason) et sur des flux radio-fréquences (interrogation d’un capteur sans-fils parméthode RADAR, réception d’un flux modulé en fréquence, et finalement implémentation deblocs de bases pour déporter le maximum de traitements en numérique). / Using Field Programmable Gate Arrays (FPGA) is one of the very few solution for real time processingdata flows of several hundreds of Msamples/second. However, using such componentsis technically challenging beyond the need to become familiar with a new kind of dedicateddescription language and ways of describing algorithms, understanding the hardware behaviouris mandatory for implementing efficient processing solutions. In order to circumvent these difficulties,past researches have focused on providing solutions which, starting from a description ofan algorithm in a high-abstraction level language, generetes a description appropriate for FPGAconfiguration. Our contribution, following the strategy of block assembly based on the skeletonmethod, aimed at providing a software environment called CoGen for assembling various implementationsof readily available and validated processing blocks. The resulting processing chainis optimized by including FPGA hardware characteristics, and input and output bandwidths ofeach block in order to provide solution fitting best the requirements and constraints. Each processingblock implementation is either generated automatically or manually, but must complywith some constraints in order to be usable by our tool. In addition, each block developer mustprovide a standardized description of the block including required resources and data processingbandwidth limitations. CoGen then provides to the less experienced user the means to assemblethese blocks ensuring synchronism and consistency of data flow as well as the ability to synthesizethe processing chain in the available hardware resources. This working method has beenapplied to video data flow processing (threshold, contour detection and tuning fork eigenmodesanalysis) and on radiofrequency data flow (wireless interrogation of sensors through a RADARsystem, software processing of a frequency modulated stream, software defined radio).

Page generated in 0.0318 seconds