• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 54
  • 36
  • 12
  • 5
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 132
  • 29
  • 22
  • 21
  • 15
  • 14
  • 14
  • 13
  • 12
  • 12
  • 11
  • 11
  • 11
  • 10
  • 10
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Transformace reportingu dat z provozu datových sítí / Transformation of Network Data Reporting Process

Tolar, Tomáš January 2016 (has links)
This thesis deals with transformation of network data reporting process in a Telecom company. The current process is MS Excel based and is inadequate and inefficient. The goal is to find the right tools and to implement them. The thesis is divided into three parts. First part is focused on theoretical background of reporting, i.e. Business Intelligence and other approaches. Second part explains general Network reporting principles and trends. In contrast with these theoretical recommendations, the actual level of the company's process is depicted. The last part of this thesis covers a practical implementation of selected applications. First, a choice is made within a variety of tools based on department's needs then the architecture is proposed and applications are implemented. The final part of the thesis provides an assessment of the benefits attained by this project.
42

Porovnání nástrojů pro Data Discovery / Data Discovery Tools Comparison

Kopecký, Martin January 2012 (has links)
Diploma thesis focuses on Data Discovery tools, which have been growing in im-portance in the Business Intelligence (BI) field during the last few years. Increasing number of companies of all sizes tend to include them in their BI environments. The main goal of this thesis is to compare QlikView, Tableau and PowerPivot using a defined set of criteria. The comparison is based on development of human resources report, which was modeled on a real life banking sector business case. The main goal is supported by a number of minor goals, namely: analysis of existing comparisons, definition of a new set of criteria, basic description of the compared platforms, and documentation of the case study. The text can be divided into two major parts. The theoretical part describes elemental BI architecture, discusses In-memory databases and data visualisation in context of a BI solution, and analyses existing comparisons of Data Discovery tools and BI platforms in general. Eight different comparisons are analysed in total, including reports of consulting companies and diploma theses. The applied part of the thesis builds upon the previous analysis and defines comparison criteria divided into five groups: Data import, transformation and storage; Data analysis and presentation; Operations criteria; User friendliness and support; Business criteria. The subsequent chapter describes the selected platforms, their brief history, component architecture, available editions and licensing. Case study chapter documents development of the report in each of the platforms and pinpoints their pros and cons. The final chapter applies the defined set of criteria and uses it to compare the selected Data Discovery platforms to fulfil the main goal of this thesis. The results are presented both numerically, utilising the weighted sum model, and verbally. The contribution of the thesis lies in the transparent confrontation of three Data Discovery tools, in the definition of a new set of comparison criteria, and in the documentation of the practical testing. The thesis offers an indirect answer to the question: "Which analytical tool should we use to supplement our existing BI solution?"
43

Kritické faktory implementace manažerského informačního systému na platformě Tableau / Critical Factors of Management Information System Implementation on Platform Tableau

Svarovský, Jiří January 2017 (has links)
This master´s thesis deals with critical factors of management information systems implementation. In first part its describing the present state of the topic, defines the basic terminology, clarifies theoretical background and determines how to understand to a concept of management information systems. In next part is survey of current business intelligence solutions of three leaders of the world market and its detailed comparison, description of their basic properties their advantages and disadvantages. In Conclusion is detailed description of platform Tableau, its practical application, example of implementation, critical succes factors and benefits of its use in companies.
44

Contributions a l’analyse de données multivoie : algorithmes et applications / Contributions to multiway analysis : algorithms and applications

Lechuga lopez, Olga 03 July 2017 (has links)
Nous proposons d’étendre des méthodes statistiques classiques telles que l’analyse discriminante, la régression logistique, la régression de Cox, et l’analyse canonique généralisée régularisée au contexte des données multivoie, pour lesquelles, chaque individu est décrit par plusieurs instances de la même variable. Les données ont ainsi naturellement une structure tensorielle. Contrairement à leur formulation standard, une contrainte structurelle est imposée. L’intérêt de cette contrainte est double: d’une part elle permet une étude séparée de l’influence des variables et de l’influence des modalités, conduisant ainsi à une interprétation facilitée des modèles. D’autre part, elle permet de restreindre le nombre de coefficients à estimer, et ainsi de limiter à la fois la complexité calculatoire et le phénomène de sur-apprentissage. Des stratégies pour gérer les problèmes liés au grande dimension des données sont également discutées. Ces différentes méthodes sont illustrées sur deux jeux de données réelles: (i) des données de spectroscopie d’une part et (ii) des données d’imagerie par résonance magnétique multimodales d’autre part, pour prédire le rétablissement à long terme de patients ayant souffert d’un traumatisme cranien. Dans ces deux cas les méthodes proposées offrent de bons résultats quand ont compare des résultats obtenus avec les approches standards. / In this thesis we develop a framework for the extension of commonly used linear statistical methods (Fisher Discriminant Analysis, Logistical Regression, Cox regression and Regularized Canonical Correlation Analysis) to the multiway context. In contrast to their standard formulation, their multiway generalization relies on structural constraints imposed to the weight vectors that integrate the original tensor structure of the data within the optimization process. This structural constraint yields a more parsimonious and interpretable model. Different strategies to deal with high dimensionality are also considered. The application of these algorithms is illustrated on two real datasets: (i) serving for the discrimination of spectroscopy data for which all methods where tested and (ii) to predict the long term recovery of patients after traumatic brain injury from multi-modal brain Magnetic Resonance Imaging. In both datasets our methods yield valuable results compared to the standard approach.
45

A Metric Interval-based Temporal Description Logic

Yousef Sanati, Morteza 06 1900 (has links)
Because of the importance of undecidability and the concern with the high complexity of automated reasoning, a few interval-based temporal description logics (ITDLs) have been designed. Moreover, most existing ITDLs are not able to specify the lengths of intervals. In other words, they are not metric. On the other hand, some domains (e.g., medicine) are inherently interval-based, and require a metric logic in order to formalize defined processes and to check process consistency. Hence, a metric interval-based temporal description logic is required. In this thesis, we introduce such a logic (MITDL) along with two algorithms for the satisfiability checking of its formulas. We first introduce an interval-based temporal logic, called IMPNL, inspired by Metric Propositional Neighbourhood Logic. We also present a sound, com- plete and terminating tableau-based algorithm for checking the satisfiability of IMPNL formulas. Afterwards, we combine a restricted version of IMPNL (IMPNL without a negation operator) with the ALC description logic to form a MITDL. We propose two tableau-based algorithms for checking the satisfia- bility of MITDL formulas. We show and prove they are sound, complete and terminate. These algorithms have PSpace and 2NExp-Time complexities. As a proof of concept, we use IMPNL and MITDL to model some clinical practice guidelines (CPG) and check their consistency. We compare MITDL with several languages commonly used for modeling CPGs. / Thesis / Doctor of Science (PhD)
46

Visualization of E-commerce Transaction Data : USING BUSINESS INTELLIGENCE TOOLS

Safari, Arash January 2015 (has links)
Customer Value(CV) is a data analytics company experiencing problems presenting the result of their analytics in a satisfiable manner. As a result, they considered the use of a data visualization and business intelligence softwares. The purpose of such softwares are to, amongst other things, virtually represent data in an interactive and perceptible manner to the viewer. There are however a large number of these types of applications on the market, making it hard for companies to find the one that best suits their purposes. CV is one such company, and this report was done on behalf of them with the purpose to identify the software best fitting their specific needs. This was done by conducting case studies on specifically chosen softwares and comparing the results of the studies.The software selection process was based largely on the Magic Quadrant report by Gartner, which contains a general overview of a subset of business intelligence softwares available on the market. The selected softwares were Qlik view, Qlik sense, GoodData, panorama Necto, DataWatch, Tableau and SiSense. The case studies focused mainly on aspects of the softwares that were of interest to CV, namely thesoftwares data importation capabilities, data visualization options, the possibilities of updating the model based on underlying data changes, options available regarded sharing the created presentations and the amount of support offered by the software vendor. Based on the results of the case studies, it was concluded that SiSense was the software that best satisfied the requirements set by CV. / Customer Value(CV) är ett företag som upplever svårigheter med att presentera resultaten av deras dataanalys på ett tillfredsställande sätt. De överväger nu att att använda sig av datavisualisering och Business Intelligence program för att virtuellt representera data på ett interaktivt sätt. Det finns däremot ett stort antal olika typer av sådanna applikationer på marknaden, vilket leder till svårigheter för företag att hitta den som passar dem bäst. CV är ett sådant företag, och detta rapport var skriven på deras begäran med syftet att identifieraden datavisualisations- eller Business Intelligence programmet, som bäst passar deras specifika behov. Detta gjordes med hjälp av en serie fallstudier som utfördes på specifikt valda mjukvaror, för att sedan jämföra resultaten av dessa studier.Valprocessen av dessa mjukvaror var i stora drag baserad på "Magic Quadrant 2015" rapporten av Gartner, som innehåller en generell och överskådlig bild av business intelligence applikationsmarknaden. De applikationer som valdes för evaluering varQlik view, Qlik sense, GoodData, panorama Necto, DataWatch, Tableau och SiSense. Fallstudierna fokuserade främst på aspekter av mjukvaran som var av intresse till CV, nämligen deras dataimportationsförmåga, datavisualiseringsmöjligheter, möjligheter till att uppdatera modellen baserad på ändringar i den underliggande datastrukturen, exporeteringsmöjligheter av de skapade presentationerna och den mängd dokumentation och support som erbjöds av mjukvaroutgivaren. Baserad på resultaten av fallstudierna drogs slutsatsen att SiSense var applikationen som bäst täckte CVs behov.
47

La représentation de la confiance dans l'activité collective Application à la coordination de l'activité de chantier de construction

Guerriero, Annie 09 April 2009 (has links) (PDF)
Les spécificités du secteur de la construction engendrent un contexte de travail coopératif que nous pouvons qualifier d'incertain par nature. L'activité de chantier se caractérise par un mode de production in situ. Dès lors, nombreux sont les dysfonctionnements qui peuvent apparaître. Nous citerons, par exemple, les problèmes liés à la nature du sol, aux intempéries ou encore ceux qui sont propres aux interactions entre les intervenants (ex. fourniture en matériaux, interfaces entre les corps de métier...). Aussi, la coordination repose sur un mélange subtil entre interactions implicites et explicites, où l'organisation prend de multiples configurations (hiérarchique, adhocratique ou transversale), et où la qualité du processus collectif repose sur l'autonomie et le sens des responsabilités de chacun des intervenants. Nous faisons l'hypothèse qu'un tel contexte est largement fondé sur la notion de confiance, car celle-ci a la capacité de réduire la perception du risque et de permettre l'action dans un environnement marqué par de nombreuses incertitudes. En conséquence, nous suggérons un rapprochement entre les outils d'assistance à la coordination et la notion de confiance, et nous proposons une nouvelle approche du pilotage de l'activité collective à partir de la représentation de la confiance. Ce travail de doctorat se structure autour de la notion de «confiance dans le bon déroulement de l'activité». Nous suggérons que celle-ci est dépendante de chacune des dimensions de l'activité collective : sa progression, les acteurs chargés de son exécution, les ouvrages en résultant (et leur difficulté de mise en œuvre), ainsi que les documents nécessaires à sa réalisation. Aussi, notre méthode consiste d'abord en l'identification des divers critères de confiance, consolidés par une étude de terrain. Puis, nous établissons un modèle mathématique destiné à évaluer cette confiance à partir des informations issues d'un contexte de coopération. Sur base de ces éléments, s'en suit la proposition d'un prototype dénommé Bat'iTrust, reposant sur une architecture logicielle multi-vues et orientée services. Pour l'utilisateur, la navigation au sein de ce prototype est guidée par un tableau de bord centré sur le concept de confiance. Enfin, la validation de cette proposition repose sur des enquêtes et une phase d'expérimentation qui nous ont permis de confronter nos résultats à des sujets expérimentaux représentatifs du domaine.
48

Suivi de l’engagement des apprenants lors de la construction de cartes mentales à partir de traces d’interaction / Monitoring learners' engagement in mind mapping activities from interaction traces

Carrillo Rozo, Rubiela 11 March 2019 (has links)
A la différence de l'apprentissage par mémorisation (rote learning), l'apprentissage significatif (meaningful learning) vise à associer de nouvelles connaissances à des connaissances déjà acquises. La construction de cartes mentales exige et supporte la mise en place de stratégies d'apprentissage significatif, et permet de rendre visible la structure de connaissances de l'apprenant. Cependant, les enseignants qui intègrent la construction de cartes mentales dans leurs activités pédagogiques doivent se contenter du rendu final des cartes mentales, et risquent de faire de mauvaises interprétations et évaluations de celles-ci par manque d'information sur leur processus de construction. Dans cette thèse, nous nous intéressons à l'observation a posteriori de l'engagement de l'apprenant dans ses dimensions comportementale et cognitive, afin de proposer des indicateurs orientés processus qui permettent de comprendre ses actions et ses choix de construction de carte mentale. Nous avons suivi la méthodologie de recherche orientée par la conception (Design Based Research), qui nous a permis de proposer 3 niveaux de contributions : 1) un modèle théorique d'engagement (comportemental et cognitive) pour les activités de construction de cartes mentales, 2) un ensemble d'indicateurs d'engagement de l'apprenant à partir de traces capturées automatiquement lors de la construction de cartes mentales, et 3) un tableau de bord appelé MindMap Monitor présentant différents indicateurs à l'enseignant pour le suivi de la classe et des apprenants. Le modèle a été obtenu à partir d'une étude de littérature sur les théories de l'engagement de l'apprenant issues notamment de la recherche en psychologie de l'éducation. Les indicateurs ont été définis en croisant le modèle avec les résultats de plusieurs études de terrain avec les enseignants. Le tableau de bord implémentant les indicateurs a été construit en trois itérations. Son interface présente des vues synthétiques permettant de comparer les élèves de la classe et d'identifier ceux en difficulté lors de la construction de leur carte, et des vues détaillées décrivant l'activité de construction d'une carte pour chaque élève. Notre tableau de bord a été évalué au cours d'une expérimentation avec 12 enseignants en comparant son utilisation avec celle des cartes mentales finales associées aux vidéos de leur processus de construction. Les résultats montrent que nos indicateurs sur MindMap Monitor permettent de mieux identifier les élèves en difficulté, les difficultés partagées, ainsi que les difficultés pour un élève. Les résultats concernant la compréhension du processus de construction de la carte mentale sont plus nuancés. Nous avons également pu identifier plusieurs pistes d'amélioration sur le contenu du tableau de bord et sa présentation. Les perspectives de notre travail concernent principalement le suivi de l'engagement des apprenants en temps réel pour l'intervention et l'adaptation de la stratégie pédagogique / In contrast to rote learning, meaningful learning aims to associate new knowledge with knowledge already acquired. Mind mapping activities require and support the implementation of meaningful learning strategies and enlighten the knowledge structure of the learner. However, teachers who integrate mind mapping into their educational activities have to deal with the final rendering of maps, and risk to misinterpret and wrongly evaluate them due to the lack of information about their construction process. In this thesis, we are interested in a posteriori observation of the engagement of learners along its behavioral and cognitive dimensions, in order to propose processoriented indicators that help to understand actions and construction choices of mind maps. We followed the Design Based Research methodology, that allowed us to propose three levels of contributions : 1) a theoretical model of engagement (behavioral and cognitive) for mind mapping activities, 2) a set of indicators of learner engagement constructed from automatically captured map building traces, and 3) a dashboard called MindMap Monitor presenting various indicators to teachers for class and learners monitoring. The model was obtained from a literature review on theories of engagement, including research in educational psychology. The indicators have been defined by comparing the model with the results of several field studies with teachers. The dashboard implementing the indicators was developed following three iterations. Its interface presents synthetic views allowing the comparison of students in the class, the identification of those in difficulty, and detailed views describing the mind mapping activity for each student. Our dashboard was evaluated with an experiment involving 12 teachers. We compared its use with that of final mind maps associated with videos of their construction process. Results show that our indicators on MindMap Monitor are useful to better identify students in difficulty, shared difficulties, as well as difficulties for individual students. Results concerning the understanding of the mind maps construction process are more balanced. We were also able to identify several ways to improve both the content and the visualizations of the dashboard. The perspectives of our work are mainly related to monitoring learners’ engagement in real time for the intervention and adaptation of the teachers’ educational strategies
49

Études combinatoires du tableau d'Euler sur les produits en couronne

Faliharimalala, Hilarion 31 March 2010 (has links) (PDF)
Au cours des deux dernières décennies, des travaux actifs ont été menés pour étendre des résultats classiques liés au groupe symétrique à d'autres groupes plus généraux. Cette thèse a pour objectif d'étendre aux produits en couronne les résultats concernant le tableau de différence d'Euler. Elle est divisée en cinq chapitres. Le tableau de différence d'Euler lié à la suite {n!} conduit naturellement à la formule du nombre de dérangements. Nous étudions dans les deux premiers chapitres, le tableau de différence d'Euler associé à la suite {rnn!} et la généralisation du problème de dérangements. Pour les coefficients de ce dernier tableau, nous donnons des interprétations combinatoires en termes de k-successions sur les produits en couronne. Clarke et al. ont introduit un q-analogue du tableau de différence d'Euler sur le groupe symétrique. Dans le troisième chapitre, nous étendons leurs résultats sur les produits en couronne. En généralisant leur bijection, nous montrons que " (fix, exc, fmaj) " et " (fix, exc, fmaf) " sont équidistribués sur les produits en couronne où "fmaf" est une nouvelle statistique mahonienne. D'autre part, Foata et Han ont récemment construit deux transformations. Nous prouvons dans le quatrième chapitre que ses bijections fournissent une factorisation de la bijection de Clarke et al.. Dans le cinquième chapitre nous donnons une extension de la seconde transformation fondamentale de Foata sur les mots r-colorés. Nous prouvons l'équidistribution sur les produits en couronne de " (fmaj , des*) " et " (finv , col) " où " col " est la somme des couleurs et " des* " une nouvelle statistique.
50

Searching for Compact Hierarchical Structures in DNA by means of the Smallest Grammar Problem

Gallé, Matthias 15 February 2011 (has links) (PDF)
Motivé par la découverte automatique de la structure hiérarchique de séquences d'ADN, nous nous intéressons au probléme classique de la recherche de la plus petite grammaire algébrique générant exactement une séquence donnée. Ce probléme NP-dur a été largement étudié pour des applications comme la compression de données, la découverte de structure et la théorie algorithmique de l'information. Nous proposons de décomposer ce probléme en deux problémes d'optimisation complémentaires. Le premier consiste á choisir les chaînes de la séquence qui seront les constituants de la grammaire finale alors que le second, que nous appelons ''analyse grammaticale minimale'', consiste á trouver une grammaire de taille minimale permettant l'analyse syntaxique de ces constituants. Nous donnons une solution polynomiale au probléme d' ''analyse grammaticale minimale'' et montrons que cette décomposition permet de définir un espace de recherche complet pour le probléme de la plus petite grammaire algébrique. Nous nous intéressons aux algorithmes praticables permettant de retourner une approximation du probléme en un temps suffisamment raisonnable pour être appliqués á de grandes séquences telles que les séquences génomiques. Nous analysons l'impact de l'utilisation de classes différentes de maximalité de répétitions pour le choix des constituants et le compromis entre l'efficacité et la taille de la grammaire finale. Nous présentons des avancées algorithmiques pour une meilleure efficacité des algorithmes hors-ligne existants, dont notamment la mise á jour incrémentale de tableaux de suffixes en cours de recodage. Enfin, la nouvelle décomposition du probléme nous permet de proposer de nouveaux algorithmes génériques permettant de trouver des grammaires 10\% plus petites que l'état de l'art. Enfin, nous nous intéressons á l'impact de ces idées sur les applications. En ce qui concerne la découverte de structures, nous étudions le nombre de grammaires minimales et montrons que ce nombre peut être exponentiel dans le pire cas. Nos expérimentations sur des jeux de séquences permettent cependant de montrer une certaine stabilité de structure au sein des grammaires minimales obtenues á partir d'un ensemble de constituants. En ce qui concerne la compression des données, nous contribuons dans chacune des trois étapes de la compression á base de grammaires. Nous définissons alors un nouvel algorithme qui optimise la taille de la chaine de bits finale au lieu de la taille de la grammaire. En l'appliquant sur les séquences d'ADN, nos expérimentations montrent que cet algorithme surpasse tout autre compresseur spécifique d'ADN á base de grammaire. Nous améliorons ce résultat en utilisant des répétitions inexactes et arrivons á améliorer les taux de compression de 25\% par rapport aux meilleurs compresseurs d'ADN á base de grammaire. Outre l'obtention de taux de compression plus performants, cette approche permet également envisager des généralisations intéressantes de ces grammaires.

Page generated in 0.4423 seconds