Spelling suggestions: "subject:" gig data"" "subject:" iig data""
361 |
Prediktiv analys i vården : Hur kan maskininlärningstekniker användas för att prognostisera vårdflöden? / Predictive analytics in healthcare : A machine learning approach to forecast healthcare processesCorné, Josefine, Ullvin, Amanda January 2017 (has links)
Projektet genomfördes i samarbete med Siemens Healthineers i syfte att utreda möjligheter till att prognostisera vårdflöden. Det genom att undersöka hur big data tillsammans med maskininlärning kan utnyttjas för prediktiv analys. Projektet utgjordes av två fallstudier med mål att, baserat på data från tidigare MRT-undersökningar, förutspå undersökningstider för kommande undersökningar respektive identifiera patienter som riskerar att missa inbokad undersökning. Fallstudierna utfördes med hjälp av programmeringsspråket R och tre olika inbyggda funktioner för maskininlärning användes för att ta fram prediktiva modeller för respektive fallstudie. Resultaten från fallstudierna gav en indikation på att det med en större datamängd av bättre kvalitet skulle vara möjligt att förutspå undersökningstider och vilka patienter som riskerar att missa sin inbokade undersökning. Det talar för att den här typen av prediktiva analyser kan användas för att prognostisera vårdflöden, något som skulle kunna bidra till ökad effektivitet och kortare väntetider i vården. / This project was performed in cooperation with Siemens Healthineers. The project aimed to investigate possibilities to forecast healthcare processes by investigating how big data and machine learning can be used for predictive analytics. The project consisted of two separate case studies. Based on data from previous MRI examinations the aim was to investigate if it is possible to predict duration of MRI examinations and identify potential no show patients. The case studies were performed with the programming language R and three machine learning methods were used to develop predictive models for each case study. The results from the case studies indicate that with a greater amount of data of better quality it would be possible to predict duration of MRI examinations and potential no show patients. The conclusion is that these types of predictive models can be used to forecast healthcare processes. This could contribute to increased effectivity and reduced waiting time in healthcare.
|
362 |
An automated approach to clustering with the framework suggested by Bradley, Fayyad and ReinaBerglund, Jesper January 2018 (has links)
Clustering with the framework suggested by Bradley, Fayyad and Reina allows for great scalability. However, practical challenges appear when applying the framework. One of the challenges is to define model parameters. This includes defining the number of clusters (K). Understanding how parameter values affect the final clustering may be challenging even with insight into the algorithm. Automating the clustering would allow for a more widespread use. The research question is thus: How could an automated process for clustering with BFR be defined and what results could such a process yield? A tailored method for parameter optimization is suggested. This method is used with a new and computationally advantageous cluster validity index called population density index. Computing the widely used within set sum of squares error requires an additional pass over the data set. Computing population density index does not. The final step of the automated process is to cluster with the parameters generated in the process. The outcome of these clusterings are measured. The results present data collected over 100 identically defined automated processes. These results show that 97 % of the identified K-values falls within the range of the suggested optimal value 2. The method for optimizing parameters clearly results in parameters that outperform randomized parameters. The suggested population density index has a correlation coefficient of 1.00 with the commonly used within set sum of square error in a 32-dimensional case. An automated process for clustering with BFR has been defined. / Ramverket som föreslås av Bradley, Fayyad och Reina möjliggör storskalig klustring. Att använda ramverket medför dock praktiska utmaningar. En av dessa utmaningar är att definiera modellens parametrar. Detta inkluderar att definiera antalet kluster (K). Att förstå hur angivna parametervärden påverkar det slutgiltiga klustringsresultatet är utmanande även med insikt i algoritmen. Att automatisera klustringen skulle möjliggöra för fler att använda ramverket. Detta resulterar i frågeställningen: Hur skulle en automatiserad process för klustring med BFR kunna definieras och vilka resultat skulle en sådan process kunna ge? En skräddarsydd metod för parameteroptimisering föreslås. Denna används i kombination med ett nytt klustervalideringsindex vilket refereras till som population density index. Användning av detta index medför beräkningsmässiga fördelar. Att beräkna det frekvent använda within set sum of squares-värdet kräver ytterligare en iteration över det använda datasettet. Att beräkna population density index undviker denna extra iteration. Det sista steget i den automatiserade processen är att klustra givet de parametervärden som processen själv definierar. Resultatet av dessa klustringar mäts. Resultaten presenterar data insamlad över 100 individuella försök. För samtliga av dessa var den automatiserade processen identiskt definierad. Resultaten visar att 97 % av de identifierade värdena på K-parametern faller inom en värdemängd baserad på det optimala värdet 2. Att optimera parametervärden med den föreslagna metoden ger tydligt bättre värden än om dessa genereras stokastiskt. Det föreslagna population density index har 1.00 som korrelationskoefficient med det välanvända within set sum of squares-värdet i ett 32-dimensionellt fall. En automatiserad process för att klustra med BFR har definierats.
|
363 |
Dynamic Configuration of a Relocatable Driver and Code Generator for Continuous Deep Analytics / Dynamisk Konfigurering av en Omlokaliseringsbar Driver och Kod Genererare för Continuous Deep AnalyticsBjuhr, Oscar January 2018 (has links)
Modern stream processing engines usually use the Java virtual machine (JVM) as execution platform. The JVM increases portability and safety of applications at the cost of not fully utilising the performance of the physical machines. Being able to use hardware accelerators such as GPUs for computationally heavy analysis of data streams is also restricted when using the JVM. The project Continuous Deep Analytics (CDA) explores the possibility of a stream processor executing native code directly on the underlying hardware using Rust. Rust is a young programming language which can statically guarantee the absence of memory errors and data races in programs without incurring performance penalties during runtime. Rust is built on top of LLVM which gives Rust a theoretical possibility to compile to a large set of target platforms. Each specific target platform does however require a specific configured runtime environment for Rust’s compiler to work properly. The CDA compiler will run in a distributed setting where the compiler has to be able to reallocate to different nodes to handle node failures. Setting up a reassignable Rust compiler in such a setting can be error prone and Docker is explored as a solution to this problem. A concurrent thread based system is implemented in Scala for building Docker images and compiling Rust in containers. Docker shows a potential of enabling easy reallocation of the driver without manual configuration. Docker has no major effect on Rust’s compile time. The large Docker images required to compile Rust is a drawback of the solution. They will require substantial network traffic to reallocate the driver. Reducing the size of the images would therefore make the solution more responsive. / Moderna strömprocessorer använder vanligtvis Javas virtuella maskin (JVM) som plattform för exekvering. Det gör strömprocessorerna portabla och säkra men begränsar hur väl de kan använda kapaciteten i den underliggande fysiska maskinen. Att kunna använda sig av hårdvaruaccelerator som t.ex. grafikkort för tung beräkning och analys av dataströmmar är en anledning till varför projektet Continuous Deep Analytics (CDA) utforskar möjligheten att istället exekvera en strömprocessor direkt i den underliggande maskinen. Rust är ett ungt programmeringsspråk som statiskt kan garantera att program inte innehåller minnesfel eller race conditions", detta utan att negativt påverka prestanda vid exekvering. Rust är byggt på LLVM vilket ger Rust en teoretisk möjlighet att kompilera till en stor mängd olika maskinarkitekturer. Varje specifik maskinarkitektur kräver dock att kompileringsmiljön är konfigurerad på ett specifikt sätt. CDAs kompilator kommer befinna sig i ett distribuerat system där kompilatorn kan bli flyttad till olika maskiner för att kunna hantera maskinfel. Att dynamiskt konfigurera kompilatorn i en sådan miljö kan leda till problem och därför testas Docker som en lösning på problemet. Ett trådbaserat system för parallell exekvering är implementerat i Scala för att bygga Docker bilder och kompilera Rust i containrar. Docker visar sig att ha en potential för att möjliggöra lätt omallokering av drivern utan manuell konfiguration. Docker har ingen stor påverkan på Rusts kompileringstid. De stora storlekarna på de Docker bilder som krävs för att kompilera Rust är en nackdel med lösningen. De gör att om allokering av drivern kräver mycket nätverkstrafik och kan därför ta lång tid. För att göra lösningen kvickare kan storleken av bilderna reduceras.
|
364 |
Analysis and comparison of interfacing, data generation and workload implementation in BigDataBench 4.0 and Intel HiBench 7.0Barosen, Alexander, Dalin, Sadok January 2018 (has links)
One of the major challenges in Big Data is the accurate and meaningful assessment of system performance. Unlike other systems, minor differences in efficiency can escalate to large differences in costs and power consumption. While there are several tools on the marketplace for measuring the performance of Big Data systems, few of them have been explored in-depth. This report investigated the interfacing, data generation and workload implementations of two Big Data benchmarking suites, BigDataBench and Hibench. The purpose of the study was to establish the capabilities of each tool with regards to interfacing, data generation and workload implementation. An exploratory and qualitative approach was used to gather information and analyze each benchmarking tool. Source code, documentation, and reports published by the developers were used as information sources. The results showed that BigDataBench and HiBench were designed similarly with regards to interfacing and data flow during the execution of a workload with the exception of streaming workloads. BigDataBench provided for more realistic data generation while the data generation for HiBench was easier to control. With regards to workload design, the workloads in BigDataBench were designed to be applicable to multiple frameworks while the workloads in HiBench were focused on the Hadoop family. In conclusion, neither of benchmarking suites was superior to the other. They were both designed for different purposes and should be applied on a case-by-case basis. / En av de stora utmaningarna i Big Data är den exakta och meningsfulla bedömningen av systemprestanda. Till skillnad från andra system kan mindre skillnader i effektivitet eskalera till stora skillnader i kostnader och strömförbrukning. Medan det finns flera verktyg på marknaden för att mäta prestanda för Big Data-system, har få av dem undersökts djupgående. I denna rapport undersöktes gränssnittet, datagenereringen och arbetsbelastningen av två Big Data benchmarking-sviter, BigDataBench och HiBench. Syftet med studien var att fastställa varje verktygs kapacitet med hänsyn till de givna kriterierna. Ett utforskande och kvalitativt tillvägagångssätt användes för att samla information och analysera varje benchmarking verktyg. Källkod, dokumentation och rapporter som hade skrivits och publicerats av utvecklarna användes som informationskällor. Resultaten visade att BigDataBench och HiBench utformades på samma sätt med avseende på gränssnitt och dataflöde under utförandet av en arbetsbelastning med undantag för strömmande arbetsbelastningar. BigDataBench tillhandahöll mer realistisk datagenerering medan datagenerering för HiBench var lättare att styra. När det gäller arbetsbelastningsdesign var arbetsbelastningen i BigDataBench utformad för att kunna tillämpas på flera ramar, medan arbetsbelastningen i HiBench var inriktad på Hadoop-familjen. Sammanfattningsvis var ingen av benchmarkingssuperna överlägsen den andra. De var båda utformade för olika ändamål och bör tillämpas från fall till fall.
|
365 |
Quantifying Traffic Congestion in Nairobi / Kvantifiering av trafik i NairobiBojs, Eric January 2020 (has links)
This thesis aims to give insight into a novel approach for quantifying car traffic in developing cities. This is necessary to improve efficiency in resource allocation for improvements in infrastructure. The project took form of a case study of neighborhoods in the city of Nairobi, Kenya. The approach consists of a method which relies on topics from the field of Topological Data Analysis, together with the use of large data sources from taxi services in the city. With this, both qualitative and quantitative insight can be given about the traffic. The method was proven useful for understanding how traffic spreads, and to differentiate between levels of congestion: quantifying it. However, it failed to detect the effect of previous improvements of infrastructure. / Målet med rapporten är att ge insikt i en innovativ ansats för att kvantifiera biltrafik i utvecklingsstäder. Detta kommer som en nödvändighet för att kunna förbättra resursfördelning i utvecklandet av infrastruktur. Projektet utspelade sig som en fallstudie där stadsdelar i Nairobi, Kenya studerades. Ansatsen innefattar en metod som bygger på tekniker från topologisk dataanalys (eng. \textit{Topological Data Analysis}), tillsammans med stora datakällor från taxitjänster i staden. Detta hoppas ge både kvalitativ och kvantitativ information om trafiken i staden. Metoden visade sig vara användbar för att förstå hur trafik sprider sig och att differentiera mellan nivåer av trafik, alltså att kvantifiera den. Tyvärr så misslyckades metoden visa sig användbar för att mäta förbättringar i infrastruktur.
|
366 |
Cauldron: A Scalable Domain Specific Database for Product DataOttosson, Love January 2017 (has links)
This project investigated how NoSQL databases can be used together with a logical layer, instead of a relational database with separated backend logic, to search for products with customer specific constraints in an e-commerce scenario. The motivation behind moving from a relational database was the scalability issues and increased read latencies experienced as the data increased. The work resulted in a framework called Cauldron that uses pipelines a sequence of execution steps to expose its data stored in an in-memory key-value store and a document database. Cauldron uses write replication between distributed instances to increase read throughput at the cost of write latency. A product database with customer specific constraints was implemented using Cauldron to compare it against an existing solution based on a relational database. The new product database can serve search queries 10 times faster in the general case and up to 25 times faster in extreme cases compared to the existing solution. / Projektet undersökte hur NoSQL databaser tillsammans med ett logiskt lager, istället för en relationsdatabas med separat backend logik, kan användas för att söka på produkter med kundunika restriktioner. Motivationen till att byta ut relationsdatabasen berodde på skalbarhetsproblem och långsammare svarstider när datamängden ökade. Arbetet resulterade i ett ramverk vid namn Cauldron som använder pipelines sammankopplade logiska steg för att exponera sin data från en minnesbunden nyckel-värde-databas och en dokumentdatabas. Cauldron använder replikering mellan distribuerade instanser för att öka läsgenomstömmningen på bekostnad av högre skrivlatenser. En produktdatabas med kundunika restriktioner implementerades med hjälp av Cauldron för att jämföra den mot en befintlig lösning baserad på en relationsdatabas. Den nya databasen kan besvara sökförfrågningar 10 gånger snabbare i normalfallen och upp till 25 gånger snabbare i extremfallen jämfört med den befintliga lösningen.
|
367 |
Collecting Data for Building Automation Analytics : A case study for collecting operational data with minimal human intervention / Insamling av data för fastighetsautomationsanalys : En fallstudie för insamling av operativ data med minimal mänsklig interventionJan, Jonathan January 2018 (has links)
Approximately 40% of the total energy consumption within the EU is due to buildings, and similar numbers can be found in the US. If the principal inefficiencies in buildings were easily identifiable, then a facility manager could focus their resources to make the buildings more efficient, which would lead to both cost savings for the facility owners and decrease the building’s ecological footprint. In building automation systems today, data is already being collected every second, but due to the lack of standardization for describing this data, having access to data is not the same as being able to make use of it. The existing heterogeneity makes it very costly to gather data from multiple buildings, thus making it difficult to understand the big picture. Facility managers cannot fix what they cannot see; thus it is important to facilitate the visualization of the data collected from all of the different building automation systems. This potentially offers great benefits with regards to both sustainability and economy. In this thesis, the author’s goal is to propose a sustainable, cost and time effective data integration strategy for real estate owners who wish to gain greater insight into their buildings’ efficiency. The study begins with a literature study to find previous and on-going attempts to solve this problem. Some initiatives for standardization of semantic models were found. Two of these models, Brick and Haystack, were chosen. One building automation system (BAS) was tested in a pilot case study, to test the appropriateness of a solution. The key results from this thesis project show that data from building automation systems, can be integrated into an analysis platform, and an extract, transform, and load (ETL) process for this is presented. How time efficiently data can be tagged and transformed into a common format is very dependent upon the current control system’s data storage format and whether information about its structure is adequate. It is also noted that there is no guarantee that facility managers have access to the control system’s database or information about how that is structured, in such cases other techniques can be used such as BACnet/IP, or Open Platform Communications (OPC) Unified Architecture. / Ungefär 40 % av den totala energikonsumtionen i E.U. och U.S.A. förbrukas av fastigheter. Om de delar av fastigheten som är ineffektiva enkelt kunde identifieras, skulle det underlätta fastighetsförvaltarnas arbete i att göra byggnader mer energisnåla. Detta har i sin tur potential att minska kostnader och byggnaders ekologiska fotavtryck. I dagens fastighetsautomationssystem samlas data in varje sekund, men på grund av att det saknas ett standardiserat sätt att beskriva den på, är det skillnad på att ha tillgång till data och att faktiskt kunna använda sig av den. Heterogeniteten gör att det blir både kostsamt och tidskrävande för fastighetsförvaltare att samla in data från sina fastigheter. Fastighetsförvaltare kan inte åtgärda något det inte kan se. Därför är det viktigt att underlätta möjligheten för visualisering av data från olika typer av fastighetsautomationssystem. Att lyckas med detta har potential att ge positiva effekter både när det gäller hållbarhet och ekonomi. I den här uppsatsen är författarens mål att komma fram till en hållbar, kostnads- och tidseffektiv integrationsstrategi för fastighetsförvaltare som vill få bättre insikter hur effektiv deras byggnad faktiskt är. Forskningsarbetet inleds med en litteraturstudie för att finna tidigare och pågående försök att lösa detta problem. Några initiativ för standardisering av semantiska modeller för att beskriva data inom fastighetsautomation hittades. Två av dessa, Brick och Project Haystack, valdes ut. En byggnad, och ett fastighetsautomationssystem testades i en pilotstudie. Resultaten från studien pekar på att data från fastighetautomationssystem kan integreras med en analysplattform, och en så kallad ETL-process, efter de engelska orden: extract, transform, load; presenteras för att uppnå det målet. Hur tidseffektivt data kan taggas och transformeras beror på det nuvarande kontrollsystemets datalagringsformat och om information om dess struktur är adekvat. Det noteras att det inte finns någon garanti till att få åtkomst till kontrollsystemets databas, eller information om dess struktur, därför presenteras även alternativa tekniker, däribland BACnet/IP och Open Platform Communications (OPC) Unified Architecture.
|
368 |
Big data analys påverkan på revisionsutförandet : En kvalitativ studie om Big data analys påverkan på revisionskvalitet, revisionens legitimitet och revisorns kompetenserEriksson Lagneskog, Daniel, Kämpeskog, Niklas January 2023 (has links)
Likt flera branscher utvecklas revisionsbranschen under tidens gång. Nya arbetssätt och verktyg introduceras för att utveckla revisionsutförandet. Ett av dessa verktyg som har implementerats av många revisionsbolag är Big data analys. Forskningsområdet kring Big data analys användande i revisionsutförandet är i ett inledande stadie, och resultaten är skilda. Tidigare forskning är dock ense om att Big data analys har en påverkan på revisionsutförandet och att revisorns kompetenser spelar en avgörande roll om användandet av Big data analys blir framgångsrikt. Till följd av detta var studiens syfte att undersöka vilken påverkan användningen av Big data analys har på revisionsutförandet samt vilka kompetenser som behövs vid användandet av Big data analys. Utifrån studiens syfte formuleradestre forskningsfrågor som behandlade Big data analys påverkan på revisionskvaliteten, revisionsutförandets legitimitet samt vilka kompetenser som behövs för att uppnå komfort och upprätthålla professionell skepticism i revisionsutförandet.För att uppnå studiens syfte har insamlingen av empiri grundat sig i en kvalitativ metod. Tio respondenter deltog i studien, varav sju var auktoriserade revisorer och resterande tre var revisorsassistenter.De slutsatser som studien generat är att revisorns kompetenser ansågs väsentliga för hur välfungerande användandet Big data analys var. Dock ansåg inte respondenterna att det var några nya kompetenser som behövdes vid användandet av Big data analys. Utan det var alltjämt en god förståelse för revision och redovisning som behövdes. Vidare ansågs Big data analys bidra till mer komfort i revisionsutförandet. Samtidigt som den professionella skepticismen alltjämt genomsyrade allt i revisions arbetssätt, och då även Big data analyser. Däremot påvisades det att användandet av Big data analys kunde hjälpa revisorer finna fler revisionsbevis, vilket hjälpte revisorn att vara professionellt skeptisk gentemot det reviderade bolaget. Big data analys förtjänster att testa en större population, jämfört med traditionella stickprov, ansågs öka den övergripande revisionskvaliteten. Detta medförde även att legitimiteten påverkades positivt hos de bolag som hade större kunder med mer transaktioner. Medan revisionsbolaget som jobbade mot kunder med mindre verksamheter inte upplevde samma positiva inverkan på deras legitimitet vid användningen av Big data analys i revisionsutförandet. / Like several industries, the auditing industry is evolving over time. New methods and tools are being introduced to enhance the auditing process. One of these methods that has been implemented by many audit firms is Big Data analysis. The research field on the use of Big Data analysis in auditing is in its early stages, and the results are mixed. However, previous research agreed that Big Data analysis has an impact on the auditing process, and the auditor's competencies play a crucial role in the successful implementation of Big Data analysis.As a result, the aim of this study was to investigate the impact of using Big Data analysis on the auditing process and identify the competencies required for its effective use. Based on the study's objective, three research questions were formulated, addressing the impact of Big Data analysis on audit quality, the legitimacy of the auditing process, and the competencies needed to achieve comfort and maintain professional skepticism in the audit process when using Big Data analysis. To achieve the study's objective, empirical data was collected using a qualitative methodology. Ten respondents participated in the study, including seven certified auditors and three audit assistants. The study's conclusions indicate that the auditor's competencies were considered essential for the successful implementation of Big Data analysis. However, the respondents did not believe that any new competencies were required specifically for conducting Big Data analysis reviews. Instead, a solid understanding of auditing and accounting was deemed necessary. Furthermore, Big Data analysis was seen to contribute to greater comfort in the audit process. At the same time, professional skepticism continued to permeate the entire auditing approach, including Big Data analysis. However, it was demonstrated that the use of Big Data analysis could help auditors find more audit evidence, aiding the auditor in maintaining professional skepticism toward the audited company. The advantages of Big Data analysis in testing a larger population, compared to traditional sampling, were seen to enhance overall audit quality. This also had a positive impact on the legitimacy of companies with larger clients and more transactions. Conversely, audit firms working with smaller businesses did not experience the same positive impact on their legitimacy when using Big Data analysis in the audit process.
|
369 |
Digital Maturity in the Public Sector and Citizens’ Sentiment Towards Authorities : A study within the initiative Academy of Lifelong Learning, in partnership with RISE and GoogleCramner, Isabella January 2021 (has links)
This study was conducted in partnership with RISE and Google, within the initiative “Academy of Lifelong Learning”, aiming to propel the digital transformation in the Swedish public sector. The study investigated the digital maturity of 18 authorities in terms of maturity level (early, developing maturing), and within the driving areas (1) Citizen Centricity, (2) Leadership, (3) Digital Toolbox and (4) Security and Sustainability. Further, it explored how citizens’ sentiment towards public authorities relates to the organizations’ digital maturity scores. The results of a digital maturity survey showed that 16 of the 18 contributing organizations were developing, whereas two scored just enough to be classified as maturing. The organizations performed best within Security and Sustainability, and the worst within the category Digital Toolbox—where the biggest competence gaps were also identified. To unlock citizens’ sentiment towards the authorities, sentiment analysis was conducted on Facebook data. In a correlation analysis, a significant negative relationship was surprisingly found between (i) maturity score and (ii) sentiment score, as well as between (i) maturity score and (ii) positive comments. Presumably, this can be explained by citizens interacting the most with the more mature organizations and thus expressing their dissatisfaction more. However, more analysis is needed to draw conclusions. / Studien genomfördes i samarbete med RISE och Google inom initiativet ”Akademin för livslångt lärande” (Academy of Lifelong Learning), som syftar till att driva på den digitala transformationen i den svenska offentliga sektorn. Studien undersökte 18 myndigheters digitala mognad med fokus på mognadsnivå (early, developing maturing), och inom de drivande områdena (1) medborgarperspektivet, (2) ledarskap, (3) digitala verktygslådan och (4) säkerhet och hållbarhet. Vidare undersöktes medborgarnas attityder gentemot offentliga myndigheter i relation till organisationernas digitala mognad. Resultatet från mognadsundersökningen visade att 16 av de 18 medverkande organisationerna var developing, medan två organisationer precis kunde klassificeras som mature. Organisationerna presterade bäst inom säkerhet och hållbarhet och sämst inom kategorin digitala verktygslådan—där de största kompetensbristerna även identifierades. För att utvärdera medborgarnas attityder gentemot myndigheterna genomfördes en sentimentanalys baserat på data från Facebook. I en korrelationsanalys hittades överraskande nog en signifikant negativt samband mellan (i) digital mognad och (ii) sentimentpoäng, samt mellan (i) digital mognad och (ii) positiva kommentarer. Detta kan antagligen förklaras med att medborgarna interagerar mer med de mest mogna organisationerna och därmed är mer benägna att utrycka sitt missnöje gentemot dem. Ytterligare analys behövs dock för att kunna dra sådana slutsatser och förklara resultatet.
|
370 |
[pt] ATIVISMO TRANSNACIONAL NAS MÍDIAS SOCIAIS: UMA REVISÃO DA LITERATURA DO ATIVISMO DE MUDANÇAS CLIMÁTICAS / [en] TRANSNACTIONAL ACTIVISM IN SOCIAL MEDIA: A LITERATURE REVIEW OF CLIMATE CHANGE ACTIVISMROBERTA NADALUTTI LA ROVERE 27 May 2019 (has links)
[pt] Em sua expressão contemporânea, os processos de ativismo tornaram-se transnacionais, com suas causas, ações e organização realizados além dos limites das fronteiras nacionais, estabelecendo uma dinâmica com a lógica de horizontalidade da comunicação digital. Através da internet, os ativistas teriam mais possibilidades de estabelecer redes entre si, divulgar suas causas e ações, promover seu ponto de vista sobre os acontecimentos e gerar mais engajamento no debate público e na participação dos processos pelos cidadãos globais. Por isso, o objetivo deste trabalho é promover uma reflexão de como os artigos acadêmicos analisam casos específicos de ativismo transnacional e seus contextos sociopolíticos para que seja produzido um entendimento da forma e extensão dos potenciais de horizontalidade da internet que estão sendo concretizados. Essa reflexão foi baseada em duas perguntas de pesquisa: quem são os ativistas envolvidos no debate público de mudanças climáticas nas mídias sociais; e como a formação de redes de relacionamento entre ativistas no debate público promovido pelas mídias sociais é analisada pelos acadêmicos. Como conclusão, é possível encontrar indícios de quebra de agenda-setting, divulgação de novos enquadramentos de discurso, estabelecimento de redes epistêmicas complementares e organização transnacional e colaborativa de causas e ações de ativismo pela internet, apesar da análise de big data das mídias sociais ainda estar pouco aprofundada nesta área. / [en] In its contemporary form, the processes of activism became transnational, since its actions, causes and organization is done beyond the limit of national borders, establishing a dynamical relationship with the logics of digital communications. Using the internet, activists would have more possibilities of establishing networks of collaboration, publicize its causes and actions, promote specific points of view and generate more engagement in the public debate and more people to participate in activism. Therefore, the purpose of this work is to promote a brief review of how the academic literature is analyzing specific cases of transnational activism and its sociopolitical context to generate a better understanding of which and how the potentials of horizontalization from the internet are manifested. Two research questions are addressed: how are the actors of climate change activism analyzed in the social media data analysis of the literature, and how are the social networks of activists being explored. The conclusion is that it is possible to find evidences of activists breaking the agendasetting of traditional media, as well as promoting new framing of the discourse surrounding its actions and causes, new networks of collaboration and transnational and collaborative forms of organizing and creating actions through social media. However, big data analysis of activism processes in social media is still beginning and new research with more depth in the information analysis would benefit immensely in the comprehension of its dynamics
|
Page generated in 0.0707 seconds