• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 332
  • 31
  • 18
  • 11
  • 8
  • 8
  • 4
  • 3
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 476
  • 242
  • 198
  • 186
  • 160
  • 136
  • 127
  • 112
  • 104
  • 102
  • 86
  • 85
  • 84
  • 81
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Anpassning av en produktion

Rask, Kristofer, Boström, Frida January 2007 (has links)
Teknologin har gjort det lättare att nå ut till länder och regioner över hela världen. Det har resulterat i att media har kunnat lämna det lokala planet och nå ut till en större marknad än någonsin. I den här uppsatsen kommer vi att granska hur mediebolagens produktioner ändras när de når ut till främmande områden för att fungera på den nya marknaden. Uppsatsen tittar också på hur nyhetsbolag bevakar olika händelser beroende på om den utspelar sig på ett lokalt eller globalt plan. Resultatet pekar på att de främsta anpassningarna görs på grund av respekt mot gamla traditioner som religion. Vid nyhetsbevakningen hos mediebolagen är det tydligt att mallar för nyhetsvärdeinger stämmer väl överrens med hur bevakningen görs.
142

Al-Jazeera och CNN - En jämförande fallstudie i krigsjournalistik

Gustafsson, Magnus, Hagel, Niclas January 2009 (has links)
Författare: Magnus Gustafsson Niclas Hagel Handledare: Thomas Knoll Examinator: Martin Danielsson Titel: Al-Jazeera och CNN - En jämförande fallstudie i krigsjournalistik Typ av rapport: C - uppsats Ämne: Medie- och Kommunikationsvetenskap År: Höstterminen 2008 Sektion: Sektionen för Hälsa och Samhälle Syfte: Vårt syfte är att studera och jämföra al-Jazeeras och CNN:s bevakning av en händelse i Afghanistankonflikten för att kunna redogöra för eventuella skillnader. Vi vill se hur olika faktorer påverkar journalistiken. En analys ur ett genusperspektiv kommer också att göras. Metod: Fallstudie har tillämpats som huvudsaklig metod och vid analys av material har innehållsanalys och kritisk diskursanalys använts. Slutsatser: Efter att ha jämfört de två nyhetskanalerna kan vi tydligt se att det finns stora skillnader i rapporteringen av ett amerikanskt flyganfall mot en afghansk by. CNN som amerikansk nyhetskanal visar att deras rapportering påverkas av det amerikanska medieklimatet där en neutral krigsrapportering kan ses som stötande och journalister ständigt utsätts för påtryckningar. Ur ett genusperspektiv ser vi dock tydliga likheter mellan kanalerna.
143

Anpassning av en produktion

Rask, Kristofer, Boström, Frida January 2007 (has links)
<p>Teknologin har gjort det lättare att nå ut till länder och regioner över hela världen. Det har resulterat i att media har kunnat lämna det lokala planet och nå ut till en större marknad än någonsin. I den här uppsatsen kommer vi att granska hur mediebolagens produktioner ändras när de når ut till främmande områden för att fungera på den nya marknaden.</p><p>Uppsatsen tittar också på hur nyhetsbolag bevakar olika händelser beroende på om den utspelar sig på ett lokalt eller globalt plan.</p><p>Resultatet pekar på att de främsta anpassningarna görs på grund av respekt mot gamla traditioner som religion. Vid nyhetsbevakningen hos mediebolagen är det tydligt att mallar för nyhetsvärdeinger stämmer väl överrens med hur bevakningen görs.</p>
144

Characterization of creping marks in paper

Strömberg, Isak January 2018 (has links)
The cost and environmental damage of reclaims is a large problem within thepaper industry. With certain types of paper, so called crepe marks on the paper’ssurface is a common issue, leading to printing defects and consequentlyreclaims. This thesis compares four different image analysis methods for evaluatingcrepe marks and predicting printing results. The methods evaluated consistsof one established methods, two adaptations of established methods andone novel method. All methods were evaluated on the same data, topographicheight images of paper samples from 4 paper rolls of similar type but differingin roughness. The method based on 1D Fourier analysis and the method basedon fully convolutional networks performs best, depending on if speed or detailedcharacteristics is a priority.
145

Semantic Text Matching Using Convolutional Neural Networks

Wang, Run Fen January 2018 (has links)
Semantic text matching is a fundamental task for many applications in NaturalLanguage Processing (NLP). Traditional methods using term frequencyinversedocument frequency (TF-IDF) to match exact words in documentshave one strong drawback which is TF-IDF is unable to capture semanticrelations between closely-related words which will lead to a disappointingmatching result. Neural networks have recently been used for various applicationsin NLP, and achieved state-of-the-art performances on many tasks.Recurrent Neural Networks (RNN) have been tested on text classificationand text matching, but it did not gain any remarkable results, which is dueto RNNs working more effectively on texts with a short length, but longdocuments. In this paper, Convolutional Neural Networks (CNN) will beapplied to match texts in a semantic aspect. It uses word embedding representationsof two texts as inputs to the CNN construction to extract thesemantic features between the two texts and give a score as the output ofhow certain the CNN model is that they match. The results show that aftersome tuning of the parameters the CNN model could produce accuracy,prediction, recall and F1-scores all over 80%. This is a great improvementover the previous TF-IDF results and further improvements could be madeby using dynamic word vectors, better pre-processing of the data, generatelarger and more feature rich data sets and further tuning of the parameters.
146

UX-verktyg för prototyputveckling med AI-baserat automationsstöd för omvandling av skisser till gränssnittskomponenter / UX-tool for prototyping with AI-based automation support for transformation of sketches to User Interface components

Aldén, Fanny, Juopperi, Emil January 2018 (has links)
Att skapa prototyper för att testa idéer är vanligt, oavsett vad det är som ska testas. Prototyper kan förekomma i oändligt olika former och vara mer eller mindre verklighetstrogna. Hur verklighetstrogen en prototyp är beror på vad som ska testas och hur mycket tid som läggs på prototypskapandet. I teknikbranschen är prototyperna vanligen digitala och skapas med prototypprogram. Eftersom tid är pengar så försöker företag effektivisera prototyprocessen genom att utforska nya tekniker, som exempelvis artificiell intelligens. Syftet med examensarbetet som beskrivs i den här rapporten är att undersöka hur ett prototypverktyg med automation bör utformas samt vilka eventuella användningsområde verktyget har. Under examensarbetet genomfördes intervjuer med anställda på konsultföretaget Exsitec. Syftet med intervjuerna var att ta reda på hur Exsitec arbetar med prototyper i uppstarten av sina projekt. Med hjälp av informationen identifierades svårigheter i arbetsprocessen. Utifrån den informationen utvecklades prototypverktyget ProtoDraw. Verktyget är utrustat med artificiell intelligens, som känner igen skisser och ger utifrån dem rekommendationer på webbkomponenter. Prototypverktyget utvecklades, tränades och testades som en del av fallstudien. Målet med fallstudien var att testa användares förtroende för verktyget samt hur förtroendet berodde på verktygets automationsnivå. Prototypverktyget utrustades med tre automationsnivåer interaktionsmodell A, interaktionsmodell B och interaktionsmodell C. Interaktionsmodell A gav alla förslag till användaren och rekommenderade de mest lika komponenterna genom att rama in dem. I interaktionsmodell B fick användaren endast de tre bästa resultaten. I interaktionsmodell C fick användaren endast ett förslag från automationen. Totalt genomfördes 15 användartester, fem stycken på varje nivå. Resultatet från användartesterna visade att interaktionsmodell B hade högst och stadigast förtroende. Interaktionsmodell B var även nivån som användarna ansåg var mest användbar. Trots detta var A nivån som användarna utförde uppgifterna i användartesterna på kortast tid. C hade den långsammaste tiden och det berodde på att den höga automationsnivån bidrog till att gränssnittet blev känsligt för fel.
147

Shithole Countries: An Analysis of News Coverage in the U.S.

Olubela, Murewa O. 22 March 2018 (has links)
This research paper studied the first two weeks after President Donald Trump allegedly called African countries “shithole countries” in a bi-partisan meeting on immigration. It explored the frames and emerging themes used by the media when covering the incident and the surrounding issues. Using the framing theory as a theoretical framework, the study examined the six identified news frames through qualitative content analysis. The six frames used in the coverage of the “shithole countries” incident are racial, conflict, consequences, morality, human interest, and policy. The study examined articles from four news sources that lean liberal, conservative, central-liberal, and central conservative. The study indicated that the four news sources all used five of the six frames, as the Wall Street Journal did not use the morality frame at all. The most used frame was the human interest frame, followed by conflict and consequences. The New York Times and the Wall Street Journal used the conflict frame the most. And CNN and FOX used the consequences frame the most.
148

Object detection in refrigerators using Tensorflow

Agarwal, Kirti 02 January 2019 (has links)
Object Detection is widely used in many applications such as face detection, detecting vehicles and pedestrians on streets, and autonomous vehicles. Object detection not only includes recognizing and classifying objects in an image, but also localizes those objects and draws bounding boxes around them. Therefore, most of the successful object detection networks make use of neural network based image classifiers in conjunction with object detection techniques. Tensorflow Object Detection API, an open source framework based on Google's TensorFlow, allows us to create, train and deploy object detection models. This thesis mainly focuses on detecting objects kept in a refrigerator. To facilitate the object detection in a refrigerator, we have used Tensorflow Object Detection API to train and evaluate models such as SSD-MobileNet-v2, Faster R-CNN-ResNet-101, and R-FCN-ResNet-101. The models are tested as a) a pre-trained model and b) a fine-tuned model devised by fine-tuning the existing models with a training dataset for eight food classes extracted from the ImageNet database. The models are evaluated on a test dataset for the same eight classes derived from the ImageNet database to infer which works best for our application. The results suggest that the performance of Faster R-CNN is the best on the test food dataset with a mAP score of 81.74%, followed by R-FCN with a mAP of 80.33% and SSD with a mAP of 76.39%. However, the time taken by SSD for detection is considerably less than the other two models which makes it a viable option for our objective. The results provide substantial evidence that the SSD model is the most suitable model for deploying object detection on mobile devices with an accuracy of 76.39%. Our methodology and results could potentially help other researchers to design a custom object detector and further enhance the precision for their datasets. / Graduate
149

iGen: Toward Automatic Generation and Analysis of Indicators of Compromise (IOCs) using Convolutional Neural Network

January 2017 (has links)
abstract: Field of cyber threats is evolving rapidly and every day multitude of new information about malware and Advanced Persistent Threats (APTs) is generated in the form of malware reports, blog articles, forum posts, etc. However, current Threat Intelligence (TI) systems have several limitations. First, most of the TI systems examine and interpret data manually with the help of analysts. Second, some of them generate Indicators of Compromise (IOCs) directly using regular expressions without understanding the contextual meaning of those IOCs from the data sources which allows the tools to include lot of false positives. Third, lot of TI systems consider either one or two data sources for the generation of IOCs, and misses some of the most valuable IOCs from other data sources. To overcome these limitations, we propose iGen, a novel approach to fully automate the process of IOC generation and analysis. Proposed approach is based on the idea that our model can understand English texts like human beings, and extract the IOCs from the different data sources intelligently. Identification of the IOCs is done on the basis of the syntax and semantics of the sentence as well as context words (e.g., ``attacked'', ``suspicious'') present in the sentence which helps the approach work on any kind of data source. Our proposed technique, first removes the words with no contextual meaning like stop words and punctuations etc. Then using the rest of the words in the sentence and output label (IOC or non-IOC sentence), our model intelligently learn to classify sentences into IOC and non-IOC sentences. Once IOC sentences are identified using this learned Convolutional Neural Network (CNN) based approach, next step is to identify the IOC tokens (like domains, IP, URL) in the sentences. This CNN based classification model helps in removing false positives (like IPs which are not malicious). Afterwards, IOCs extracted from different data sources are correlated to find the links between thousands of apparently unrelated attack instances, particularly infrastructures shared between them. Our approach fully automates the process of IOC generation from gathering data from different sources to creating rules (e.g. OpenIOC, snort rules, STIX rules) for deployment on the security infrastructure. iGen has collected around 400K IOCs till now with a precision of 95\%, better than any state-of-art method. / Dissertation/Thesis / Masters Thesis Computer Science 2017
150

Intravenous bag monitoring with Convolutional Neural Networks

Svensson, Göran, Westlund, Jonas January 2018 (has links)
Drip bags are used in hospital environments to administerdrugs and nutrition to patients. Ensuring that they are usedcorrectly and are refilled in time are important for the safetyof patients. This study examines the use of a ConvolutionalNeural Network (CNN) to monitor the fluid levels of drip bagsvia image recognition to potentially form the base of an earlywarning system, and assisting in making medical care moreefficient. Videos of drip bags were recorded as they wereemptying their contents in a controlled environment and fromdifferent angles. A CNN was built to analyze the recordeddata in order to predict a bags fluid level with a 5% intervalprecision from a given image. The results show that the CNNused performs poorly when monitoring fluid levels in dripbags.

Page generated in 0.0516 seconds