• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 65
  • 62
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 139
  • 84
  • 43
  • 37
  • 31
  • 27
  • 25
  • 23
  • 20
  • 19
  • 19
  • 18
  • 17
  • 16
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
81

Abordagem clássica e Bayesiana em modelos simétricos transformados aplicados à estimativa de crescimento em altura de Eucalyptus urophylla no Polo Gesseiro do Araripe-PE

BARROS, Kleber Napoleão Nunes de Oliveira 22 February 2010 (has links)
Submitted by (ana.araujo@ufrpe.br) on 2016-08-01T17:35:24Z No. of bitstreams: 1 Kleber Napoleao Nunes de Oliveira Barros.pdf: 2964667 bytes, checksum: a3c757cb7ed16fc9c38b7834b6e0fa29 (MD5) / Made available in DSpace on 2016-08-01T17:35:24Z (GMT). No. of bitstreams: 1 Kleber Napoleao Nunes de Oliveira Barros.pdf: 2964667 bytes, checksum: a3c757cb7ed16fc9c38b7834b6e0fa29 (MD5) Previous issue date: 2010-02-22 / It is presented in this work the growth model nonlinear Chapman-Richards with distribution of errors following the new class of symmetric models processed and Bayesian inference for the parameters. The objective was to apply this structure, via Metropolis-Hastings algorithm, in order to select the equation that best predicted heights of clones of Eucalyptus urophilla experiment established at the Agronomic Institute of Pernambuco (IPA) in the city of Araripina . The Gypsum Pole of Araripe is an industrial zone, located on the upper interior of Pernambuco, which consumes large amount of wood from native vegetation (caatinga) for calcination of gypsum. In this scenario, there is great need for a solution, economically and environmentally feasible that allows minimizing the pressure on native vegetation. The generus Eucalyptus presents itself as an alternative for rapid development and versatility. The height has proven to be an important factor in prognosis of productivity and selection of clones best adapted. One of the main growth curves, is the Chapman-Richards model with normal distribution for errors. However, some alternatives have been proposed in order to reduce the influence of atypical observations generated by this model. The data were taken from a plantation, with 72 months. Were performed inferences and diagnostics for processed and unprocessed model with many distributions symmetric. After selecting the best equation, was shown some convergence of graphics and other parameters that show the fit to the data model transformed symmetric Student’s t with 5 degrees of freedom in the parameters using Bayesian inference. / É abordado neste trabalho o modelo de crescimento não linear de Chapman-Richards com distribuição dos erros seguindo a nova classe de modelos simétricos transformados e inferência Bayesiana para os parâmetros. O objetivo foi aplicar essa estrutura, via algoritmo de Metropolis-Hastings, afim de selecionar a equação que melhor estimasse as alturas de clones de Eucalyptus urophilla provenientes de experimento implantado no Instituto Agronômico de Pernambuco (IPA), na cidade de Araripina. O Polo Gesseiro do Araripe é uma zona industrial, situada no alto sertão pernambucano, que consume grande quantidade de lenha proveniente da vegetação nativa (caatinga) para calcinação da gipsita. Nesse cenário, há grande necessidade de uma solução, econômica e ambientalmente, viável que possibilite uma minimização da pressão sobre a flora nativa. O gênero Eucalyptus se apresenta como alternativa, pelo seu rápido desenvolvimento e versatilidade. A altura tem se revelado fator importante na prognose de produtividade e seleção de clones melhores adaptados. Uma das principais curvas de crescimento, é o modelo de Chapman- Richards com distribuição normal para os erros. No entanto, algumas alternativas tem sido propostas afim de reduzir a influência de observações atípicas geradas por este modelo. Os dados foram retirados de uma plantação, com 72 meses. Foram realizadas as inferências e diagnósticos para modelo transformado e não transformado com diversas distribuições simétricas. Após a seleção da melhor equação, foram mostrados alguns gráficos da convergência dos parâmetros e outros que comprovam o ajuste aos dados do modelo simétrico transformado t de Student com 5 graus de liberdade utilizando inferência Bayesiana nos parâmetros.
82

Maskininlärning i fastighetsbranschen : Prediktion av felanmälningar gällande inomhusklimat baserat på sensordata / Machine learning in the real estate industry : Predictions of error reportings regarding indoor climate based on sensor data

Schnackenburg, Ellen Cecilia, Leife, Karl January 2017 (has links)
This thesis investigates the prerequisites needed for the Swedish real estate company Fabege to create useful machine learning models for classification and prediction of error reports from tenants. These error reports are regarding cold indoor climates and bad indoor air quality. By analyzing the available data, that consists of error reporting data, weather data and indoor climate data, the thesis investigates the different correlations between the sensor data and the error reports. By using an algorithm called decision jungle, two machine learning models have been trained in Microsoft Azure Machine Learning Studio. The main model, trained on error reporting data and weather data, shows the possibilities to classify data instances as a part of different error reporting classes. The model proves that it is possible to predict the emergence of future error reports of different classes with an average accuracy of 78%. The complementary model, trained on a small but more richly annotated dataset consisting of one year of indoor sensor data as well as the above-mentioned data, shows that there is a possibility to improve the main model by using indoor climate data. The thesis has shown that for Fabege to expand and improve these models, the amount of data collected from the indoor sensors needs to be largely increased. Fabege also needs to improve the quality of the error reporting data, which could be achieved by improving the error reporting form used by the tenants.
83

Self-Adaptive Algorithm for Warehouse Truck Speed Measurement with Accelerometer / Adaptiv algoritm för accelerometerlös mätning av hastighet av lagertruckar

Zhao, Shuqi January 2015 (has links)
Warehouse trucks are now a practical equipment for lifting and moving goods in warehouses. The working situation for warehouse trucks is complicated. Spilling of machine oil or liquid product leads to low friction coefficient of the floor. Warehouse floors are normally made of concrete. Smooth concrete floors easily become slippery with liquid on the surface. With several tons of load on the fork, the braking distance is longer. An Anti-lock Braking System(ABS) for the truck control system is needed concerning the safety of the operator and people surrounding the truck. The warehouse truck braking is realized by controlling the motor torque. In order to control the torque, the truck wheel slip ratio is needed. With an accurate slip ratio, the control system will have accurate information regarding the vehicle status. To calculate the slip ratio, both the vehicle speed and wheel speed is needed. The wheel speed is derived from the motor speed. The vehicle speed is the challenge of this project. For normal passenger vehicles, sensors are installed on the trailer wheel where no slip occurs. In this case, the requirement is to use a lower number of sensors. There are two reasons of this requirement. It reduces the installation complexity and the cost of the control system. According to the literature study, a sensorless ABS system is impossible realize. Without sensor, it is not possible to estimate the vehicle status. One accelerometer is used in this project. An algorithm is designed and implemented in MATLAB. This algorithm solves the problem with zero-point drifting. Additional features are also added to the algorithm. The algorithm is a self-adaptive algorithm. It operates independently of the installation position of the accelerometer, without additional sensors. The result of the experiment with real measurements is very good. Future work on how to rewrite the algorithm from MATLAB programming to C programming is suggested in the end. Methods of implementation of the algorithm are also recommended. / Lagertruckar är en praktisk utrustning för att lyfta och flytta gods på ett lager. Arbetssituationen för en lagertruck är komplicerad. Oljespill eller spill av vätskor i allmänhet innebär att friktionskoefficienten för golvet blir låg. En förklaring till att golvet påverkas mycket av spill är att ytan är mycket slät eftersom den vanligvis är ett obehandlat betonggolv. Med flera ton last på gaffeln kan bromssträckan bli avsevärt längre om golvet är halt. För att uppnå tillräcklig säkerhet för föraren och personer i truckens omgivning skulle ett anti-låsningssystem (ABS) för bromsfunktionen vara nödvändig. Bromsfunktionen hos lagertrucken ombesörjs genom styrning av motormomentet. För detta ändamål är det nödvändigt att känna till drivhjulets âslipâ. Om denna storhet är känd med god noggrannhet kan styrsystemet få god information om fordonets status. För att kunna bestämma drivhjulets âslipâ krävs information om såväl fordonets hastighet som drivhjulets varvtal. Drivhjulets varvatl kan bestämmas mha motorvarvtalet. Fordonets hastighet är utmaningen i detta arbete. För normala passagerarfordon installeras varvtalsgivare på ett hjul som inte har drivning, eftersom detta inte har något âslipâ. I detta fall krävs emellertid att ett lägre antal sensorer ska användas. Det finns två skäl till detta krav. För det första minskas komplexiteten av installationen och för det andra minskas kostnaden. Enligt litteraturstudien är det omöjligt att realisera ett sensorlöst ABS-system. Utan givare kan fordonets status inte bestämmas. I detta projekt används därför en accelerometer. En algoritm har tagits fram och implementerats i MATLAB. Denna algoritm löser problemet med s.k. âzero-point driftningâ. Ytterligare funktioner har också lagts till i algoritmen. Algoritmen är själv-uppdaterande. Den fungerar oberoende av positionen av acelerometern utan ytterligare sensorer. Resultatet av mätningen en mycket bra. I framtiden kan MATLAB-koden ersättas med C-kod. Metoder för implementering av algoritmen föreslås också.
84

Feasibility study of initial orbit determination with open astronomical data / Studie av initial banbestämning med öppen astronomisk data

Mattsson, Linn January 2022 (has links)
In this report I present a feasibility study of using open astronomical data to make Initial Orbit Determination (IOD) for Resident Space Objects (RSO) appearing as streaks in telescope images. The purpose is to contribute to Space Surveillance and Tracking (SST) for maintaining Space Situation Awareness (SSA). Data from different wide-field survey telescopes were considered but due to availability constraints only mask images from Zwicky Transient Facility (ZTF) survey were chosen for the analysis. An algorithm was developed to detect streaks in the mask images and match them to RSO known to be within the Field of View (FoV) at the observation time. Further, the IOD was made with angles-only Laplace’s method and the state vectors calculated for the streaks from the IOD were compared to those from the TLE for the matching RSO. The algorithm was tested with 6 different image fields acquired between the 14th to the 16th December 2019, of which 4 are characterised as non-crowded and 2 as crowded. The streak finding algorithm has a better precision and sensitivity for the non-crowded field, with an F1-score of 0.65, but is worse for the crowded fields with an F1-score of 0.035. In the non-crowded fields 95% of all streak and object matches are true matches to unique RSO, while for the crowded field only 10% are true matches. It was found that the 1''/pixel resolution in the images is too low for doing an IOD with Laplace’s method, despite how well the streak finding algorithm performs. However, with some improvements, the method is suitable as a cost effective way to verify known RSO in catalogues. / I den här rapporten presenterar jag en studie om att använda öppen astronomiska data för att göra initial banbestämning för artificiella rymdobjekt avbildade som streck i teleskopbilder. Syftet är att tillhandahålla information för att upprätthålla en god rymdlägesbild. Data från olika kartläggnings teleskop övervägdes men på grund av begränsningar i tillgänglighet valdes endast mask-bilderna från Zwicky Transient Facility för analysen. En algoritm utvecklades för att upptäcka streck i mask-bilderna och matcha dem med kända objekt i bildens synfält vid observationstillfället. Vidare gjordes den initiala banbestämningen med Laplaces metod, som använder vinkelkoordinaterna för streckens position vid observationen. Tillståndsvektorerna för strecken och de matchade objekten jämfördes, de beräknades från den initiala banbestämningen respektive objektets TLE. Algoritmen testades med 6 olika bildfält från observationsdatum mellan den 14:e till den 16:e december 2019, av dessa karakteriseras 4 som glesa och 2 som fyllda. Algoritmen för streck detektering har bättre precision och känslighet för de glesa fälten, med ett F1-värde på 0.65, men sämre för de fulla fälten med ett F1-värde på 0.035. I de glesa fälten är 95% av alla streck- och objektmatchningar korrekta matchningar med unika objekt, medan för det fulla fälten är endast 10% korrekta matchningar. Det visar sig att upplösningen på 1''/pixel i bilderna är för låg för att göra en initial banbestämning med Laplaces metod, oavsett hur bra algoritmen för streck detektering presterar. Genom att göra vissa förbättringar i algoritmen är metoden lämplig för att, på ett kostnadseffektivt sätt, verifiera kända objekt i kataloger.
85

Representation and Efficient Computation of Sparse Matrix for Neural Networks in Customized Hardware

Yan, Lihao January 2022 (has links)
Deep Neural Networks are widely applied to various kinds of fields nowadays. However, hundreds of thousands of neurons in each layer result in intensive memory storage requirement and a massive number of operations, making it difficult to employ deep neural networks on mobile devices where the hardware resources are limited. One common technique to address the memory limitation is to prune and quantize the neural networks. Besides, due to the frequent usage of Rectified Linear Unit (ReLU) function or network pruning, majority of the data in the weight matrices will be zeros, which will not only take up a large amount of memory space but also cause unnecessary computation operations. In this thesis, a new value-based compression method is put forward to represent sparse matrix more efficiently by eliminating these zero elements, and a customized hardware is implemented to realize the decompression and computation operations. The value-based compression method is aimed to replace the nonzero data in each column of the weight matrix with a reference value (arithmetic mean) and the relative differences between each nonzero element and the reference value. Intuitively, the data stored in each column is likely to contain similar values. Therefore, the differences will have a narrow range, and fewer bits rather than the full form will be sufficient to represent all the differences. In this way, the weight matrix can be further compressed to save memory space. The proposed value-based compression method reduces the memory storage requirement for the fully-connected layers of AlexNet to 37%, 41%, 47% and 68% of the compressed model, e.g., the Compressed Sparse Column (CSC) format, when the data size is set to 8 bits and the sparsity is 20%, 40%, 60% and 80% respectively. In the meanwhile, 41%, 53% and 63% compression rates of the fully-connected layers of the compressed AlexNet model with respect to 8-bit, 16-bit and 32-bit data are achieved when the sparsity is 40%. Similar results are obtained for VGG16 experiment. / Djupa neurala nätverk används i stor utsträckning inom olika fält nuförtiden. Emellertid ställer hundratusentals neuroner per lager krav på intensiv minneslagring och ett stort antal operationer, vilket gör det svårt att använda djupa neurala nätverk på mobila enheter där hårdvaruresurserna är begränsade. En vanlig teknik för att hantera minnesbegränsningen är att beskära och kvantifiera de neurala nätverken. På grund av den frekventa användningen av Rectified Linear Unit (ReLU) -funktionen eller nätverksbeskärning kommer majoriteten av datat i viktmatriserna att vara nollor, vilket inte bara tar upp mycket minnesutrymme utan också orsakar onödiga beräkningsoperationer. I denna avhandling presenteras en ny värdebaserad komprimeringsmetod för att representera den glesa matrisen mer effektivt genom att eliminera dessa nollelement, och en anpassad hårdvara implementeras för att realisera dekompressions- och beräkningsoperationerna. Den värdebaserade komprimeringsmetoden syftar till att ersätta icke-nolldata i varje kolumn i viktmatrisen med ett referensvärde (aritmetiskt medelvärde) och de relativa skillnaderna mellan varje icke-nollelement och referensvärdet. Intuitivt kommer data som lagras i varje kolumn sannolikt att innehålla liknande värden. Därför kommer skillnaderna att ha ett smalt intervall, och färre bitar snarare än den fullständiga formen kommer att räcka för att representera alla skillnader. På så sätt kan viktmatrisen komprimeras ytterligare för att spara minnesutrymme. Den föreslagna värdebaserade komprimeringsmetoden minskar minneslagringskravet för de helt anslutna lagren av AlexNet till 37%, 41%, 47% och 68% av den komprimerade modellen, t.ex. Compressed Sparse Column (CSC) format, när datastorleken är inställd på 8 bitar och sparsiteten är 20%, 40%, 60% respektive 80%. Under tiden uppnås 41%, 53% och 63% komprimeringshastigheter för de helt anslutna lagren i den komprimerade AlexNet-modellen med avseende på 8- bitars, 16-bitars och 32-bitars data när sparsiteten är 40%. Liknande resultat erhålls för VGG16-experiment.
86

Development of algorithm for a mobile-based estimation of heart rate / Utveckling av algoritm för en mobilbaserad pulsuppskattning

Håkansson, Dennis, Lövberg, Johan January 2021 (has links)
To perform a physical performance test is a good way to keep track of one’s health and can be beneficial to find evidence of deviations in the body. This thesis focuses on the development of a mobile-based heart rate algorithm that can be used with the Queens College Step Test, on the behalf of Mobistudy. Mobistudy wants to include such a test in their mobile application which aims to become a tool for researchers to use to gather data. The algorithm uses the mobile device’s camera to collect data from the user’s finger and uses that data to calculate the heart rate. The algorithm was first tested with data collected during the development and the results has an average error of less than 5% and a standard deviation of less than 3%. Two participants between the age of 20-25 performed three sets each of the Queens College Step Test and the results showed that the algorithm was accurate in its estimation of the heart rate after the test. / Genom att utföra ett test av ens fysiska prestanda kan man utvärdera ens hälsostatus och upptäcka indikationer på avvikelser i kroppen. Syftet med detta arbete är att utveckla en mobilbaserad algoritm som kan beräkna och uppskatta ens puls när man utför the Queens College Step Test på begäran av Mobistudy. Mobistudy vill inkludera detta test i deras mobilapplikation som fokuserar på att kunna användas som ett verktyg inom forskning för att samla in data. Algoritmen använder sig av mobilens kamera för att samla in data från användarens finger och använder den insamlade data för att beräkna pulsen. Algoritmen testades först gentemot data som samlades in vid utvecklingsstadiet och resultatet visade på att genomsnittliga felet var under 5% samt att standardavvikelsen var under 3%. Två deltagare mellan åldern 20 och 25 utförde tre tester var utav the Queens College Step Test och resultatet visade att algoritmen var tillräckligt noggrann i sin uppskattning av pulsen efter ett utfört test.
87

Rätten till algoritmisk förståelse : Om insyn i automatiserat beslutsfattande inom offentlig förvaltning / The right to algorithmic understanding : Transparency in automated decision making within public administration

Nygårds, Stina January 2022 (has links)
Automated decision making (ADM) is not a new phenomenon within public administration. Millions of automated decisions are made each year, including matters on parental benefits, social security benefits and income tax. ADM is used increasingly within both government agencies and municipal agencies. In light of this development, it becomes vital to have legal mechanisms in place which ensure transparency in automated decision making. This is to make sure that decisions are correct and that the systems work in compliance with procedural safeguards such as objectivity and impartiality. This begs the question of whether new legal solutions are needed to secure transparency of automated decisions. Current ADM systems within public administration are based on static algorithms that cannot change unless they are programmed to do so. Robotic Process Automation (RPA) is such a technology, commonly used by municipal agencies. Given the development within artificial intelligence (AI), ADM systems based on AI might be the next step. Then again, taking into account the extensive problems with the non-transparency of the “black box” of AI makes this technology rather unfit for decision making within public administration. The legal system provides different ways for citizens to obtain insight into and control of public administration. The principle of public access to information provides a right for all to access official documents. The Administrative Procedure Act (2017:900) provides access to information for the party concerned with a matter and the General Data Protection Regulation (GDPR) of the EU gives a right to information for data subjects. These rights to information can be restricted, for example by provisions on secrecy. However, the legal rights to information do not secure a comprehensive or direct transparency of the workings of ADM systems within public administration. The kind of transparency provided is rather a transparency by proxy, an indirect transparency that substitutes for a direct and functional one. For example, the provisions of the Administrative Procedure Act are not adapted to ADM, and the application of the right to access official documents entails inconsistencies. If information is provided to a citizen, there is no guarantee of understanding for example a description of an algorithm. To create a direct and functional transparency of automated decisions and the workings of ADM systems, it is vital for law and technology to evolve in interplay. A general discussion of public access to ADM systems and their implications on public trust and the rule of law is also of the essence.
88

Oven Usage Optimization : A study on scheduling at the wear edge production at Olofsfors AB / Optimering av ugnsanvändning : En studie av slitstålproduktionen hos Olofsfors AB

Karlsson, Anna January 2023 (has links)
Olofsfors is a steel product manufacturer in Nordmaling, Sweden, producing steel edges for snowplows, tracks for forest machines, and wear edges for buckets on heavy equipment. Most of their products are heated to 900◦ C and then cooled down in water, so-called quenching, during the hardening process. A group of ovens and quench machines together form an oven system and this is used for the hardening. Since it takes a long time for the ovens to reach operating temperature, they are always kept on, which is why it is important to utilize them as effectively as possible. This project investigates the potential utilization increase of one of the three oven systems in the wear edge production unit. This oven system is part of a production line that consists of a saw and a mill, and can process products up to two meters in length, and is hereon called the two-meter line. The two-meter line has a natural inflow through the saw, but raw material produced in other parts of the factory can also be fetched from another inlet. The use of the other inlet is limited by the operator of the two-meter line who has to fetch the material with a forklift. This could be automated so that the operator would not have to handle this inlet. The purpose is to investigate the potential increases in utilization of the oven system for different degrees of automation in order to make the most of the machines and the operator at the two-meter line. In the end, a recommendation is given with a set of ideal properties of the investment that could improve productivity the most. The main method applied in order to explore the potential use of the oven system is a re-entrant flow shop scheduling model. As preceding steps, the production line is first mapped in order to find potential routes for different product families, then the order quantities in the production data are translated into jobs to be scheduled with the help of packing problems and batching rules. The scheduling model of the production line is then solved heuristically with a genetic algorithm based on the sequence of jobs entering the production line followed by a method for creating a deterministic schedule based on this initial sequence of jobs. Lastly, a sensitivity analysis is applied to the processing time for the steps performed by the operator to evaluate the results' robustness. The conclusion is that there is a substantial potential to increase the utilization of the oven system of the two-meter line. The largest potential is when the operator is not actively working at the production line; a maximum of 15.6 h on average. There does also exist a potential to increase utilization while the operator is working at the production line; a maximum of 3.9 h on average. The automation degree needed is high in both cases but due to different reasons. When the operator is not working, the automatic solution needs to work without supervision for longer periods of time, while, in the other case, it needs to be smart enough to adjust to not disturb the operator’s work. For the future, the recommendation is to focus the next step on finding investment options that could exploit the time when the operator is not working. By further specifying the potential investment alternatives, the cost factor can be added to the analysis as well. / Olofsfors AB är en stålproduktstillverkare i Nordmaling, Sverige, som producerar vägstål till bland annat snöplogar, band till skogsmaskiner och slitstål till entreprenadmaskiner. De flesta av deras produkter hettas upp till 900 C och släcks sedan i vatten under härdningsprocessen. En grupp av ugnar och härdmaskiner kallas tillsammans för ett ungsystem och det används till härdningen. Eftersom det tar lång tid att värma upp ugnarna står de alltid på-slagna och det är därför viktigt att använda dem så effektivt som möjligt.  I detta projekt har potentialen att öka användandet av ett av tre ugnsystem i slitstålsproduktionen undersökts.  Ugnsystemet i fråga är en del av en produktionslinje som också består av en såg och en fräs och kan härda artiklar med längder upp till två meter och kallas därför här tvåmeterslinjen. Den naturliga ingången för råmaterial i produktionslinjen är genom sågen, men det finns även en alternativ ingång för råmaterial som förbehandlats i tidigare produktionssteg i fabriken. Användandet av den andra ingången till produktionlinjen begränsas av att operatören i produktionslinjen måste hämta materialet med truck. Detta in-flöde skulle gå att automatisera så att operatören inte skulle behöva hämta dessa artiklar.  Syftet är att undersöka det potentiella ökade nyttjandet av ugnsystemet för olika grader av automation för att bäst använda maskiner och operatör i tvåmeterslinjen. I slutet ges en rekommendation gällande vilka egenskaper investeringen bör ha för att öka produktiviteten mest.  Huvudmetoden för att undersöka möjligt ökat nyttjande av ugnarna är en schemaläggningsmodel. Som underliggande steg kartläggs först produktionslinjen och de olika rutter som olika produktfamiljer tar genom produktionslinjen. Produktkvantiteterna för varje order i produktionsdatan omvandlas sedan till jobb som kan schemaläggas genom packningsproblem och regler för laststorlekar i de olika maskinerna. Schemaläggningsmodellen löses sedan heuristiskt med hjälp av en genetisk algoritm som bestämmer den initiala sekvensen av jobben i första steget, tillsammans med en deterministisk metod för att skapa ett helt schema baserat på den initiala sekvensen av jobben. Slutligen genomförs en känslighetsanalys på processtiderna för steg som motsvarar operatören för att undersöka hur robust resultatet är.    Slutsatsen är att det finns en stor potential att öka nyttjandet av ugnsystemet i tvåmeterslinjen. Den största potentialen är när operatören inte arbetar aktivt vid produktionslinjen, med ett maximum på ca 15,6 h per dag. Det finns också en möjlighet att utöka nyttjandet av ugnarna under tiden som operatören arbetar aktivt med ordrar och outnyttjad tid då är 3,9 h i genomsnitt. Graden av automation är hög oberoende av vilken tid som ska utnyttjas men på grund av olika anledning. Om tiden då operatören inte aktivt jobbar utnyttjas, måste den automatiserade lösningen fungera autonomt under längre tid. Om den istället förväntas fungera parallellt med operatören måste den anpassas smart så att den inte stör operatörens arbete och flöde. Rekommendationen är att fokusera på att hitta konkreta investeringsalternativ som utnyttjar tiden då operatören inte aktivt arbetar för att få bättre kostnadsunderlag att ha med i den vidare analysen.
89

Displacement i hälsenan under löpning med olika skor : Analys med hjälp av speckle tracking-algoritm / Displacement in Achilles Tendon During Running with Different Shoes : Analysis with Speckle Tracking Algorithm

Kaewkam, Natthaphong, Öberg, Joakim January 2023 (has links)
Hälsenan har en viktig roll för motoriken av underbenet samt rörelse vid gång och löpning. I och med detta sker det en stor belastning på hälsenan vid gång och löpning vilket kan leda till bristningar och skador på senan. Dessa bristningar kan ske när hälsenan deformeras i samband med fysisk aktivitet. Deformation av hälsenan är differensen mellan relativ displacement i senan och är ett viktigt koncept inom förståelsen om hälseneskadors etiologi. Syftet med detta examensarbete var att öka kunskapen om displacement i hälsenan och hur det skiljer sig vid habituell löpning med olika löparskor inklusive barfotalöpning. Vidare felsöktes en speckle tracking-algoritm som lägger grund för analysen av displacement i hälsenan. Arbetet är en utökning på ett pågående forskningssamarbete mellan KTH, GIH och KI. Det första steget i arbetet var att MATLAB-programmet för speckle tracking-algoritmen felsöktes och korrigerades. Detta gjordes genom att ändra initiala startvärden i algoritmen såsom centralfrekvensen och värdet för hastigheten av displacement i hälsenan. Efter att hastigheten valts till 2 cm/s fungerade algoritmen felfritt. Nästa steg var att exekvera programmet på den ultraljudsdata för hälsenan som tidigare samlats in från forskningssamarbetet. Algoritmen kördes för tre studiepersoner för habituell löpstil med tre olika löparskor samt barfota. Detta resulterade i att medelvärdeskurvor för ytlig och djup displacement i hälsenan kunde plottas där dess minimum- och maximumvärden kunde jämföras. Efter att differensen för minimum- och maximumvärdet för ytlig och djup displacement hade jämförts mellan samtliga löparskor samt barfota, kunde följande konstateras. Löpning med traditionella skor medförde högst djup displacement följt av skor med kolfibersula, minimalistiska skor och barfotalöpning. Den sko som medförde högst ytlig displacement var skor med kolfibersula följt av traditionella skor, minimalistiska skor samt löpning barfota. Jämförelsen har ej baserats på någon statistisk grund då endast tre studiepersoner analyserades. Detta medför en viss osäkerhet gällande vilken skotyp som medför högst respektive lägst displacement. Bortsätt från denna osäkerhet kan det konstateras att resultat från tidigare studier tyder på liknande insikter. / The Achilles tendon plays a crucial role in the motor function of the lower leg, as well as in the motion involved in walking and running. As a result, the Achilles tendon undergoes significant stress during walking and running, which can lead to tears and injuries to the tendon. These tears can occur when the Achilles tendon is deformed associated with physical activity. The deformation of the Achilles tendon is the difference between the relative displacement in the tendon and is an important concept in understanding the etiology of Achilles tendon injuries. The purpose of this thesis is to increase knowledge about the displacement in the Achilles tendon and how it differs during habitual running with different running shoes, including barefoot running. Furthermore, a speckle tracking algorithm that forms the basis for analyzing the displacement in the Achilles tendon is debugged. The work is an extension of an ongoing research collaboration between KTH, GIH, and KI. The first step in the work was to debug and correct the MATLAB program for the speckle tracking algorithm. This was done by changing initial starting values in the algorithm such as the central frequency and the value for the speed of displacement in the Achilles tendon. After choosing a speed of 2 cm/s, the algorithm worked flawlessly. The next step was to execute the program on the ultrasound data for the Achilles tendon previously collected from the research collaboration. The algorithm was run for test subjects 17, 18, and 21 for habitual running style with three different running shoes and barefoot. This resulted in mean value curves for superficial and deep displacement in the Achilles tendon being plotted, with their minimum and maximum values being compared. After comparing the difference between the minimum and maximum values of superficial and deep displacement across all running shoes as well as barefoot, the following observations were made. Running with traditional shoes caused the highest deep displacement, followed by shoes with carbon fiber soles, minimalist shoes, and barefoot running. The shoe that caused the highest superficial displacement was shoes with carbon fiber soles, followed by traditional shoes, minimalist shoes, and running barefoot. The comparison was not based on any statistical basis since only three test subjects were analyzed. This implies some uncertainty as to which type of shoe causes the highest and lowest displacement. Aside from this uncertainty, it can be noted that the results from previous studies have findings that suggest similar insights.
90

TikTok-fällan, vad går att lita på? : En undersökning om generation Z och deras förmåga att källkritiskt granska samhällsnyttig information på TikTok / The TikTok Trap, What Can Be Trusted? : A survey about Generation Z and their ability to critically review socially useful information on TikTok

Sigeback, Engla, Olsson, Jennifer January 2023 (has links)
TikTok är en snabbt växande plattform som främst används av generation Z. Innehållet på plattformen har förändrats de senaste åren, där det har gått från att i störst del bestå av dans och musik till att numera även beröra ämnen som politik, aktivism och nyheter. Detta kräver ett källkritiskt förhållningssätt av användarna eftersom det tenderar att spridas desinformation. Därför syftar studien till att undersöka hur källkritiska generation Z är till samhällsnyttig information på TikTok samt deras förmåga att källkritiskt granska innehållet. Vidare diskuterar studien hur plattformens funktioner påverkar generation Z och deras förmåga att avgöra vad som är sant eller falskt.  Studien baseras på en kvantitativ och kvalitativ metodansats i form av enkät- och intervjuundersökningar. Intervjun genomfördes med sju personer inom generation Z fördelat på tre åldersgrupper, 16–19 år, 20–23 år och 24–27 år. Resultatet visade att generation Z har kännedom om innebörden av källkritik, men att de inte utnyttjar deras källkritiska kunskaper på plattformen. Respondenterna uppgav även att de sällan granskar innehåll på TikTok och att de tenderar att referera till innehållet i samtal med andra. Studien konstaterar även att generation Z använder TikTok framför allt för underhållning och tidsfördriv vilket bidrar till att det dels saknas intresse av att ifrågasätta innehåll som bekräftar deras egna övertygelser. Dels saknas det förutsättningar för att de ska kunna vara källkritiska på grund av det korta videoformatet och avsaknad av bakgrundsinformation från avsändaren. Utifrån studiens resultat kan slutsatsen dras att ansvaret gällande att vara källkritisk enbart ligger på användaren, men det krävs även ansvar från avsändare. Vidare visade även resultatet från intervjuerna att TikToks funktioner i form av gilla-markeringar, kommentarsfält och tillägg av bilder har en påverkan på generation Z:s tillförlitlighet till innehållet, både positivt och negativt. / TikTok is a rapidly growing platform used mainly by Generation Z. The content of the platform has changed in recent years, moving from a predominantly dance and music content to topics such as politics, activism and news. This requires a source-critical approach from the users as there is a tendency to spread misinformation. Therefore, the study aims to investigate how source-critical Generation Z is to socially useful information on TikTok and their ability to critically review the content. Furthermore, the study discusses how the platform's functions affect generation z's trustworthiness of TikTok content.  The study is based on a quantitative and qualitative methodological approach in the form of surveys and interviews. The interviews were conducted with seven people in Generation Z divided into three age groups, 16-19 years, 20-23 years and 24-27 years. The results showed that Generation Z is aware of the meaning of source criticism, but that they do not utilize their source criticism knowledge on the platform. The respondents also stated that they rarely review content on TikTok and that they tend to refer to the content in conversations with others. The study also notes that Generation Z uses TikTok mainly for entertainment and amusement, which contributes to a lack of interest in questioning content that confirms their own beliefs. On the other hand, there are no conditions for them to be critical of the source due to the short video format and the lack of background information from the creator. Based on the results of the study, it can be concluded that the responsibility for being source-critical lies solely with the user, but responsibility is also required from the creators. Furthermore, the results from the interviews also showed that TikTok's functions in the form of likes, the comment section and the addition of images have an impact on generation Z's credibility to the content, both positively and negatively.

Page generated in 0.0781 seconds