• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 109
  • 9
  • 5
  • 5
  • 3
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 160
  • 160
  • 84
  • 65
  • 62
  • 46
  • 39
  • 27
  • 22
  • 21
  • 21
  • 19
  • 19
  • 18
  • 18
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

Vision-based approaches for surgical activity recognition using laparoscopic and RBGD videos / Approches basées vision pour la reconnaissance d’activités chirurgicales à partir de vidéos laparoscopiques et multi-vues RGBD

Twinanda, Andru Putra 27 January 2017 (has links)
Cette thèse a pour objectif la conception de méthodes pour la reconnaissance automatique des activités chirurgicales. Cette reconnaissance est un élément clé pour le développement de systèmes réactifs au contexte clinique et pour des applications comme l’assistance automatique lors de chirurgies complexes. Nous abordons ce problème en utilisant des méthodes de Vision puisque l’utilisation de caméras permet de percevoir l’environnement sans perturber la chirurgie. Deux types de vidéos sont utilisées : des vidéos laparoscopiques et des vidéos multi-vues RGBD. Nous avons d’abord étudié les résultats obtenus avec les méthodes de l’état de l’art, puis nous avons proposé des nouvelles approches basées sur le « Deep learning ». Nous avons aussi généré de larges jeux de données constitués d’enregistrements de chirurgies. Les résultats montrent que nos méthodes permettent d’obtenir des meilleures performances pour la reconnaissance automatique d’activités chirurgicales que l’état de l’art. / The main objective of this thesis is to address the problem of activity recognition in the operating room (OR). Activity recognition is an essential component in the development of context-aware systems, which will allow various applications, such as automated assistance during difficult procedures. Here, we focus on vision-based approaches since cameras are a common source of information to observe the OR without disrupting the surgical workflow. Specifically, we propose to use two complementary video types: laparoscopic and OR-scene RGBD videos. We investigate how state-of-the-art computer vision approaches perform on these videos and propose novel approaches, consisting of deep learning approaches, to carry out the tasks. To evaluate our proposed approaches, we generate large datasets of recordings of real surgeries. The results demonstrate that the proposed approaches outperform the state-of-the-art methods in performing surgical activity recognition on these new datasets.
142

Knowledge-based support for surgical workflow analysis and recognition / Assistance fondée sur les connaissances pour l'analyse et la reconnaissance du flux de travail chirurgical

Dergachyova, Olga 28 November 2017 (has links)
L'assistance informatique est devenue une partie indispensable pour la réalisation de procédures chirurgicales modernes. Le désir de créer une nouvelle génération de blocs opératoires intelligents a incité les chercheurs à explorer les problèmes de perception et de compréhension automatique de la situation chirurgicale. Dans ce contexte de prise de conscience de la situation, un domaine de recherche en plein essor adresse la reconnaissance automatique du flux chirurgical. De grands progrès ont été réalisés pour la reconnaissance des phases et des gestes chirurgicaux. Pourtant, il existe encore un vide entre ces deux niveaux de granularité dans la hiérarchie du processus chirurgical. Très peu de recherche se concentre sur les activités chirurgicales portant des informations sémantiques vitales pour la compréhension de la situation. Deux facteurs importants entravent la progression. Tout d'abord, la reconnaissance et la prédiction automatique des activités chirurgicales sont des tâches très difficiles en raison de la courte durée d'une activité, de leur grand nombre et d'un flux de travail très complexe et une large variabilité. Deuxièmement, une quantité très limitée de données cliniques ne fournit pas suffisamment d'informations pour un apprentissage réussi et une reconnaissance précise. À notre avis, avant de reconnaître les activités chirurgicales, une analyse soigneuse des éléments qui composent l'activité est nécessaire pour choisir les bons signaux et les capteurs qui faciliteront la reconnaissance. Nous avons utilisé une approche d'apprentissage profond pour évaluer l'impact de différents éléments sémantiques de l'activité sur sa reconnaissance. Grâce à une étude approfondie, nous avons déterminé un ensemble minimum d'éléments suffisants pour une reconnaissance précise. Les informations sur la structure anatomique et l'instrument chirurgical sont de première importance. Nous avons également abordé le problème de la carence en matière de données en proposant des méthodes de transfert de connaissances à partir d'autres domaines ou chirurgies. Les méthodes de ''word embedding'' et d'apprentissage par transfert ont été proposées. Ils ont démontré leur efficacité sur la tâche de prédiction d'activité suivante offrant une augmentation de précision de 22%. De plus, des observations pertinentes / Computer assistance became indispensable part of modern surgical procedures. Desire of creating new generation of intelligent operating rooms incited researchers to explore problems of automatic perception and understanding of surgical situations. Situation awareness includes automatic recognition of surgical workflow. A great progress was achieved in recognition of surgical phases and gestures. Yet, there is still a blank between these two granularity levels in the hierarchy of surgical process. Very few research is focused on surgical activities carrying important semantic information vital for situation understanding. Two important factors impede the progress. First, automatic recognition and prediction of surgical activities is a highly challenging task due to short duration of activities, their great number and a very complex workflow with multitude of possible execution and sequencing ways. Secondly, very limited amount of clinical data provides not enough information for successful learning and accurate recognition. In our opinion, before recognizing surgical activities a careful analysis of elements that compose activity is necessary in order to chose right signals and sensors that will facilitate recognition. We used a deep learning approach to assess the impact of different semantic elements of activity on its recognition. Through an in-depth study we determined a minimal set of elements sufficient for an accurate recognition. Information about operated anatomical structure and surgical instrument was shown to be the most important. We also addressed the problem of data deficiency proposing methods for transfer of knowledge from other domains or surgeries. The methods of word embedding and transfer learning were proposed. They demonstrated their effectiveness on the task of next activity prediction offering 22% increase in accuracy. In addition, pertinent observations about the surgical practice were made during the study. In this work, we also addressed the problem of insufficient and improper validation of recognition methods. We proposed new validation metrics and approaches for assessing the performance that connect methods to targeted applications and better characterize capacities of the method. The work described in this these aims at clearing obstacles blocking the progress of the domain and proposes a new perspective on the problem of surgical workflow recognition.
143

Zpracování dat ze senzorů wearable zařízení pomocí strojového učení / Processing Sensor Data from a Wearable Device by Machine Learning

Hlavačka, Martin January 2019 (has links)
The goal of this master's thesis is to analyze the situation of wearable devices with the Android Wear operating system and recognition capabilities of various movement activities using neural networks. The primary focus is therefore on identifying and describing the most appropriate tool for recognizing dynamic movements using machine learning methods based on data obtained from this type of devices. The practical part of the thesis then comments on the implementation of a stand-alone Android Wear application capable of recording and formatting data from sensors, training the neural network in a designed external desktop tool, and then reusing trained neural network for motion recognition directly on the device.
144

Perspektivenorientierte Erkennung chirurgischer Aktivitäten im Operationssaal

Meißner, Christian 26 March 2015 (has links)
Die Dissertation beschäftigt sich mit der automatischen Erkennung chirurgischer Aktivitäten im Operationssaal, welche einen wichtigen Bestandteil im automatischen chirurgischen Assistenzprozess darstellt. Die automatische Assistenz ist eine der wichtigen Entwicklungen bei der fortschreitenden Technisierung in der Chirurgie. Es werden Anforderungen an ein Erkennungssystem definiert sowie ein entsprechendes Erkennungsmodell entworfen und untersucht. Die Evaluation bedient sich simulierter chirurgischer Eingriffe mit hoher Realitätsnähe. Die Ergebnisse zeigen eine grundlegende Eignung des Modells für die automatische Aktivitätserkennung multipler Eingriffstypen. Mögliche Weiterentwicklungen könnten die vorgestellte Lösung weiter vorantreiben.
145

Deep Learning Models for Human Activity Recognition

Albert Florea, George, Weilid, Filip January 2019 (has links)
AMI Meeting Corpus (AMI) -databasen används för att undersöka igenkännande av gruppaktivitet. AMI Meeting Corpus (AMI) -databasen ger forskare fjärrstyrda möten och naturliga möten i en kontorsmiljö; mötescenario i ett fyra personers stort kontorsrum. För attuppnågruppaktivitetsigenkänninganvändesbildsekvenserfrånvideosoch2-dimensionella audiospektrogram från AMI-databasen. Bildsekvenserna är RGB-färgade bilder och ljudspektrogram har en färgkanal. Bildsekvenserna producerades i batcher så att temporala funktioner kunde utvärderas tillsammans med ljudspektrogrammen. Det har visats att inkludering av temporala funktioner både under modellträning och sedan förutsäga beteende hos en aktivitet ökar valideringsnoggrannheten jämfört med modeller som endast använder rumsfunktioner[1]. Deep learning arkitekturer har implementerats för att känna igen olika mänskliga aktiviteter i AMI-kontorsmiljön med hjälp av extraherade data från the AMI-databas.Neurala nätverks modellerna byggdes med hjälp av KerasAPI tillsammans med TensorFlow biblioteket. Det finns olika typer av neurala nätverksarkitekturer. Arkitekturerna som undersöktes i detta projektet var Residual Neural Network, Visual GeometryGroup 16, Inception V3 och RCNN (LSTM). ImageNet-vikter har använts för att initialisera vikterna för Neurala nätverk basmodeller. ImageNet-vikterna tillhandahålls av Keras API och är optimerade för varje basmodell [2]. Basmodellerna använder ImageNet-vikter när de extraherar funktioner från inmatningsdata. Funktionsextraktionen med hjälp av ImageNet-vikter eller slumpmässiga vikter tillsammans med basmodellerna visade lovande resultat. Både Deep Learning användningen av täta skikt och LSTM spatio-temporala sekvens predikering implementerades framgångsrikt. / The Augmented Multi-party Interaction(AMI) Meeting Corpus database is used to investigate group activity recognition in an office environment. The AMI Meeting Corpus database provides researchers with remote controlled meetings and natural meetings in an office environment; meeting scenario in a four person sized office room. To achieve the group activity recognition video frames and 2-dimensional audio spectrograms were extracted from the AMI database. The video frames were RGB colored images and audio spectrograms had one color channel. The video frames were produced in batches so that temporal features could be evaluated together with the audio spectrogrames. It has been shown that including temporal features both during model training and then predicting the behavior of an activity increases the validation accuracy compared to models that only use spatial features [1]. Deep learning architectures have been implemented to recognize different human activities in the AMI office environment using the extracted data from the AMI database.The Neural Network models were built using the Keras API together with TensorFlow library. There are different types of Neural Network architectures. The architecture types that were investigated in this project were Residual Neural Network, Visual Geometry Group 16, Inception V3 and RCNN(Recurrent Neural Network). ImageNet weights have been used to initialize the weights for the Neural Network base models. ImageNet weights were provided by Keras API and was optimized for each base model[2]. The base models uses ImageNet weights when extracting features from the input data.The feature extraction using ImageNet weights or random weights together with the base models showed promising results. Both the Deep Learning using dense layers and the LSTM spatio-temporal sequence prediction were implemented successfully.
146

Enabling pervasive applications by understanding individual and community behaviors / Nouvelles applications pervasives par la modélisation des comportements individuels et communautaires

Sun, Lin 12 December 2012 (has links)
Les empreintes digitales recueillies par détection systèmes offrent de nouvelles façons de percevoir les comportements d'un individu. En outre, de grandes collections d'empreintes numériques des communautés apportent de nouvelles compréhensions des comportements humains. La perception des comportements humains à partir des empreintes digitales de détection permet de construire des nouvelles applications sur les systèmes de détection. D’après les empreintes digitales recueillies avec l'accéléromètre embarqué dans les téléphones mobiles et les taxis équipés avec GPS, nous présentons ici notre travail sur la reconnaissance des comportements individuels, la capture des comportements communautaires et la démonstration des nouveaux services activés. En reconnaissant les comportements individuels, nous présentons la reconnaissance des activités physiques d'une personne avec les lectures de l'accéléromètre recueillies à partir des téléphones mobiles mis dans les poches autour de la zone pelvienne. Avec les empreintes GPS d'un taxi, nous résumons les comportements anormaux du transport des passagers pour un individu et améliorons l'efficacité de la reconnaissance de la méthode existante IBOAT. En outre, sur la base des observations dans la vie réelle, nous proposons une méthode pour détecter les événements de changement de service d’un taxi individuel. Avec des traces GPS à grande échelle et à l’aide des milliers de taxis, nous étudions les comportements anormaux pour le transport des passagers et les comportements de changement de travail et exploitons les stratégies de service de taxi. En outre, nous présentons un système intelligent de taxi comme une étude exemplaire des nouvelles applications qui s’appuie sur les comportements perçus individuelles et communautaires / The digital footprints collected from the prevailing sensing systems provide novel ways to perceive an individual's behaviors. Furthermore, large collections of digital footprints from communities bring novel understandings of human behaviors from the community perspective (community behaviors), such as investigating their characteristics and learning the hidden human intelligence. The perception of human behaviors from the sensing digital footprints enables novel applications for the sensing systems. Bases on the digital footprints collected with accelerometer-embedded mobile phones and GPS equipped taxis, in this dissertation we present our work in recognizing individual behaviors, capturing community behaviors and demonstrating the novel services enabled. With the GPS footprints of a taxi, we summarize the individual anomalous passenger delivery behaviors and improve the recognition efficiency of the existing method iBOAT by introducing an inverted index mechanism. Besides, based on the observations in real life, we propose a method to detect the work-shifting events of an individual taxi. With real-life large-scale GPS traces of thousands of taxis, we investigate the anomalous passenger delivery behaviors and work shifting behaviors from the community perspective and exploit taxi serving strategies. We find that most anomaly behaviors are intentional detours and high detour inclination won't make taxis the top players. And the spatial-temporal distribution of work shifting events in the taxi community reveals their influences. While exploiting taxi serving strategies, we propose a novel method to find the initial intentions in passenger finding. Furthermore, we present a smart taxi system as an example to demonstrate the novel applications that are enabled by the perceived individual and community behaviors
147

Modèles statistiques avancés pour la reconnaissance de l’activité physique dans un environnement non contrôlé en utilisant un réseau d’objets connectés / Advanced Statistical Models for Recognizing Physical Activity in an Uncontrolled Environment Using a Network of Connected Objects

Amroun, Hamdi 26 October 2018 (has links)
Avec l’arrivée des objets connectés, la reconnaissance de l’activité physique connait une nouvelle ère. De nouvelles considérations sont à prendre en compte afin d’aboutir à un meilleur processus de traitement. Dans cette thèse, nous avons exploré le processus de traitement pour la reconnaissance de l’activité physique dans un environnement non contrôlé. Les activités physiques reconnues, avec seulement une centrale inertielle (accéléromètre, gyroscope et magnétomètre), sont dites élémentaires. Les autres types d’activités dépendantes d’un contexte sont dites « basés sur le contexte ». Nous avons extrait la transformée en cosinus discrète (DCT) comme principal descripteur pour la reconnaissance des activités élémentaires. Afin de reconnaitre les activités physiques basées sur le contexte, nous avons défini trois niveaux de granularité : un premier niveau dépendant des objets connectés embarqués (smartphone, smartwatch et samrt TV). Un deuxième niveau concerne l’étude des comportements des participants en interaction avec l’écran de la smart TV. Le troisième niveau concerne l’étude de l’attention des participants envers la TV. Nous avons pris en considération l’aspect imperfection des données en fusionnant les données multi capteurs avec le modèle de Dempster-Shafer. A ce titre, nous avons proposé différentes approches pour calculer et approximer les fonctions de masse. Afin d’éviter de calculer et sélectionner les différents descripteurs, nous avons proposé une approche basée sur l’utilisation d’algorithmes d’apprentissage en profondeur (DNN). Nous avons proposé deux modèles : un premier modèle consiste à reconnaitre les activités élémentaires en sélectionnant la DCT comme principal descripteur (DNN-DCT). Le deuxième modèle consiste à apprendre les données brutes des activités basées sur le contexte (CNN-brutes). L’inconvénient du modèle DNN-DCT est qu’il est rapide mais moins précis, alors que le modèle CNN-brutes est plus précis mais très lent. Nous avons proposé une étude empirique permettant de comparer les différentes méthodes pouvant accélérer l’apprentissage tout en gardant un niveau élevé de précision. Nous avons ainsi exploré la méthode d’optimisation par essaim particulaires (PSO). Les résultats sont très satisfaisants (97%) par rapport à l’apprentissage d’un réseau de neurones profond avec les méthodes d’optimisation classiques telles que la descente de Gradient Stochastique et l’optimisation par Gradient accéléré de Nesterov. Les résultats de nos travaux suggèrent le recours à de bons descripteurs dans le cas où le contexte n’importe peu, la prise en compte de l’imperfection des données capteurs quand le domaine sous-jacent l’exige, l’utilisation de l’apprentissage profond avec un optimiseur permettant d’avoir des modèles très précis et plus rapides. / With the arrival of connected objects, the recognition of physical activity is experiencing a new era. New considerations need to be taken into account in order to achieve a better treatment process. In this thesis, we explored the treatment process for recognizing physical activity in an uncontrolled environment. The recognized physical activities, with only one inertial unit (accelerometer, gyroscope and magnetometer), are called elementary. Other types of context-dependent activities are called "context-based". We extracted the DCT as the main descriptor for the recognition of elementary activities. In order to recognize the physical activities based on the context, we defined three levels of granularity: a first level depending on embedded connected objects (smartphone, smartwatch and samrt TV . A second level concerns the study of participants' behaviors interacting with the smart TV screen. The third level concerns the study of participants' attention to TV. We took into consideration the imperfection aspect of the data by merging the multi sensor data with the Dempster-Shafer model. As such, we have proposed different approaches for calculating and approximating mass functions. In order to avoid calculating and selecting the different descriptors, we proposed an approach based on the use of deep learning algorithms (DNN). We proposed two models: a first model consisting of recognizing the elementary activities by selecting the DCT as the main descriptor (DNN-DCT). The second model is to learn raw data from context-based activities (CNN-raw). The disadvantage of the DNN-DCT model is that it is fast but less accurate, while the CNN-raw model is more accurate but very slow. We have proposed an empirical study to compare different methods that can accelerate learning while maintaining a high level of accuracy. We thus explored the method of optimization by particle swarm (PSO). The results are very satisfactory (97%) compared to deep neural network with stochastic gradients descent and Nesterov accelerated Gradient optimization. The results of our work suggest the use of good descriptors in the case where the context matters little, the taking into account of the imperfection of the sensor data requires that it be used and faster models.
148

Une base de connaissance personnelle intégrant les données d'un utilisateur et une chronologie de ses activités / A personal knowledge base integrating user data and activity timeline

Montoya, David 06 March 2017 (has links)
Aujourd'hui, la plupart des internautes ont leurs données dispersées dans plusieurs appareils, applications et services. La gestion et le contrôle de ses données sont de plus en plus difficiles. Dans cette thèse, nous adoptons le point de vue selon lequel l'utilisateur devrait se voir donner les moyens de récupérer et d'intégrer ses données, sous son contrôle total. À ce titre, nous avons conçu un système logiciel qui intègre et enrichit les données d'un utilisateur à partir de plusieurs sources hétérogènes de données personnelles dans une base de connaissances RDF. Le logiciel est libre, et son architecture innovante facilite l'intégration de nouvelles sources de données et le développement de nouveaux modules pour inférer de nouvelles connaissances. Nous montrons tout d'abord comment l'activité de l'utilisateur peut être déduite des données des capteurs de son téléphone intelligent. Nous présentons un algorithme pour retrouver les points de séjour d'un utilisateur à partir de son historique de localisation. À l'aide de ces données et de données provenant d'autres capteurs de son téléphone, d'informations géographiques provenant d'OpenStreetMap, et des horaires de transports en commun, nous présentons un algorithme de reconnaissance du mode de transport capable de retrouver les différents modes et lignes empruntés par un utilisateur lors de ses déplacements. L'algorithme reconnaît l'itinéraire pris par l'utilisateur en retrouvant la séquence la plus probable dans un champ aléatoire conditionnel dont les probabilités se basent sur la sortie d'un réseau de neurones artificiels. Nous montrons également comment le système peut intégrer les données du courrier électronique, des calendriers, des carnets d'adresses, des réseaux sociaux et de l'historique de localisation de l'utilisateur dans un ensemble cohérent. Pour ce faire, le système utilise un algorithme de résolution d'entité pour retrouver l'ensemble des différents comptes utilisés par chaque contact de l'utilisateur, et effectue un alignement spatio-temporel pour relier chaque point de séjour à l'événement auquel il correspond dans le calendrier de l'utilisateur. Enfin, nous montrons qu'un tel système peut également être employé pour faire de la synchronisation multi-système/multi-appareil et pour pousser de nouvelles connaissances vers les sources. Les résultats d'expériences approfondies sont présentés. / Typical Internet users today have their data scattered over several devices, applications, and services. Managing and controlling one's data is increasingly difficult. In this thesis, we adopt the viewpoint that the user should be given the means to gather and integrate her data, under her full control. In that direction, we designed a system that integrates and enriches the data of a user from multiple heterogeneous sources of personal information into an RDF knowledge base. The system is open-source and implements a novel, extensible framework that facilitates the integration of new data sources and the development of new modules for deriving knowledge. We first show how user activity can be inferred from smartphone sensor data. We introduce a time-based clustering algorithm to extract stay points from location history data. Using data from additional mobile phone sensors, geographic information from OpenStreetMap, and public transportation schedules, we introduce a transportation mode recognition algorithm to derive the different modes and routes taken by the user when traveling. The algorithm derives the itinerary followed by the user by finding the most likely sequence in a linear-chain conditional random field whose feature functions are based on the output of a neural network. We also show how the system can integrate information from the user's email messages, calendars, address books, social network services, and location history into a coherent whole. To do so, it uses entity resolution to find the set of avatars used by each real-world contact and performs spatiotemporal alignment to connect each stay point with the event it corresponds to in the user's calendar. Finally, we show that such a system can also be used for multi-device and multi-system synchronization and allow knowledge to be pushed to the sources. We present extensive experiments.
149

Exploration and Evaluation of RNN Models on Low-Resource Embedded Devices for Human Activity Recognition / Undersökning och utvärdering av RNN-modeller på resurssvaga inbyggda system för mänsklig aktivitetsigenkänning

Björnsson, Helgi Hrafn, Kaldal, Jón January 2023 (has links)
Human activity data is typically represented as time series data, and RNNs, often with LSTM cells, are commonly used for recognition in this field. However, RNNs and LSTM-RNNs are often too resource-intensive for real-time applications on resource constrained devices, making them unsuitable. This thesis project is carried out at Wrlds AB, Stockholm. At Wrlds, all machine learning is run in the cloud, but they have been attempting to run their AI algorithms on their embedded devices. The main task of this project was to investigate alternative network structures to minimize the size of the networks to be used on human activity data. This thesis investigates the use of Fast GRNN, a deep learning algorithm developed by Microsoft researchers, to classify human activity on resource-constrained devices. The FastGRNN algorithm was compared to state-of-the-art RNNs, LSTM, GRU, and Simple RNN in terms of accuracy, classification time, memory usage, and energy consumption. This research is limited to implementing the FastRNN algorithm on Nordic SoCs using their SDK and TensorFlow Lite Micro. The result of this thesis shows that the proposed network has similar performance as LSTM networks in terms of accuracy while being both considerably smaller and faster, making it a promising solution for human activity recognition on embedded devices with limited computational resources and merits further investigation. / Rörelse igenkännings analys är oftast representerat av tidsseriedata där ett RNN modell meden LSTM arkitektur är oftast den självklara vägen att ta. Dock så är denna arkitektur väldigt resurskrävande för applikationer i realtid och gör att det uppstår problem med resursbegränsad hårdvara. Detta examensarbete är utfört i samarbete med Wrlds Technologies AB. På Wrlds så körs deras maskin inlärningsmodeller på molnet och lokalt på mobiltelefoner. Wrlds har nu påbörjat en resa för att kunna köra modeller direkt på små inbyggda system. Examensarbete kommer att utvärdera en FastGRNN som är en NN-arkitektur utvecklad av Microsoft i syfte att användas på resurs begränsad hårdvara. FastGRNN algoritmen jämfördes med andra högkvalitativa arkitekturer som RNNs, LSTM, GRU och en simpel RNN. Träffsäkerhet, klassifikationstid, minnesanvändning samt energikonsumtion användes för att jämföra dom olika varianterna. Detta arbete kommer bara att utvärdera en FastGRNN algoritm på en Nordic SoCs och kommer att användas deras SDK samt Tensorflow Lite Micro. Resultatet från detta examensarbete visar att det utvärderade nätverket har liknande prestanda som ett LSTM nätverk men också att nätverket är betydligt mindre i storlek och därmed snabbare. Detta betyder att ett FastGRNN visar lovande resultat för användningen av rörelseigenkänning på inbyggda system med begränsad prestanda kapacitet.
150

A Study of an Iterative User-Specific Human Activity Classification Approach

Fürderer, Niklas January 2019 (has links)
Applications for sensor-based human activity recognition use the latest algorithms for the detection and classification of human everyday activities, both for online and offline use cases. The insights generated by those algorithms can in a next step be used within a wide broad of applications such as safety, fitness tracking, localization, personalized health advice and improved child and elderly care.In order for an algorithm to be performant, a significant amount of annotated data from a specific target audience is required. However, a satisfying data collection process is cost and labor intensive. This also may be unfeasible for specific target groups as aging effects motion patterns and behaviors. One main challenge in this application area lies in the ability to identify relevant changes over time while being able to reuse previously annotated user data. The accurate detection of those user-specific patterns and movement behaviors therefore requires individual and adaptive classification models for human activities.The goal of this degree work is to compare several supervised classifier performances when trained and tested on a newly iterative user-specific human activity classification approach as described in this report. A qualitative and quantitative data collection process was applied. The tree-based classification algorithms Decision Tree, Random Forest as well as XGBoost were tested on custom based datasets divided into three groups. The datasets contained labeled motion data of 21 volunteers from wrist worn sensors.Computed across all datasets, the average performance measured in recall increased by 5.2% (using a simulated leave-one-subject-out cross evaluation) for algorithms trained via the described approach compared to a random non-iterative approach. / Sensorbaserad aktivitetsigenkänning använder sig av det senaste algoritmerna för detektion och klassificering av mänskliga vardagliga aktiviteter, både i uppoch frånkopplat läge. De insikter som genereras av algoritmerna kan i ett nästa steg användas inom en mängd nya applikationer inom områden så som säkerhet, träningmonitorering, platsangivelser, personifierade hälsoråd samt inom barnoch äldreomsorgen.För att en algoritm skall uppnå hög prestanda krävs en inte obetydlig mängd annoterad data, som med fördel härrör från den avsedda målgruppen. Dock är datainsamlingsprocessen kostnadsoch arbetsintensiv. Den kan dessutom även vara orimlig att genomföra för vissa specifika målgrupper, då åldrandet påverkar rörelsemönster och beteenden. En av de största utmaningarna inom detta område är att hitta de relevanta förändringar som sker över tid, samtidigt som man vill återanvända tidigare annoterad data. För att kunna skapa en korrekt bild av det individuella rörelsemönstret behövs därför individuella och adaptiva klassificeringsmodeller.Målet med detta examensarbete är att jämföra flera olika övervakade klassificerares (eng. supervised classifiers) prestanda när dem tränats med hjälp av ett iterativt användarspecifikt aktivitetsklassificeringsmetod, som beskrivs i denna rapport. En kvalitativ och kvantitativ datainsamlingsprocess tillämpades. Trädbaserade klassificeringsalgoritmerna Decision Tree, Random Forest samt XGBoost testades utifrån specifikt skapade dataset baserade på 21 volontärer, som delades in i tre grupper. Data är baserad på rörelsedata från armbandssensorer.Beräknat över samtlig data, ökade den genomsnittliga sensitiviteten med 5.2% (simulerad korsvalidering genom utelämna-en-individ) för algoritmer tränade via beskrivna metoden jämfört med slumpvis icke-iterativ träning.

Page generated in 0.0924 seconds