Spelling suggestions: "subject:"[een] BOOSTING"" "subject:"[enn] BOOSTING""
201 |
Analýza a klasifikace dat ze snímače mozkové aktivity / Data Analysis and Clasification from the Brain Activity DetectorJileček, Jan January 2019 (has links)
This thesis aims to implement methods for recording EEG data obtained with the neural activity sensor OpenBCI Ultracortex IV headset. It also describes neurofeedback, methods of obtaining data from the motor cortex for further analysis and takes a look at the machine learning algorithms best suited for the presented problem. Multiple training and testing datasets are created, as well as a tool for recording the brain activity of a headset-wearing test subject, which is being visually presented with cognitive challenges on the screen in front of him. A neurofeedback demo app has been developed, presented and later used for calibration of new test subjects. Next part is data analysis, which aims to discriminate the left and right hand movement intention signatures in the brain motor cortex. Multiple classification methods are used and their utility reviewed.
|
202 |
Metody pro predikci s vysokodimenzionálními daty genových expresí / Methods for class prediction with high-dimensional gene expression dataŠilhavá, Jana Unknown Date (has links)
Dizertační práce se zabývá predikcí vysokodimenzionálních dat genových expresí. Množství dostupných genomických dat významně vzrostlo v průběhu posledního desetiletí. Kombinování dat genových expresí s dalšími daty nachází uplatnění v mnoha oblastech. Například v klinickém řízení rakoviny (clinical cancer management) může přispět k přesnějšímu určení prognózy nemocí. Hlavní část této dizertační práce je zaměřena na kombinování dat genových expresí a klinických dat. Používáme logistické regresní modely vytvořené prostřednictvím různých regularizačních technik. Generalizované lineární modely umožňují kombinování modelů s různou strukturou dat. V dizertační práci je ukázáno, že kombinování modelu dat genových expresí a klinických dat může vést ke zpřesnění výsledku predikce oproti vytvoření modelu pouze z dat genových expresí nebo klinických dat. Navrhované postupy přitom nejsou výpočetně náročné. Testování je provedeno nejprve se simulovanými datovými sadami v různých nastaveních a následně s~reálnými srovnávacími daty. Také se zde zabýváme určením přídavné hodnoty microarray dat. Dizertační práce obsahuje porovnání příznaků vybraných pomocí klasifikátoru genových expresí na pěti různých sadách dat týkajících se rakoviny prsu. Navrhujeme také postup výběru příznaků, který kombinuje data genových expresí a znalosti z genových ontologií.
|
203 |
Koncepty strojového učení pro kategorizaci objektů v obrazu / Machine Learning Concepts for Categorization of Objects in ImagesHubený, Marek January 2017 (has links)
This work is focused on objects and scenes recognition using machine learning and computer vision tools. Before the solution of this problem has been studied basic phases of the machine learning concept and statistical models with accent on their division into discriminative and generative method. Further, the Bag-of-words method and its modification have been investigated and described. In the practical part of this work, the implementation of the Bag-of-words method with the SVM classifier was created in the Matlab environment and the model was tested on various sets of publicly available images.
|
204 |
Peak shaving optimisation in school kitchens : A machine learning approachAlhoush, George, Edvardsson, Emil January 2022 (has links)
With the increasing electrification of todays society the electrical grid is experiencing increasing pressure from demand. One factor that affects the stability of the grid are the time intervals at which power demand is at its highest which is referred to as peak demand. This project was conducted in order to reduce the peak demand through a process called peak shaving in order to relieve some of this pressure through the use of batteries and renewable energy. By doing so, the user of such systems could reduce the installation cost of their electrical infrastructure as well as the electrical billing. Peak shaving in this project was implemented using machine learning algorithms that predicted the daily power consumption in school kitchens with help of their food menus, which were then fed to an algorithm to steer a battery according to the results. All of these project findings are compared to another system installed by a company to decide whether the algorithm has the right accuracy and performance. The results of the simulations were promising as the algorithm was able to detect the vast majority of the peaks and perform peak shaving intelligently. Based on the graphs and values presented in this report, it can be concluded that the algorithm is ready to be implemented in the real world with the potential to contribute to a long-term sustainable electrical grid while saving money for the user.
|
205 |
Money Laundering Detection using Tree Boosting and Graph Learning Algorithms / Detektion av Penningtvätt med hjälp av Trädalgoritmer och GrafinlärningsalgoritmerFrumerie, Rickard January 2021 (has links)
In this masters thesis we focused on using machine learning methods for detecting money laundering in financial transaction networks, in order to demonstrate that it can be used as a complement or instead of the more commonly used rule based systems. The graph learning method graph convolutional networks (GCN) has been a hot topic in the field since they were shown to scale well with data size back in 2018. However the typical GCN models cannot use edge features, which is why this thesis combines the GCN model with a node and edge neural network (NENN) in order to solve this problem. This new method will be compared towards an already established machine learning method for financial transactions, namely the tree boosting method (XGBoost). Because of confidentiality concerns for financial transactions data, the machine learning algorithms will be tested on two carefully constructed synthetically generated data sets, which from agent based simulations resembles real financial data. The results showed the viability and superiority of the new implementation of the GCN model with it being a preferable method for connectivly structured data, meaning that a transaction or account is analyzed in the context of its financial environment. On the other hand the XGBoost method showed better results when examining transactions independently. Hence it was more accurately able to find fraudulent and non fraudulent patterns from the transactional features themselves. / I detta examensarbete fokuserar vi på användandet av maskininlärningsmetoder för att detektera penningtvätt i finansiella transaktionsnätverk, med målet att demonstrera att dess kan användas som ett komplement till eller i stället för de mer vanligt använda regelbaserade systemen. Grafinlärningsmetoden \textit{graph convolutional networks} (GCN) som har varit ett hett ämne inom området sedan metoden under 2018 visades fungera bra för stora datamängder. Däremot kan inte en vanlig GCN-modell använda kantinformation, vilket är varför denna avhandling kombinerar GCN-modellen med \textit{node and edge neural networks} (NENN) för att mer effektivt detektera penningtvätt. Denna nya metod kommer att jämföras med en redan etablerad maskininlärningsmetod för finansiella transaktioner, nämligen \textit{tree boosting} (XGBoost). På grund av sekretessanledningar för finansiella transaktionsdata var maskininlärningsalgoritmerna testade på två noggrant konstruerade syntetiskt genererade datamängder som från agentbaserade simuleringar liknar riktiga finansiella data. Resultaten visade på applikationsmöjligheter och överlägsenhet för den nya implementationen av GCN-modellen vilken är att föredra för relationsstrukturerade data, det vill säga när transaktioner och konton analyseras i kontexten av deras finansiella omgivning. Å andra sidan visar XGBoost bättre resultat på att examinera transaktioner individuellt eftersom denna metod mer precist kan identifiera bedrägliga och icke-bedrägliga mönster från de transnationella funktionerna.
|
206 |
Radar based tank level measurement using machine learning : Agricultural machines / Nivåmätning av tank med radar sensorer och maskininlärningThorén, Daniel January 2021 (has links)
Agriculture is becoming more dependent on computerized solutions to make thefarmer’s job easier. The big step that many companies are working towards is fullyautonomous vehicles that work the fields. To that end, the equipment fitted to saidvehicles must also adapt and become autonomous. Making this equipment autonomoustakes many incremental steps, one of which is developing an accurate and reliable tanklevel measurement system. In this thesis, a system for tank level measurement in a seedplanting machine is evaluated. Traditional systems use load cells to measure the weightof the tank however, these types of systems are expensive to build and cumbersome torepair. They also add a lot of weight to the equipment which increases the fuel consump-tion of the tractor. Thus, this thesis investigates the use of radar sensors together witha number of Machine Learning algorithms. Fourteen radar sensors are fitted to a tankat different positions, data is collected, and a preprocessing method is developed. Then,the data is used to test the following Machine Learning algorithms: Bagged RegressionTrees (BG), Random Forest Regression (RF), Boosted Regression Trees (BRT), LinearRegression (LR), Linear Support Vector Machine (L-SVM), Multi-Layer Perceptron Re-gressor (MLPR). The model with the best 5-fold crossvalidation scores was Random For-est, closely followed by Boosted Regression Trees. A robustness test, using 5 previouslyunseen scenarios, revealed that the Boosted Regression Trees model was the most robust.The radar position analysis showed that 6 sensors together with the MLPR model gavethe best RMSE scores.In conclusion, the models performed well on this type of system which shows thatthey might be a competitive alternative to load cell based systems.
|
207 |
A nonparametric Bayesian perspective for machine learning in partially-observed settingsAkova, Ferit 31 July 2014 (has links)
Indiana University-Purdue University Indianapolis (IUPUI) / Robustness and generalizability of supervised learning algorithms depend on the quality of the labeled data set in representing the real-life problem. In many real-world domains, however, we may not have full knowledge of the underlying data-generating mechanism, which may even have an evolving nature introducing new classes continually. This constitutes a partially-observed setting, where it would be impractical to obtain a labeled data set exhaustively defined by a fixed set of classes. Traditional supervised learning algorithms, assuming an exhaustive training library, would misclassify a future sample of an unobserved class with probability one, leading to an ill-defined classification problem. Our goal is to address situations where such assumption is violated by a non-exhaustive training library, which is a very realistic yet an overlooked issue in supervised learning.
In this dissertation we pursue a new direction for supervised learning by defining self-adjusting models to relax the fixed model assumption imposed on classes and their distributions. We let the model adapt itself to the prospective data by dynamically adding new classes/components as data demand, which in turn gradually make the model more representative of the entire population. In this framework, we first employ suitably chosen nonparametric priors to model class distributions for observed as well as unobserved classes and then, utilize new inference methods to classify samples from observed classes and discover/model novel classes for those from unobserved classes.
This thesis presents the initiating steps of an ongoing effort to address one of the most overlooked bottlenecks in supervised learning and indicates the potential for taking new perspectives in some of the most heavily studied areas of machine learning: novelty detection, online class discovery and semi-supervised learning.
|
208 |
Predicting Workforce in Healthcare : Using Machine Learning Algorithms, Statistical Methods and Swedish Healthcare Data / Predicering av Arbetskraft inom Sjukvården genom Maskininlärning, Statistiska Metoder och Svenska SjukvårdsstatistikDiskay, Gabriel, Joelsson, Carl January 2023 (has links)
Denna studie undersöker användningen av maskininlärningsmodeller för att predicera arbetskraftstrender inom hälso- och sjukvården i Sverige. Med hjälp av en linjär regressionmodell, en Gradient Boosting Regressor-modell och en Exponential Smoothing-modell syftar forskningen för detta arbete till att ge viktiga insikter för underlaget till makroekonomiska överväganden och att ge en djupare förståelse av Beveridge-kurvan i ett sammanhang relaterat till hälso- och sjukvårdssektorn. Trots vissa utmaningar med datan är målet att förbättra noggrannheten och effektiviteten i beslutsfattandet rörande arbetsmarknaden. Resultaten av denna studie visar maskininlärningspotentialen i predicering i ett ekonomiskt sammanhang, även om inneboende begränsningar och etiska överväganden beaktas. / This study examines the use of machine learning models to predict workforce trends in the healthcare sector in Sweden. Using a Linear Regression model, a Gradient Boosting Regressor model, and an Exponential Smoothing model the research aims to grant needed insight for the basis of macroeconomic considerations and to give a deeper understanding of the Beveridge Curve in the healthcare sector’s context. Despite some challenges with data, the goal is to improve the accuracy and efficiency of the policy-making around the labor market. The results of this study demonstrates the machine learning potential in the forecasting within an economic context, although inherent limitations and ethical considerations are considered.
|
209 |
Analysis of the human corneal shape with machine learningBouazizi, Hala 01 1900 (has links)
Cette thèse cherche à examiner les conditions optimales dans lesquelles les surfaces cornéennes antérieures peuvent être efficacement pré-traitées, classifiées et prédites en utilisant des techniques de modélisation géométriques (MG) et d’apprentissage automatiques (AU).
La première étude (Chapitre 2) examine les conditions dans lesquelles la modélisation géométrique peut être utilisée pour réduire la dimensionnalité des données utilisées dans un projet d’apprentissage automatique. Quatre modèles géométriques ont été testés pour leur précision et leur rapidité de traitement : deux modèles polynomiaux (P) – polynômes de Zernike (PZ) et harmoniques sphériques (PHS) – et deux modèles de fonctions rationnelles (R) : fonctions rationnelles de Zernike (RZ) et fonctions rationnelles d’harmoniques sphériques (RSH). Il est connu que les modèles PHS et RZ sont plus précis que les modèles PZ pour un même nombre de coefficients (J), mais on ignore si les modèles PHS performent mieux que les modèles RZ, et si, de manière plus générale, les modèles SH sont plus précis que les modèles R, ou l’inverse. Et prenant en compte leur temps de traitement, est-ce que les modèles les plus précis demeurent les plus avantageux? Considérant des valeurs de J (nombre de coefficients du modèle) relativement basses pour respecter les contraintes de dimensionnalité propres aux taches d’apprentissage automatique, nous avons établi que les modèles HS (PHS et RHS) étaient tous deux plus précis que les modèles Z correspondants (PZ et RR), et que l’avantage de précision conféré par les modèles HS était plus important que celui octroyé par les modèles R. Par ailleurs, les courbes de temps de traitement en fonction de J démontrent qu’alors que les modèles P sont traités en temps quasi-linéaires, les modèles R le sont en temps polynomiaux. Ainsi, le modèle SHR est le plus précis, mais aussi le plus lent (un problème qui peut en partie être remédié en appliquant une procédure de pré-optimisation). Le modèle ZP était de loin le plus rapide, et il demeure une option intéressante pour le développement de projets. SHP constitue le meilleur compromis entre la précision et la rapidité.
La classification des cornées selon des paramètres cliniques a une longue tradition, mais la visualisation des effets moyens de ces paramètres sur la forme de la cornée par des cartes topographiques est plus récente. Dans la seconde étude (Chapitre 3), nous avons construit un atlas de cartes d’élévations moyennes pour différentes variables cliniques qui pourrait s’avérer utile pour l’évaluation et l’interprétation des données d’entrée (bases de données) et de sortie (prédictions, clusters, etc.) dans des tâches d’apprentissage automatique, entre autres. Une base de données constituée de plusieurs milliers de surfaces cornéennes antérieures normales enregistrées sous forme de matrices d’élévation de 101 by 101 points a d’abord été traitée par modélisation géométrique pour réduire sa dimensionnalité à un nombre de coefficients optimal dans une optique d’apprentissage automatique. Les surfaces ainsi modélisées ont été regroupées en fonction de variables cliniques de forme, de réfraction et de démographie. Puis, pour chaque groupe de chaque variable clinique, une surface moyenne a été calculée et représentée sous forme de carte d’élévations faisant référence à sa SMA (sphère la mieux ajustée). Après avoir validé la conformité de la base de donnée avec la littérature par des tests statistiques (ANOVA), l’atlas a été vérifié cliniquement en examinant si les transformations de formes cornéennes présentées dans les cartes pour chaque variable étaient conformes à la littérature. C’était le cas. Les applications possibles d’un tel atlas sont discutées.
La troisième étude (Chapitre 4) traite de la classification non-supervisée (clustering) de surfaces cornéennes antérieures normales. Le clustering cornéen un domaine récent en ophtalmologie. La plupart des études font appel aux techniques d’extraction des caractéristiques pour réduire la dimensionnalité de la base de données cornéennes. Le but est généralement d’automatiser le processus de diagnostique cornéen, en particulier en ce qui a trait à la distinction entre les cornées normales et les cornées irrégulières (kératocones, Fuch, etc.), et dans certains cas, de distinguer différentes sous-classes de cornées irrégulières. L’étude de clustering proposée ici se concentre plutôt sur les cornées normales afin de mettre en relief leurs regroupements naturels. Elle a recours à la modélisation géométrique pour réduire la dimensionnalité de la base de données, utilisant des polynômes de Zernike, connus pour leur interprétativité transparente (chaque terme polynomial est associé à une caractéristique cornéenne particulière) et leur bonne précision pour les cornées normales. Des méthodes de différents types ont été testées lors de prétests (méthodes de clustering dur (hard) ou souple (soft), linéaires or non-linéaires. Ces méthodes ont été testées sur des surfaces modélisées naturelles (non-normalisées) ou normalisées avec ou sans traitement d’extraction de traits, à l’aide de différents outils d’évaluation (scores de séparabilité et d’homogénéité, représentations par cluster des coefficients de modélisation et des surfaces modélisées, comparaisons statistiques des clusters sur différents paramètres cliniques). Les résultats obtenus par la meilleure méthode identifiée, k-means sans extraction de traits, montrent que les clusters produits à partir de surfaces cornéennes naturelles se distinguent essentiellement en fonction de la courbure de la cornée, alors que ceux produits à partir de surfaces normalisées se distinguent en fonction de l’axe cornéen.
La dernière étude présentée dans cette thèse (Chapitre 5) explore différentes techniques d’apprentissage automatique pour prédire la forme de la cornée à partir de données cliniques. La base de données cornéennes a d’abord été traitée par modélisation géométrique (polynômes de Zernike) pour réduire sa dimensionnalité à de courts vecteurs de 12 à 20 coefficients, une fourchette de valeurs potentiellement optimales pour effectuer de bonnes prédictions selon des prétests. Différentes méthodes de régression non-linéaires, tirées de la bibliothèque scikit-learn, ont été testées, incluant gradient boosting, Gaussian process, kernel ridge, random forest, k-nearest neighbors, bagging, et multi-layer perceptron. Les prédicteurs proviennent des variables cliniques disponibles dans la base de données, incluant des variables géométriques (diamètre horizontal de la cornée, profondeur de la chambre cornéenne, côté de l’œil), des variables de réfraction (cylindre, sphère et axe) et des variables démographiques (âge, genre). Un test de régression a été effectué pour chaque modèle de régression, défini comme la sélection d’une des 256 combinaisons possibles de variables cliniques (les prédicteurs), d’une méthode de régression, et d’un vecteur de coefficients de Zernike d’une certaine taille (entre 12 et 20 coefficients, les cibles). Tous les modèles de régression testés ont été évalués à l’aide de score de RMSE établissant la distance entre les surfaces cornéennes prédites (les prédictions) et vraies (les topographies corn¬éennes brutes). Les meilleurs d’entre eux ont été validés sur l’ensemble de données randomisé 20 fois pour déterminer avec plus de précision lequel d’entre eux est le plus performant. Il s’agit de gradient boosting utilisant toutes les variables cliniques comme prédicteurs et 16 coefficients de Zernike comme cibles. Les prédictions de ce modèle ont été évaluées qualitativement à l’aide d’un atlas de cartes d’élévations moyennes élaborées à partir des variables cliniques ayant servi de prédicteurs, qui permet de visualiser les transformations moyennes d’en groupe à l’autre pour chaque variables. Cet atlas a permis d’établir que les cornées prédites moyennes sont remarquablement similaires aux vraies cornées moyennes pour toutes les variables cliniques à l’étude. / This thesis aims to investigate the best conditions in which the anterior corneal surface of normal
corneas can be preprocessed, classified and predicted using geometric modeling (GM) and machine
learning (ML) techniques. The focus is on the anterior corneal surface, which is the main
responsible of the refractive power of the cornea.
Dealing with preprocessing, the first study (Chapter 2) examines the conditions in which GM
can best be applied to reduce the dimensionality of a dataset of corneal surfaces to be used in ML
projects. Four types of geometric models of corneal shape were tested regarding their accuracy and
processing time: two polynomial (P) models – Zernike polynomial (ZP) and spherical harmonic
polynomial (SHP) models – and two corresponding rational function (R) models – Zernike rational
function (ZR) and spherical harmonic rational function (SHR) models. SHP and ZR are both known
to be more accurate than ZP as corneal shape models for the same number of coefficients, but which
type of model is the most accurate between SHP and ZR? And is an SHR model, which is both an
SH model and an R model, even more accurate? Also, does modeling accuracy comes at the cost
of the processing time, an important issue for testing large datasets as required in ML projects?
Focusing on low J values (number of model coefficients) to address these issues in consideration
of dimensionality constraints that apply in ML tasks, it was found, based on a number of evaluation
tools, that SH models were both more accurate than their Z counterparts, that R models were both
more accurate than their P counterparts and that the SH advantage was more important than the R
advantage. Processing time curves as a function of J showed that P models were processed in quasilinear time, R models in polynomial time, and that Z models were fastest than SH models.
Therefore, while SHR was the most accurate geometric model, it was the slowest (a problem that
can partly be remedied by applying a preoptimization procedure). ZP was the fastest model, and
with normal corneas, it remains an interesting option for testing and development, especially for
clustering tasks due to its transparent interpretability. The best compromise between accuracy and
speed for ML preprocessing is SHP.
The classification of corneal shapes with clinical parameters has a long tradition, but the
visualization of their effects on the corneal shape with group maps (average elevation maps,
standard deviation maps, average difference maps, etc.) is relatively recent. In the second study
(Chapter 3), we constructed an atlas of average elevation maps for different clinical variables
(including geometric, refraction and demographic variables) that can be instrumental in the
evaluation of ML task inputs (datasets) and outputs (predictions, clusters, etc.). A large dataset of
normal adult anterior corneal surface topographies recorded in the form of 101×101 elevation
matrices was first preprocessed by geometric modeling to reduce the dimensionality of the dataset
to a small number of Zernike coefficients found to be optimal for ML tasks. The modeled corneal
surfaces of the dataset were then grouped in accordance with the clinical variables available in the
dataset transformed into categorical variables. An average elevation map was constructed for each
group of corneal surfaces of each clinical variable in their natural (non-normalized) state and in
their normalized state by averaging their modeling coefficients to get an average surface and by
representing this average surface in reference to the best-fit sphere in a topographic elevation map.
To validate the atlas thus constructed in both its natural and normalized modalities, ANOVA tests
were conducted for each clinical variable of the dataset to verify their statistical consistency with
the literature before verifying whether the corneal shape transformations displayed in the maps
were themselves visually consistent. This was the case. The possible uses of such an atlas are
discussed.
The third study (Chapter 4) is concerned with the use of a dataset of geometrically modeled
corneal surfaces in an ML task of clustering. The unsupervised classification of corneal surfaces is
recent in ophthalmology. Most of the few existing studies on corneal clustering resort to feature
extraction (as opposed to geometric modeling) to achieve the dimensionality reduction of the dataset. The goal is usually to automate the process of corneal diagnosis, for instance by
distinguishing irregular corneal surfaces (keratoconus, Fuch, etc.) from normal surfaces and, in
some cases, by classifying irregular surfaces into subtypes. Complementary to these corneal
clustering studies, the proposed study resorts mainly to geometric modeling to achieve
dimensionality reduction and focuses on normal adult corneas in an attempt to identify their natural
groupings, possibly in combination with feature extraction methods. Geometric modeling was
based on Zernike polynomials, known for their interpretative transparency and sufficiently accurate
for normal corneas. Different types of clustering methods were evaluated in pretests to identify the
most effective at producing neatly delimitated clusters that are clearly interpretable. Their
evaluation was based on clustering scores (to identify the best number of clusters), polar charts and
scatter plots (to visualize the modeling coefficients involved in each cluster), average elevation
maps and average profile cuts (to visualize the average corneal surface of each cluster), and
statistical cluster comparisons on different clinical parameters (to validate the findings in reference
to the clinical literature). K-means, applied to geometrically modeled surfaces without feature
extraction, produced the best clusters, both for natural and normalized surfaces. While the clusters
produced with natural corneal surfaces were based on the corneal curvature, those produced with
normalized surfaces were based on the corneal axis. In each case, the best number of clusters was
four. The importance of curvature and axis as grouping criteria in corneal data distribution is
discussed.
The fourth study presented in this thesis (Chapter 5) explores the ML paradigm to verify whether
accurate predictions of normal corneal shapes can be made from clinical data, and how. The
database of normal adult corneal surfaces was first preprocessed by geometric modeling to reduce
its dimensionality into short vectors of 12 to 20 Zernike coefficients, found to be in the range of
appropriate numbers to achieve optimal predictions. The nonlinear regression methods examined
from the scikit-learn library were gradient boosting, Gaussian process, kernel ridge, random forest,
k-nearest neighbors, bagging, and multilayer perceptron. The predictors were based on the clinical
variables available in the database, including geometric variables (best-fit sphere radius, white-towhite diameter, anterior chamber depth, corneal side), refraction variables (sphere, cylinder, axis)
and demographic variables (age, gender). Each possible combination of regression method, set of
clinical variables (used as predictors) and number of Zernike coefficients (used as targets) defined
a regression model in a prediction test. All the regression models were evaluated based on their
mean RMSE score (establishing the distance between the predicted corneal surfaces and the raw
topographic true surfaces). The best model identified was further qualitatively assessed based on
an atlas of predicted and true average elevation maps by which the predicted surfaces could be
visually compared to the true surfaces on each of the clinical variables used as predictors. It was
found that the best regression model was gradient boosting using all available clinical variables as
predictors and 16 Zernike coefficients as targets. The most explicative predictor was the best-fit
sphere radius, followed by the side and refractive variables. The average elevation maps of the true
anterior corneal surfaces and the predicted surfaces based on this model were remarkably similar
for each clinical variable.
|
210 |
Enhancing human activity recognition via analysis of hexoskin sensor data and deep learning techniquesSaini, Anuj 05 1900 (has links)
Les technologies portables sont dans le processus de révolutionner le domaine de la santé en
offrant des données vitales qui assistent dans la prévention et le traitement des maladies. Les
appareils portables de la santé (HWDs), comme le vêtement biométrique de Hexoskin, sont
à la pointe de cette innovation en offrant des données physiologiques détaillées et en ayant
un impact significatif dans les domaines comme l’analyse de la démarche et la surveillance
des activités.
Le but de cette étude est de développer des modèles précis de machine learning et deep
learning capables de prédire les activités humaines à l’aide de données provenant des technologies
portables Hexoskin. Ceci implique l’analyse des données des capteurs comme la
fréquence cardiaque et les mouvements du torse dans l’optique de prédire avec précision les
activités telles que la marche, la course et le sommeil.
Cette étude a fait l’objet d’une collecte de données des capteurs de 52 participants sur une
période de deux semaines à l’aide des technologies portables Hexoskin. Plusieurs techniques
avancées d’ingénierie des caractéristiques ont été appliquées pour extraire des caractéristiques
critiques comme les accélérations X, Y et Z. Plusieurs algorithmes de machine learning tels
que le Balanced Random Forest (BRF), XGradient Boosting et LSTM (sans ingénierie des
caractéristiques) ont été utilisés pour l’analyse des données.
Les modèles ont été entraînés et testés sur des données provenant d’Hexoskin pour évaluer
leurs performances basées sur l’exactitude, le rappel, la précision et du score F1. Cette
étude démontre que les technologies portables Hexoskin, couplées à des modèles de machine
learning sophistiqués, pouvaient prédire avec une grande précision les activités humaines.
La recherche valide l’efficacité des technologies portables Hexoskin dans la reconnaissance
des activités humaines, en mettant en lumière leur potentielle utilisation dans le domaine de
la santé, l’analyse de la démarche, et la surveillance des activités. Cette étude contribue de
manière significative à l’amélioration des standards de soins médicaux et ouvre des nouvelles
perspectives pour le diagnostic et le traitement des conditions liées à la démarche. L’intégration
des technologies Hexoskin avec des algorithmes de machine learning représente un pas
en avant significatif dans la surveillance continue et en temps réel des maladies chroniques,
v
positionnant ainsi Hexoskin comme un outil fiable pour une multitude d’applications dans
le domaine de la santé. / Wearable technologies are revolutionizing the healthcare field by providing vital data that assists in the prevention and treatment of diseases. Health wearable devices (HWDs), like the Hexoskin biometric garment, are at the forefront of this innovation by offering detailed physiological data and significantly impacting fields such as gait analysis and activity monitoring.
The aim of this study is to develop accurate machine learning and deep learning models capable of predicting human activities using data from Hexoskin wearable technologies. This involves analyzing sensor data such as heart rate and torso movements to accurately predict activities such as walking, running, and sleeping.
This study involved collecting sensor data from 52 participants over a two-week period using Hexoskin wearable technologies. Several advanced feature engineering techniques were applied to extract critical features such as X, Y, and Z accelerations. Multiple machine learning algorithms, such as Balanced Random Forest (BRF), XGradient Boosting, and LSTM (without feature engineering), were used for data analysis.
The models were trained and tested on data from Hexoskin to evaluate their performance based on accuracy, recall, precision, and F1 score. This study demonstrates that Hexoskin wearable technologies, coupled with sophisticated machine learning models, can predict human activities with high accuracy.
The research validates the effectiveness of Hexoskin wearable technologies in human activity recognition, highlighting their potential use in healthcare, gait analysis, and activity monitoring. This study significantly contributes to improving medical care standards and opens new perspectives for the diagnosis and treatment of gait-related conditions. The integration of Hexoskin technologies with machine learning algorithms represents a significant step forward in the continuous and real-time monitoring of chronic diseases, positioning Hexoskin as a reliable tool for a multitude of applications in the healthcare field.
|
Page generated in 0.0341 seconds