• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 5
  • 1
  • Tagged with
  • 13
  • 13
  • 13
  • 5
  • 5
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Toward robust deep neural networks

Abbasi, Mahdieh 10 February 2024 (has links)
Dans cette thèse, notre objectif est de développer des modèles d’apprentissage robustes et fiables mais précis, en particulier les Convolutional Neural Network (CNN), en présence des exemples anomalies, comme des exemples adversaires et d’échantillons hors distribution –Out-of-Distribution (OOD). Comme la première contribution, nous proposons d’estimer la confiance calibrée pour les exemples adversaires en encourageant la diversité dans un ensemble des CNNs. À cette fin, nous concevons un ensemble de spécialistes diversifiés avec un mécanisme de vote simple et efficace en termes de calcul pour prédire les exemples adversaires avec une faible confiance tout en maintenant la confiance prédicative des échantillons propres élevée. En présence de désaccord dans notre ensemble, nous prouvons qu’une borne supérieure de 0:5 + _0 peut être établie pour la confiance, conduisant à un seuil de détection global fixe de tau = 0; 5. Nous justifions analytiquement le rôle de la diversité dans notre ensemble sur l’atténuation du risque des exemples adversaires à la fois en boîte noire et en boîte blanche. Enfin, nous évaluons empiriquement la robustesse de notre ensemble aux attaques de la boîte noire et de la boîte blanche sur plusieurs données standards. La deuxième contribution vise à aborder la détection d’échantillons OOD à travers un modèle de bout en bout entraîné sur un ensemble OOD approprié. À cette fin, nous abordons la question centrale suivante : comment différencier des différents ensembles de données OOD disponibles par rapport à une tâche de distribution donnée pour sélectionner la plus appropriée, ce qui induit à son tour un modèle calibré avec un taux de détection des ensembles inaperçus de données OOD? Pour répondre à cette question, nous proposons de différencier les ensembles OOD par leur niveau de "protection" des sub-manifolds. Pour mesurer le niveau de protection, nous concevons ensuite trois nouvelles mesures efficaces en termes de calcul à l’aide d’un CNN vanille préformé. Dans une vaste série d’expériences sur les tâches de classification d’image et d’audio, nous démontrons empiriquement la capacité d’un CNN augmenté (A-CNN) et d’un CNN explicitement calibré pour détecter une portion significativement plus grande des exemples OOD. Fait intéressant, nous observons également qu’un tel A-CNN (nommé A-CNN) peut également détecter les adversaires exemples FGS en boîte noire avec des perturbations significatives. En tant que troisième contribution, nous étudions de plus près de la capacité de l’A-CNN sur la détection de types plus larges d’adversaires boîte noire (pas seulement ceux de type FGS). Pour augmenter la capacité d’A-CNN à détecter un plus grand nombre d’adversaires,nous augmentons l’ensemble d’entraînement OOD avec des échantillons interpolés inter-classes. Ensuite, nous démontrons que l’A-CNN, entraîné sur tous ces données, a un taux de détection cohérent sur tous les types des adversaires exemples invisibles. Alors que la entraînement d’un A-CNN sur des adversaires PGD ne conduit pas à un taux de détection stable sur tous les types d’adversaires, en particulier les types inaperçus. Nous évaluons également visuellement l’espace des fonctionnalités et les limites de décision dans l’espace d’entrée d’un CNN vanille et de son homologue augmenté en présence d’adversaires et de ceux qui sont propres. Par un A-CNN correctement formé, nous visons à faire un pas vers un modèle d’apprentissage debout en bout unifié et fiable avec de faibles taux de risque sur les échantillons propres et les échantillons inhabituels, par exemple, les échantillons adversaires et OOD. La dernière contribution est de présenter une application de A-CNN pour l’entraînement d’un détecteur d’objet robuste sur un ensemble de données partiellement étiquetées, en particulier un ensemble de données fusionné. La fusion de divers ensembles de données provenant de contextes similaires mais avec différents ensembles d’objets d’intérêt (OoI) est un moyen peu coûteux de créer un ensemble de données à grande échelle qui couvre un plus large spectre d’OoI. De plus, la fusion d’ensembles de données permet de réaliser un détecteur d’objet unifié, au lieu d’en avoir plusieurs séparés, ce qui entraîne une réduction des coûts de calcul et de temps. Cependant, la fusion d’ensembles de données, en particulier à partir d’un contexte similaire, entraîne de nombreuses instances d’étiquetées manquantes. Dans le but d’entraîner un détecteur d’objet robuste intégré sur un ensemble de données partiellement étiquetées mais à grande échelle, nous proposons un cadre d’entraînement auto-supervisé pour surmonter le problème des instances d’étiquettes manquantes dans les ensembles des données fusionnés. Notre cadre est évalué sur un ensemble de données fusionné avec un taux élevé d’étiquettes manquantes. Les résultats empiriques confirment la viabilité de nos pseudo-étiquettes générées pour améliorer les performances de YOLO, en tant que détecteur d’objet à la pointe de la technologie. / In this thesis, our goal is to develop robust and reliable yet accurate learning models, particularly Convolutional Neural Networks (CNNs), in the presence of adversarial examples and Out-of-Distribution (OOD) samples. As the first contribution, we propose to predict adversarial instances with high uncertainty through encouraging diversity in an ensemble of CNNs. To this end, we devise an ensemble of diverse specialists along with a simple and computationally efficient voting mechanism to predict the adversarial examples with low confidence while keeping the predictive confidence of the clean samples high. In the presence of high entropy in our ensemble, we prove that the predictive confidence can be upper-bounded, leading to have a globally fixed threshold over the predictive confidence for identifying adversaries. We analytically justify the role of diversity in our ensemble on mitigating the risk of both black-box and white-box adversarial examples. Finally, we empirically assess the robustness of our ensemble to the black-box and the white-box attacks on several benchmark datasets.The second contribution aims to address the detection of OOD samples through an end-to-end model trained on an appropriate OOD set. To this end, we address the following central question: how to differentiate many available OOD sets w.r.t. a given in distribution task to select the most appropriate one, which in turn induces a model with a high detection rate of unseen OOD sets? To answer this question, we hypothesize that the “protection” level of in-distribution sub-manifolds by each OOD set can be a good possible property to differentiate OOD sets. To measure the protection level, we then design three novel, simple, and cost-effective metrics using a pre-trained vanilla CNN. In an extensive series of experiments on image and audio classification tasks, we empirically demonstrate the abilityof an Augmented-CNN (A-CNN) and an explicitly-calibrated CNN for detecting a significantly larger portion of unseen OOD samples, if they are trained on the most protective OOD set. Interestingly, we also observe that the A-CNN trained on the most protective OOD set (calledA-CNN) can also detect the black-box Fast Gradient Sign (FGS) adversarial examples. As the third contribution, we investigate more closely the capacity of the A-CNN on the detection of wider types of black-box adversaries. To increase the capability of A-CNN to detect a larger number of adversaries, we augment its OOD training set with some inter-class interpolated samples. Then, we demonstrate that the A-CNN trained on the most protective OOD set along with the interpolated samples has a consistent detection rate on all types of unseen adversarial examples. Where as training an A-CNN on Projected Gradient Descent (PGD) adversaries does not lead to a stable detection rate on all types of adversaries, particularly the unseen types. We also visually assess the feature space and the decision boundaries in the input space of a vanilla CNN and its augmented counterpart in the presence of adversaries and the clean ones. By a properly trained A-CNN, we aim to take a step toward a unified and reliable end-to-end learning model with small risk rates on both clean samples and the unusual ones, e.g. adversarial and OOD samples.The last contribution is to show a use-case of A-CNN for training a robust object detector on a partially-labeled dataset, particularly a merged dataset. Merging various datasets from similar contexts but with different sets of Object of Interest (OoI) is an inexpensive way to craft a large-scale dataset which covers a larger spectrum of OoIs. Moreover, merging datasets allows achieving a unified object detector, instead of having several separate ones, resultingin the reduction of computational and time costs. However, merging datasets, especially from a similar context, causes many missing-label instances. With the goal of training an integrated robust object detector on a partially-labeled but large-scale dataset, we propose a self-supervised training framework to overcome the issue of missing-label instances in the merged datasets. Our framework is evaluated on a merged dataset with a high missing-label rate. The empirical results confirm the viability of our generated pseudo-labels to enhance the performance of YOLO, as the current (to date) state-of-the-art object detector.
2

Réseaux convolutifs à politiques

Pothier, Dominique 27 January 2024 (has links)
Malgré leurs excellentes performances, les exigences élevées des réseaux de neurones artificiels en terme de volume de données et de puissance de calcul limitent leur adoption dans plusieurs domaines. C'est pourquoi il reste important de développer de nouvelles architectures moins voraces. Ce mémoire cherche à produire une architecture plus flexible et moins vorace en s'appuyant sur la théorie de l'apprentissage par renforcement. En considérant le réseau comme un agent suivant une politique, on réalise que cette politique est beaucoup plus rigide que celle suivie habituellement par les agents d'apprentissage par renforcement. Nous posons l'hypothèse qu'une architecture capable de formuler une politique plus flexible pourrait atteindre des performances similaires tout en limitant son utilisation de ressources. L'architecture que nous proposons s'inspire de la recherche faite en prédiction de paramètres, particulièrement de l'architecture hypernetwork, que nous utilisons comme base de référence. Nos résultats montrent que l'apprentissage d'une politique dynamique aussi performante que les politiques statiques suivies par les réseaux conventionnels n'est pas une tâche triviale. Nos meilleurs résultats indiquent une diminution du nombre de paramètres de 33%, une diminution des calculs de 12% au prix d'une baisse de l'exactitude des prédictions de 2%. Malgré ces résultats, nous croyons que notre architecture est un point de départ pouvant être amélioré de plusieurs manières que nous explorons rapidement en conclusion. / Despite their excellent performances, artificial neural networks high demand of both data and computational power limit their adoption in many domains. Developing less demanding architecture thus remain an important endeavor. This thesis seeks to produce a more flexible and less resource-intensive architecture by using reinforcement learning theory. When considering a network as an agent instead of a function approximator, one realize that the implicit policy followed by popular feed forward networks is extremely simple. We hypothesize that an architecture able to learn a more flexible policy could reach similar performances while reducing its resource footprint. The architecture we propose is inspired by research done in weight prediction, particularly by the hypernetwork architecture, which we use as a baseline model.Our results show that learning a dynamic policy achieving similar results to the static policies of conventional networks is not a trivial task. Our proposed architecture succeeds in limiting its parameter space by 20%, but does so at the cost of a 24% computation increase and loss of5% accuracy. Despite those results, we believe that this architecture provides a baseline that can be improved in multiple ways that we describe in the conclusion.
3

Analyse fine 2D/3D de véhicules par réseaux de neurones profonds / 2D/3D fine-grained analysis of vehicles using deep neural networks

Chabot, Florian 28 June 2017 (has links)
Les travaux développés dans cette thèse s’intéressent à l’analyse fine des véhicules à partir d’une image. Nous définissons le terme d’analyse fine comme un regroupement des concepts suivants : la détection des véhicules dans l’image, l’estimation de leur point de vue (ou orientation), la caractérisation de leur visibilité, leur localisation 3D dans la scène et la reconnaissance de leur marque et de leur modèle. La construction de solutions fiables d’analyse fine de véhicules laisse place à de nombreuses applications notamment dans le domaine du transport intelligent et de la vidéo surveillance.Dans ces travaux, nous proposons plusieurs contributions permettant de traiter partiellement ou complètement cette problématique. Les approches mises en oeuvre se basent sur l’utilisation conjointe de l’apprentissage profond et de modèles 3D de véhicule. Dans une première partie, nous traitons le problème de reconnaissance de marques et modèles en prenant en compte la difficulté de la création de bases d’apprentissage. Dans une seconde partie, nous investiguons une méthode de détection et d’estimation du point de vue précis en nous basant sur l’extraction de caractéristiques visuelles locales et de la cohérence géométrique. La méthode utilise des modèles mathématiques uniquement appris sur des données synthétiques. Enfin, dans une troisième partie, un système complet d’analyse fine de véhicules dans le contexte de la conduite autonome est proposé. Celui-ci se base sur le concept d’apprentissage profond multi-tâches. Des résultats quantitatifs et qualitatifs sont présentés tout au long de ce manuscrit. Sur certains aspects de l’analyse fine de véhicules à partir d’une image, ces recherches nous ont permis de dépasser l’état de l’art. / In this thesis, we are interested in fine-grained analysis of vehicle from an image. We define fine-grained analysis as the following concepts : vehicle detection in the image, vehicle viewpoint (or orientation) estimation, vehicle visibility characterization, vehicle 3D localization and make and model recognition. The design of reliable solutions for fine-grained analysis of vehicle open the door to multiple applications in particular for intelligent transport systems as well as video surveillance systems. In this work, we propose several contributions allowing to address partially or wholly this issue. Proposed approaches are based on joint deep learning technologies and 3D models. In a first section, we deal with make and model classification keeping in mind the difficulty to create training data. In a second section, we investigate a novel method for both vehicle detection and fine-grained viewpoint estimation based on local apparence features and geometric spatial coherence. It uses models learned only on synthetic data. Finally, in a third section, a complete system for fine-grained analysis is proposed. It is based on the multi-task concept. Throughout this report, we provide quantitative and qualitative results. On several aspects related to vehicle fine-grained analysis, this work allowed to outperform state of the art methods.
4

Accélérateur à très basse latence d'un réseau de neurones sur FPGA pour simulations avec matériel dans la boucle

Barnard, Christian 17 June 2024 (has links)
Ce mémoire présente les étapes qui ont mené à la conception et l'implémentation d'un accélérateur matériel d'un réseau de neurones qui sera chargé de la modélisation d'un environnement virtuel dans un simulateur de type "Hardware-in-the-Loop" (HIL). Ce module aura pour but d'offrir un environnement crédible à l'unité de contrôle électronique (ECU) testée sous la forme des signaux d'entrée requis par celle-ci. Cette crédibilité devra être reflétée autant au niveau de l'intégrité des prédictions qu'à celui de la latence de réponse aux actions de l'ECU. Ainsi, le modèle d'apprentissage machine sélectionné devra avoir une charge de calcul relativement légère à l'inférence. Puisque le système désiré devra posséder un haut niveau de portabilité et de réutilisabilité pour permettre l'intégration de différents ECU, le modèle devra être entraînable avec une quantité de données limitée. Suivant ces critères et restrictions, plusieurs architectures de réseaux de neurones furent initialement sélectionnées selon leur succès dans la littérature dans des contextes similaires à celui présenté. Les réseaux de type LSTM, GRU, TCN et NARX furent évalués et comparés sur une tâche de régression de séquences nécessitant la génération de signaux représentant les dynamiques d'un véhicule en freinage équipé d'un système ABS. Le modèle TCN fut capable de démontrer les meilleurs résultats sur la tâche en question comparativement aux autres réseaux. Une technique de régularisation utilisant la différentiation numérique des prédictions fut conçue et appliquée à l'entraînement du modèle afin de promouvoir la génération de signaux plus crédibles. Le réseau TCN fut finalement implémenté sur un accélérateur matériel utilisant les technologies FPGA afin de minimiser la latence des prédictions dans le système HIL. Le produit final permet d'offrir une prédiction du prochain état de l'environnement virtuel après 4.45 μs de latence. Cette valeur ne représente que l'inférence du modèle et omet la latence de communication et de conversion des signaux entre le module de prédiction et l'ECU testé. / This thesis presents the design and implementation of a hardware accelerator for a neural network that will be responsible for modeling a virtual environment in a Hardwarein- the-Loop simulator (HIL). This module aims to provide a credible environment to the electronic control unit (ECU) under test in the form of the input signals required by it. This credibility is reflected both in the integrity of the predictions and in the response latency to ECU actions. Thus, the selected machine learning model has a relatively light computational load at inference. Since the desired system possesses a high level of portability and reusability to allow the integration of different ECUs, the model remains trainable with limited data. Following these criteria and restrictions, several neural network architectures were initially selected according to their success in the literature in contexts similar to the one presented. LSTM, GRU, TCN and NARX architectures were evaluated and compared on a sequence regression task requiring generating signals representing the dynamics of a braking vehicle equipped with an ABS. The TCN model demonstrated the best results on the task in question compared to the other networks. A regularization technique using numerical differentiation of predictions was designed and applied to model training to promote the generation of more believable signals. The TCN network was finally implemented on a hardware accelerator using FPGA technologies to minimize the latency of the predictions in the HIL system. The final product makes it possible to offer a prediction of the next state of the virtual environment after 4.45 μs of latency. This value only represents the model inference and omits the communication and signal conversion latency between the prediction module and the ECU under test.
5

Élaboration d'une méthode de détection et de caractérisation des occlusions présentes dans les nuages de points massifs de zones résidentielles

Albert, William 26 March 2024 (has links)
Titre de l'écran-titre (visionné le 18 mars 2024) / La fréquence et l'ampleur des dommages causés par les inondations au Canada augmentent chaque année, nécessitant des solutions préventives. Les étages inférieurs des bâtiments sont particulièrement vulnérables, justifiant la nécessité de détecter avec précision les ouvertures comme les portes et les fenêtres. Les nuages de points obtenus par télémétrie mobile sont bien adaptés pour identifier la présence de ces ouvertures sur les façades de bâtiments. Toutefois, la présence d'occlusions dans les nuages de points causées par des objets obstruant le faisceau LiDAR rend cette tâche complexe. Le présent projet de maîtrise vise à répondre à cette problématique en proposant une approche pour détecter et caractériser les occlusions dans les scènes acquises dans les milieux résidentiels et ruraux. La conception de la méthode est articulée autour de deux volets : la segmentation sémantique pour étiqueter le nuage de points et la détection d'occlusions par lancer de rayons. La méthode a été validée à partir de données simulées car elles permettent un contrôle total sur l'environnement et facilitent la visualisation des résultats. Cette analyse a ensuite été transposée sur les résultats obtenus à partir du nuage de points réel. Les résultats obtenus par la méthode proposée ont démontré une capacité à détecter la présence d'occlusions dans les milieux résidentiels et ruraux. La combinaison de la segmentation sémantique pour l'étiquetage du nuage de points avec la détection d'occlusions par lancers de rayons a permis une identification robuste des occlusions. Ces résultats soulignent l'efficacité de la solution dans des contextes réalistes, renforçant ainsi sa pertinence pour la détection précise des ouvertures sur les façades, une étape cruciale pour évaluer les risques liés aux inondations. La transposition réussie de l'analyse des données simulées aux résultats du nuage de points réel valide la robustesse de l'approche et son applicabilité dans des scénarios du monde réel. / The frequency and extent of flood damage in Canada increases every year, necessitating preventive solutions. The lower floors of buildings are particularly vulnerable, justifying the need for accurate detection of openings such as doors and windows. Point clouds obtained by mobile telemetry are suitable for identifying the presence of such openings on building facades. However, the presence of occlusions in the point clouds caused by objects obstructing the LiDAR beam makes this a complex task. The present Master's project aims to address this issue by proposing an approach for detecting and characterizing occlusions in scenes acquired in residential and rural environments. The method was designed around two components: semantic segmentation to label the point cloud, and occlusion detection using ray tracing. The method was validated using simulated data, as these allow total control over the environment and facilitate visualization of the results. This analysis was then transposed to results obtained from the real point cloud. The results obtained by the proposed method demonstrated an ability to detect the presence of occlusions in residential and rural environments. Combining semantic segmentation for point cloud labeling with occlusion detection by ray-tracing enabled robust occlusion identification. These results underline the effectiveness of the solution in realistic contexts, reinforcing its relevance for the accurate detection of facade openings, a crucial step in assessing flood risks. The successful transposition of simulated data analysis to real point cloud results validates the robustness of the approach and its applicability in real-world scenarios.
6

L'internet des objets médicaux (IoMT) appliqué aux soins de santé ambulatoires : prévention, détection et alertes intelligentes en boucle fermée

Mascret, Quentin 19 July 2024 (has links)
Thèse ou mémoire avec insertion d'articles / L'expansion rapide de l'Internet des Objets Médicaux (IoMT) englobe une variété de technologies connectées dans le domaine de la santé. Toutefois, les dispositifs de mesure actuels, notamment les bracelets connectés, présentent des limitations qui entravent l'adoption généralisée de l'IoMT et leur utilisation pour la mesure précise et fiable de l'état de santé. Ces limitations se manifestent dans la nécessité d'une transmission continue des données vers des services distants, souvent dépendante de l'utilisation d'un smartphone ou d'une connexion Internet. De plus, l'utilisation prédominante de montres commerciales dans l'IoMT soulève des défis majeurs, tels que la dépendance énergétique liée à une connectivité Internet intensive, la nécessité fréquente de recharges, et le risque de surcharge d'informations due à un affichage continu des données. Une autre contrainte significative dans le contexte de l'IoMT est la dépendance à des serveurs locaux (edge servers) pour la réalisation d'opérations cruciales. De nombreuses applications nécessitent ces serveurs périphériques pour effectuer des traitements locaux, améliorant ainsi la réactivité du système et réduisant la dépendance aux ressources cloud. Cependant, cette dépendance introduit de nouveaux défis en termes de gestion des données, de sécurité et de latence. Cette recherche s'inscrit dans un contexte complexe où l'IoMT, malgré ses avantages potentiels, doit surmonter des obstacles liés à la transmission de données, à la dépendance énergétique des dispositifs, et à la nécessité d'une infrastructure robuste, telle que les serveurs locaux, pour réaliser des opérations cruciales. Ces défis sont particulièrement prégnants dans le cadre de l'extraction des signes vitaux et l'étude de l'activité physique humaine. Pour répondre à ces défis, ce projet de recherche vise à concevoir un bracelet intelligent intégrant des circuits analogiques-numériques pour l'acquisition brute de signaux physiologiques. L'objectif est d'extraire plusieurs signes vitaux, d'optimiser l'utilisation des capteurs en fonction de l'activité et des signes vitaux, d'effectuer des opérations complexes à grande vitesse avec une faible latence et une consommation d'énergie limitée. Le bracelet sera configurable et adaptable, utilisant une transmission sans fil efficace tout en conservant la trace de l'évolution des signes vitaux. Il en résulte trois grands axes de recherches. Un premier axe de recherche a permis de démontrer un système novateur d'analyse en temps réel de douze mouvements de l'activité physique humaine grâce à l'intégration d'apprentissage machine dans le capteur. Ce système, en utilisant les données brutes des capteurs inertiel, a permis de réduire considérablement les coûts computationnels tout en améliorant la précision de la machine à vecteur de support à noyau gaussien par l'utilisation d'une Normalisation Sphérique Multi-Mapping (NSMM) visant à améliorer la dispersion des données. Les résultats montrent une rétroaction de prédiction rapide avec une latence inférieure à 20 ms et une consommation d'énergie modérée tout en offrant une précision de 98.28%. De manière similaire, le deuxième axe de recherche s'est concentré sur le développement d'un bracelet intelligent intégrant plusieurs algorithmes d'IA permettant d'extraire en temps réel des signes vitaux, même lors d'artefacts de mouvement. Ces algorithmes, spécifiquement optimisés pour minimiser l'utilisation de la RAM et des ressources matérielles, permettent une mesure précise du rythme cardiaque, de la fréquence respiratoire et de la saturation en oxygène. L'introduction d'un algorithme intelligent de fusion de domaines maintien des performances élevées pour l'extraction des signes vitaux tout en réduisant l'utilisation de la RAM, même en présence d'artefacts de mouvement. Par ailleurs, le troisième axe de recherche a innové en déployant un modèle d'apprentissage automatique, une machine à vecteur support à noyau linéaire, embarqué dans un dispositif portable pour détecter en temps réel les chutes. L'optimisation du modèle a considérablement réduit l'utilisation de la RAM de 97.9%, tout en maintenant une précision élevée de 96.4% dans la détection des chutes. Bien que cette optimisation entraîne une légère augmentation de la latence, celle-ci reste inférieure à 132 ms, garantissant une détection efficace des chutes. En conclusion, ces recherches contribuent au développement de dispositifs portables intelligents intégrant l'apprentissage automatique pour la surveillance médicale en temps réel. Les méthodes innovantes, les algorithmes optimisés et les déploiements embarqués ouvrent des perspectives pratiques, notamment dans la prévention des blessures, les soins aux personnes âgées et la surveillance continue de la santé. Ces résultats enrichissent l'évolution de l'IoMT, en fournissant des solutions adaptées et efficaces aux contraintes des dispositifs portables. / The rapid expansion of the Internet of Medical Things (IoMT) encompasses a variety of connected technologies in the healthcare sector. However, current measurement devices, notably wearable devices like smartwatches, have limitations that hinder the widespread adoption of IoMT and their use for precise and reliable health monitoring. These limitations include the need for continuous data transmission to remote services, often reliant on a smartphone or Internet connection. Additionally, the prevalent use of commercial watches in IoMT poses major challenges, such as energy dependence due to intensive Internet connectivity, frequent recharging needs, and the risk of information overload from continuous data display. Another significant constraint in the IoMT context is the reliance on edge servers for crucial operations. Many applications require these peripheral servers for local processing, improving system responsiveness and reducing dependence on cloud resources. However, this dependence introduces new challenges in terms of data management, security, and latency. This research addresses a complex context where IoMT, despite its potential benefits, must overcome obstacles related to data transmission, device energy dependence, and the need for a robust infrastructure, such as edge servers, to perform critical operations. These challenges are particularly prevalent in vital signs extraction and human physical activity studies. To address these challenges, this research project aims to design a smart bracelet integrating analog-todigital circuits for raw physiological signal acquisition. The goal is to extract multiple vital signs, optimize sensor use based on activity and vital signs, perform complex operations at high speed with low latency and limited energy consumption. The bracelet will be configurable and adaptable, using efficient wireless transmission while keeping track of vital signs evolution. As a result, three main research axes emerge. The first axis demonstrates an innovative realtime analysis system for twelve human physical activity movements through machine learning integration into the sensor. Using raw inertial sensor data, this system significantly reduces computational costs while improving the accuracy of the Gaussian kernel support vector machine through the use of Multi-Mapping Spherical Normalization (MMSN) to improve data dispersion. The results show rapid prediction feedback with latency below 20 ms and moderate energy consumption while offering 98.28% accuracy. Similarly, the second research axis focused on developing a smart bracelet integrating multiple AI algorithms for real-time ex traction of vital signs, even during motion artifacts. These algorithms, specifically optimized to minimize RAM and hardware resource usage, allow for precise measurement of heart rate, respiratory rate, and oxygen saturation. The introduction of an intelligent domain fusion algorithm maintains high performance for vital signs extraction while reducing RAM usage, even in the presence of motion artifacts. Furthermore, the third research axis innovated by deploying a machine learning model, a linear kernel support vector machine, embedded in a wearable device for real-time fall detection. Model optimization significantly reduced RAM usage by 97.9%, while maintaining high detection accuracy of 96.4% for falls. Although this optimization leads to a slight increase in latency, it remains below 132 ms, ensuring effective fall detection. In conclusion, this research contributes to the development of smart wearable devices integrating machine learning for real-time medical monitoring. The innovative methods, optimized algorithms, and embedded deployments offer practical prospects, particularly in injury prevention, elderly care, and continuous health monitoring. These results enrich the evolution of IoMT by providing tailored and effective solutions to the constraints of wearable devices.
7

Association rules mining in massive datasets : an application to polypharmacy detection

Berteloot, Théophile 13 December 2023 (has links)
Titre de l'écran-titre (visionné le 30 mai 2023) / Ce travail s'inscrit dans un projet de plus grande envergure, concernant la détection de polypharmacie potentiellement inappropriée, c'est-à-dire les combinaisons de 5 médicaments ou plus pris par un individu dans un court laps de temps entrainant des effets de santé indésirables. L'objectif de ce travail est de trouver une méthode efficace et rapide pour extraire un nombre raisonnable de lois d'association de qualité. Ici nos lois d'association mettent en relation des combinaisons de médicaments et des états médicaux. Nous nous sommes intéressés aux mesures permettant de juger la qualité d'une loi d'association ainsi que leur pertinence dans le projet. Ensuite, nous avons mis au point plusieurs méthodes permettant de miner des lois d'association. La première est une métaheuristique basée sur la période géologique appelée l'explosion cambrienne. Les métaheuristiques sont des algorithmes d'optimisation utilisant des processus stochastiques pour faire converger une population (un ensemble de solutions) vers l'optimum d'une fonction. Nous avons ensuite envisagé l'utilisation de réseaux de neurones profonds, plus précisément des auto-encodeurs. Nous avons alors créé l'algorithme ARM-AE qui utilise les auto-encodeurs et obtient de bonnes performances et surpasse les méthodes classiques sur plusieurs mesures de performance. Finalement, nous avons appliqué ARM-AE sur le jeu de données massives en santés de l'INSPQ (Institut national de santé publique du Québec) et nous fournissons une analyse des lois trouvées d'un point de vue statistique et médical. / This work is part of a larger project regarding the detection of potentially inappropriate polypharmacy leading to negative health effects in Quebec seniors. Polypharmacy is most often defined as a combinations of five or more medications taken at the same time by an individual. The objective of this work is to find an efficient and fast method to find a reasonable number of quality association rules. An association rule is an implication of the form A ⇒ C, which can be read as ”If A then C”, with A and C two sets of items, here the items are drugs and medical outcomes. We are interested in measures that allow to judge the quality of an association rule, as well as their relevance in the project. Then we develop several methods to mine association rules. The first one is a metaheuristic based on the geological period called the Cambrian explosion. Metaheuristics are optimisation algorithms using stochastic processes to converge a population (a set of solutions) to the optimum of a function. We then consider using deep neural networks, more precisely auto-encoders. We create the ARM-AE algorithm which uses auto-encoders and presents good performances and has several advantages over classical methods. Finally we apply ARM-AE on the massive healthcare dataset of the INSPQ (Institutnational de santé publique du Québec), and we provide an analysis of the rules found from a statistical and a medical point of view.
8

Reconfigurable hardware acceleration of CNNs on FPGA-based smart cameras / Architectures reconfigurables pour l’accélération des CNNs. Applications sur cameras intelligentes à base de FPGAs

Abdelouahab, Kamel 11 December 2018 (has links)
Les Réseaux de Neurones Convolutifs profonds (CNNs) ont connu un large succès au cours de la dernière décennie, devenant un standard de la vision par ordinateur. Ce succès s’est fait au détriment d’un large coût de calcul, où le déploiement des CNNs reste une tâche ardue surtout sous des contraintes de temps réel.Afin de rendre ce déploiement possible, la littérature exploite le parallélisme important de ces algorithmes, ce qui nécessite l’utilisation de plate-formes matérielles dédiées. Dans les environnements soumis à des contraintes de consommations énergétiques, tels que les nœuds des caméras intelligentes, les cœurs de traitement à base de FPGAs sont reconnus comme des solutions de choix pour accélérer les applications de vision par ordinateur. Ceci est d’autant plus vrai pour les CNNs, où les traitements se font naturellement sur un flot de données, rendant les architectures matérielles à base de FPGA d’autant plus pertinentes. Dans ce contexte, cette thèse aborde les problématiques liées à l’implémentation des CNNs sur FPGAs. En particulier, ces travaux visent à améliorer l’efficacité des implantations grâce à deux principales stratégies d’optimisation; la première explore le modèle et les paramètres des CNNs, tandis que la seconde se concentre sur les architectures matérielles adaptées au FPGA. / Deep Convolutional Neural Networks (CNNs) have become a de-facto standard in computer vision. This success came at the price of a high computational cost, making the implementation of CNNs, under real-time constraints, a challenging task.To address this challenge, the literature exploits the large amount of parallelism exhibited by these algorithms, motivating the use of dedicated hardware platforms. In power-constrained environments, such as smart camera nodes, FPGA-based processing cores are known to be adequate solutions in accelerating computer vision applications. This is especially true for CNN workloads, which have a streaming nature that suits well to reconfigurable hardware architectures.In this context, the following thesis addresses the problems of CNN mapping on FPGAs. In Particular, it aims at improving the efficiency of CNN implementations through two main optimization strategies; The first one focuses on the CNN model and parameters while the second one considers the hardware architecture and the fine-grain building blocks.
9

Classification de pollens par réseau neuronal : application en reconstructions paléo-environnementales de populations marginales

Durand, Médéric 04 1900 (has links)
La hausse actuelle du climat pousse les espèces d’arbres tempérés à migrer vers le nord. En vue de comprendre comment certaines espèces réagiront face à cette migration, nous pouvons porter notre regard vers les populations marginales. Les études paléoécologiques de ces populations – situées au-delà de l’aire de répartition continue de l’espèce – peuvent nous informer quant aux conditions écologiques nécessaires à leur migration. Ce mémoire analyse un peuplement d’érables à sucre (Acer saccharum Marsh.) situé à la limite nordique de la répartition de l’espèce, dans la forêt tempérée mixte québécoise. L’objectif de la recherche est d’identifier quand et sous quelles conditions écologiques A. saccharum s’est établi en situation marginale. À ces fins, cette étude propose l’analyse des fossiles extraits des sédiments lacustres d’un lac situé à proximité de l’érablière. Un modèle d’apprentissage-machine est entraîné à l’aide d’images de pollens et permet la classification des pollens extraits des sédiments lacustres – le premier de la sorte. Notre méthode proposée emploi un protocole d’extraction fossile accéléré et des réseaux de neurone convolutifs permettant de classifier les pollens des espèces les plus retrouvées dans les sédiments quaternaires du nord-est de l’Amérique. Bien qu’encore incapable de classifier précisément toutes les espèces présentes dans une telle séquence fossile, notre modèle est une preuve de concept envers l’automatisation de la paléo-palynologie. Les résultats produits par le modèle combinés à l’analyse des charbons fossiles permettent la reconstruction de la végétation et des feux des 10,000 dernières années. L’établissement régional d’A. saccharum est daté à 4,800 cal. BP, durant une période de refroidissement climatique et de feux fréquents mais de faible sévérité. Sa présence locale est prudemment établie à 1,200 cal. BP. Les résultats de ce mémoire soulignent le potentiel de la paléo-palynologie automatique ainsi que la complexité de l’écologie d’A. saccharum. / The current global climate warming is pushing temperate tree species to migrate northwards. To understand how certain species will undergo this migration, we can look at marginal populations. The paleoecological studies of such populations, located beyond the species’ core distribution range, can inform us of the conditions needed for a successful migration. This research thesis analyses a sugar maple (Acer saccharum Marsh.) stand located at the northern boundary of the species’ limit, in Québec’s mixed-temperate forest. The objective of this research is to identify when and under which ecological conditions did A. saccharum establish itself as the stand’s dominant species. To that end, this study analyses the fossil record found in a neighbouring lake’s organic sediments. A machine learning-powered model is trained using pollen images to classify the lacustrine sediment’s pollen record. The first of its kind, our proposed method employs an accelerated fossil pollen extraction protocol and convolutional neural networks and can classify the species most commonly found in Northeastern American Quaternary fossil records. Although not yet capable of accurately classifying a complete fossil pollen sequence, our model serves as a proof of concept towards automation in paleo-palynology. Using results generated by our model combined with the analysis of the fossil charcoal record, the past 10,000 years of vegetation and fire history is reconstructed. The regional establishment of A. saccharum is conservatively dated at 4,800 cal. BP, during a period of climate cooling and frequent, although non-severe, forest fires. Its local presence can only be attested to since 1,200 cal. BP. This thesis’ results highlight both the potential of automated paleo-palynology and the complexity of A. saccharum’s ecological requirements.
10

Apprentissage machine embarquée et réseaux de neurones sur graphes pour la reconnaissance de gestes dans les signaux HD-sEMG

Buteau, Étienne 07 June 2024 (has links)
Ce travail explore des solutions afin d'améliorer la reconnaissance des gestes de la main à l'aide de signaux électromyographiques. Grâce aux prothèses myoélectriques, cette technologie a le potentiel de transformer la vie des amputés des membres supérieurs. Malheureusement, les prothèses myoélectriques disponibles sur le marché peinent à reproduire fidèlement les gestes de la main, car il est complexe de déduire l'intention de l'utilisateur à partir de l'activité musculaire mesurée, particulièrement entre différentes utilisations de la prothèse. Pour adresser ce problème, ce travail présente une solution logicielle permettant, à l'aide d'un nouveau capteur flexible d'électromyographie haute densité (HD-EMG) à 64 électrodes, de renforcer la robustesse de la détection contre différentes sources de variations. Cette innovation repose sur l'introduction d'une approche d'augmentation des données par décalage circulaire (ABSDA) couplée à un réseau de neurones à convolution (CNN) et une version anticrénelée (AA-CNN) permettant d'améliorer la robustesse de la classification au mouvement des électrodes et à la variabilité entre les séances. La méthode ABSDA-CNN proposée améliore significativement la précision de la reconnaissance des gestes. Ce travail examine également le potentiel de l'apprentissage machine sur graphes, un domaine émergent qui applique la théorie des graphes à l'intelligence artificielle. En utilisant cette approche pour représenter les capteurs HD-EMG sous forme de graphes, il est possible de capitaliser sur leur structure géométrique naturelle afin de construire des réseaux de neurones sur graphes (GNN) novateurs qui surpassent les réseaux à convolution traditionnels. L'introduction de ces nouvelles architectures permet d'explorer la notion d'invariance en translation des réseaux de neurones en démontrant l'importance d'apprendre la position des électrodes pour améliorer la précision de la reconnaissance des gestes Finalement, une plateforme embarquée sans fil est introduite pour réaliser de la reconnaissance de gestes en temps réel, grâce à un accélérateur Coral Tensor Processing Unit (TPU). Cette solution permet d'intégrer l'intelligence artificielle directement dans les prothèses, supprimant la dépendance à des équipements externes coûteux. Pour une meilleure flexibilité, le système propose la calibration des modèles d'inférence localement ou à distance par le biais d'un serveur. L'exploration des techniques de quantification des données à 8 bits démontre que la compatibilité matérielle peut être obtenue sans sacrifier les performances. / This work explores solutions to improve hand gesture recognition using electromyographic signals. Thanks to myoelectric prostheses, this technology has the potential to radically transformthe lives of upper limb amputees. Unfortunately, the myoelectric prostheses currently availableon the market struggle to faithfully reproduce hand gestures because it is complex to correctlyinfer the user's intention from the measured muscle activity, especially between different usesof the prosthesis. To address this problem, this work presents a software solution that, with the help of anew flexible high-density electromyography (HD-EMG) sensor with 64 electrodes, enhancesthe robustness of detection against various sources of variations. This innovation is basedon the introduction of an array barrel-shifting data augmentation (ABSDA) coupled witha convolutional neural network (CNN) and an anti-aliased version (AA-CNN) to improverobustness to electrode movement, forearm orientation, and inter-session variability. Theproposed ABSDA-CNN method significantly improves the accuracy of gesture recognition. This work also examines the potential of graph machine learning, an emerging field that applies graph theory to artificial intelligence. By using this approach to represent HD-EMGsensors as graphs, it is possible to capitalize on their natural geometric structure to constructinnovative graph neural networks (GNNs) that surpass traditional convolutional networks. The introduction of these new architectures allows for the exploration of the notion of invariance to translation of neural networks by demonstrating the importance of learning electrodepositions to improve gesture recognition accuracy. Finally, a wireless embedded platform is introduced for real-time gesture recognition, thanksto a Coral Tensor Processing Unit (TPU) accelerator. This solution enables the integration ofartificial intelligence directly into prostheses, eliminating the dependency on expensive externalhardware. For enhanced flexibility, the system offers model calibration locally or remotely viaa server. Exploring 8-bit data quantization techniques shows that hardware compatibility canbe achieved without sacrificing performance.

Page generated in 0.0957 seconds