261 |
Learning Image-to-Surface Correspondence / Apprentissage de Correspondances Image-SurfaceGuler, Riza Alp 08 March 2019 (has links)
Cette thèse se concentre sur le développement demodèles de représentation dense d’objets 3-D àpartir d’images. L’objectif de ce travail estd’améliorer les modèles surfaciques 3-D fournispar les systèmes de vision par ordinateur, enutilisant de nouveaux éléments tirés des images,plutôt que les annotations habituellementutilisées, ou que les modèles basés sur unedivision de l’objet en différents parties.Des réseaux neuronaux convolutifs (CNNs) sontutilisés pour associer de manière dense les pixelsd’une image avec les coordonnées 3-D d’unmodèle de l’objet considéré. Cette méthodepermet de résoudre très simplement unemultitude de tâches de vision par ordinateur,telles que le transfert d’apparence, la localisationde repères ou la segmentation sémantique, enutilisant la correspondance entre une solution surle modèle surfacique 3-D et l’image 2-Dconsidérée. On démontre qu’une correspondancegéométrique entre un modèle 3-D et une imagepeut être établie pour le visage et le corpshumains. / This thesis addresses the task of establishing adense correspondence between an image and a 3Dobject template. We aim to bring vision systemscloser to a surface-based 3D understanding ofobjects by extracting information that iscomplementary to existing landmark- or partbasedrepresentations.We use convolutional neural networks (CNNs)to densely associate pixels with intrinsiccoordinates of 3D object templates. Through theestablished correspondences we effortlesslysolve a multitude of visual tasks, such asappearance transfer, landmark localization andsemantic segmentation by transferring solutionsfrom the template to an image. We show thatgeometric correspondence between an imageand a 3D model can be effectively inferred forboth the human face and the human body.
|
262 |
L’amélioration des performances des systèmes sans fil 5G par groupements adaptatifs des utilisateurs / Performance improvement of 5G Wireless Systems through adaptive grouping of usersHajri, Salah Eddine 09 April 2018 (has links)
5G est prévu pour s'attaquer, en plus d'une augmentation considérable du volume de trafic, la tâche de connecter des milliards d'appareils avec des exigences de service hétérogènes. Afin de relever les défis de la 5G, nous préconisons une utilisation plus efficace des informations disponibles, avec plus de sensibilisation par rapport aux services et aux utilisateurs, et une expansion de l'intelligence du RAN. En particulier, nous nous concentrons sur deux activateurs clés de la 5G, à savoir le MIMO massif et la mise en cache proactive. Dans le troisième chapitre, nous nous concentrons sur la problématique de l'acquisition de CSI dans MIMO massif en TDD. Pour ce faire, nous proposons de nouveaux schémas de regroupement spatial tels que, dans chaque groupe, une couverture maximale de la base spatiale du signal avec un chevauchement minimal entre les signatures spatiales des utilisateurs est obtenue. Ce dernier permet d'augmenter la densité de connexion tout en améliorant l'efficacité spectrale. MIMO massif en TDD est également au centre du quatrième chapitre. Dans ce cas, en se basant sur les différents taux de vieillissement des canaux sans fil, la périodicité d'estimation de CSI est supplémentaire. Nous le faisons en proposant un exploité comme un degré de liberté supplémentaire. Nous le faisons en proposant une adaptation dynamique de la trame TDD en fonction des temps de cohérence des canaux hétérogènes. Les stations de bases MIMO massif sont capables d'apprendre la meilleure politique d’estimation sur le uplink pour de longues périodes. Comme les changements de canaux résultent principalement de la mobilité de l'appareil, la connaissance de l'emplacement est également incluse dans le processus d'apprentissage. Le problème de planification qui en a résulté a été modélisé comme un POMDP à deux échelles temporelles et des algorithmes efficaces à faible complexité ont été fournis pour le résoudre. Le cinquième chapitre met l'accent sur la mise en cache proactive. Nous nous concentrons sur l'amélioration de l'efficacité énergétique des réseaux dotes de mise en cache en exploitant la corrélation dans les modèles de trafic en plus de la répartition spatiale des demandes. Nous proposons un cadre qui établit un compromis optimal entre la complexité et la véracité dans la modélisation du comportement des utilisateurs grâce à la classification adaptative basée sur la popularité du contenu. Il simplifie également le problème du placement de contenu, ce qui se traduit par un cadre d'allocation de contenu rapidement adaptable et économe en énergie. / 5G is envisioned to tackle, in addition to a considerable increase in traffic volume, the task of connecting billions of devices with heterogeneous service requirements. In order to address the challenges of 5G, we advocate a more efficient use of the available information, with more service and user awareness, and an expansion of the RAN intelligence. In particular, we focus on two key enablers of 5G, namely massive MIMO and proactive caching. In the third chapter, we focus on addressing the bottleneck of CSI acquisition in TDD Massive MIMO. In order to do so, we propose novel spatial grouping schemes such that, in each group, maximum coverage of the signal’s spatial basis with minimum overlapping between user spatial signatures is achieved. The latter enables to increase connection density while improving spectral efficiency. TDD Massive MIMO is also the focus of the fourth chapter. Therein, based on the different rates of wireless channels aging, CSI estimation periodicity is exploited as an additional DoF. We do so by proposing a dynamic adaptation of the TDD frame based on the heterogeneous channels coherence times. The Massive MIMO BSs are enabled to learn the best uplink training policy for long periods. Since channel changes result primarily from device mobility, location awareness is also included in the learning process. The resulting planning problem was modeled as a two-time scale POMDP and efficient low complexity algorithms were provided to solve it. The fifth chapter focuses on proactive caching. We focus on improving the energy efficiency of cache-enabled networks by exploiting the correlation in traffic patterns in addition to the spatial repartition of requests. We propose a framework that strikes the optimal trade-off between complexity and truthfulness in user behavior modeling through adaptive content popularity-based clustering. It also simplifies the problem of content placement, which results in a rapidly adaptable and energy efficient content allocation framework.
|
263 |
Computational foundations of anthropomorphic locomotion / Fondements calculatoires de la locomotion anthropomorpheCarpentier, Justin 01 September 2017 (has links)
La locomotion anthropomorphe est un processus complexe qui met en jeu un très grand nombre de degrés de liberté, le corps humain disposant de plus de trois cents articulations contre une trentaine chez les robots humanoïdes. Pris dans leur ensemble, ces degrés de liberté montrent une certaine cohérence rendant possible la mise en mouvement du système anthropomorphe et le maintien de son équilibre, dans le but d'éviter la chute. Cette thèse met en lumière les fondements calculatoires à l'origine de cette orchestration. Elle introduit un cadre mathématique unifié permettant à la fois l'étude de la locomotion humaine, et la génération de trajectoires locomotrices pour les robots humanoïdes. Ce cadre consiste en une réduction de la dynamique corps-complet du système pour ne considérer que sa projection autour du centre de gravité, aussi appelée dynamique centroïdale. Bien que réduite, nous montrons que cette dynamique centroïdale joue un rôle central dans la compréhension et la formation des mouvements locomoteurs. Pour ce faire, nous établissons dans un premier temps les conditions d'observabilité de cette dynamique, c'est-à-dire que nous montrons dans quelle mesure cette donnée peut être appréhendée à partir des capteurs couramment employés en biomécanique et en robotique. Forts de ces conditions d'observabilité, nous proposons un estimateur capable de reconstruire la position non-biaisée du centre de gravité. A partir de cet estimateur et de l'acquisition de mouvements de marche sur divers sujets, nous mettons en évidence la présence d'un motif cycloïdal du centre de gravité dans le plan sagittal lorsque l'humain marche de manière nominale, c'est-à-dire sans y penser. La présence de ce motif suggère l'existence d'une synergie motrice jusqu'alors ignorée, soutenant la théorie d'une coordination générale des mouvements pendant la locomotion. La dernière contribution de cette thèse porte sur la locomotion multi-contacts. Les humains ont une agilité remarquable pour effectuer des mouvements locomoteurs qui nécessitent l'utilisation conjointe des bras et des jambes, comme lors de l'ascension d'une paroi rocheuse. Comment doter les robots humanoïdes de telles capacités ? La difficulté n'est certainement pas technologique, puisque les robots actuels sont capables de développer des puissances mécaniques suffisantes. Leurs performances, évaluées tant en termes de qualité des mouvements que de temps de calcul, restent très limitées. Dans cette thèse, nous abordons le problème de génération de trajectoires multi-contacts sous la forme d'un problème de commande optimale. L'intérêt de cette formulation est de partir du modèle réduit de la dynamique centroïdale tout en répondant aux contraintes d'équilibre. L'idée originale consiste à maximiser la vraisemblance de cette dynamique réduite vis-à-vis de la dynamique corps-complet. Elle repose sur l'apprentissage d'une mesure d'occupation qui reflète les capacités cinématiques et dynamiques du robot. Elle est effective : l'algorithmique qui en découle est compatible avec des applications temps réel. L'approche a été évaluée avec succès sur le robot humanoïde HRP-2, sur plusieurs modes de locomotions, démontrant ainsi sa polyvalence. / Anthropomorphic locomotion is a complex process that involves a very large number of degrees of freedom, the human body having more than three hundred joints against thirty in humanoid robots. Taken as a whole, these degrees of freedom show a certain coherence making it possible to set the anthropomorphic system in motion and maintain its equilibrium, in order to avoid falling. This thesis highlights the computational foundations behind this orchestration. It introduces a unified mathematical framework allowing both the study of human locomotion and the generation of locomotive trajectories for humanoid robots. This framework consists of a reduction of the body-complete dynamics of the system to consider only its projection around the center of gravity, also called centroid dynamics. Although reduced, we show that this centroidal dynamics plays a central role in the understanding and formation of locomotive movements. To do this, we first establish the observability conditions of this dynamic, that is to say that we show to what extent this data can be apprehended from sensors commonly used in biomechanics and robotics. Based on these observability conditions, we propose an estimator able to reconstruct the unbiased position of the center of gravity. From this estimator and the acquisition of walking motions on various subjects, we highlight the presence of a cycloidal pattern of the center of gravity in the sagittal plane when the human is walking nominally, that is, to say without thinking. The presence of this motif suggests the existence of a motor synergy hitherto unknown, supporting the theory of a general coordination of movements during locomotion. The last contribution of this thesis is on multi-contact locomotion. Humans have remarkable agility to perform locomotive movements that require joint use of the arms and legs, such as when climbing a rock wall. How to equip humanoid robots with such capabilities? The difficulty is certainly not technological, since current robots are able to develop sufficient mechanical powers. Their performances, evaluated both in terms of quality of movement and computing time, remain very limited. In this thesis, we address the problem of generating multi-contact trajectories in the form of an optimal control problem. The interest of this formulation is to start from the reduced model of centroid dynamics while responding to equilibrium constraints. The original idea is to maximize the likelihood of this reduced dynamic with respect to body-complete dynamics. It is based on learning a measurement of occupation that reflects the kinematic and dynamic capabilities of the robot. It is effective: the resulting algorithmic is compatible with real-time applications. The approach has been successfully evaluated on the humanoid robot HRP-2, on several modes of locomotion, thus demonstrating its versatility.
|
264 |
Contributions to generative models and their applicationsChe, Tong 10 1900 (has links)
Generative models are a large class of machine learning models for unsupervised learning. They have various applications in machine learning and artificial intelligence. In this thesis, we discuss many aspects of generative models and their applications to other machine learning problems. In particular, we discuss several important topics in generative models, including how to stabilize discrete GAN training with importance sampling, how to do better sampling from GANs using a connection with energy-based models, how to better train auto-regressive models with the help of an energy-based model formulation, as well as two applications of generative models to other machine learning problems, one about residual networks, the other about safety verification. / Les modèles génératifs sont une grande classe de modèles d’apprentissage automatique pour
l’apprentissage non supervisé. Ils ont diverses applications dans l’apprentissage automatique
et l’intelligence artificielle. Dans cette thèse, nous discutons de nombreux aspects des modèles
génératifs et de leurs applications à d’autres problèmes d’apprentissage automatique. En
particulier, nous discutons de plusieurs sujets importants dans les modèles génératifs, y
compris comment stabiliser la formation GAN discrète avec un échantillonnage d’importance,
comment faire un meilleur échantillonnage à partir de GAN en utilisant une connexion avec
des modèles basés sur l’énergie, comment mieux former des modèles auto-régressifs avec
l’aide d’une formulation de modèle basée sur l’énergie, ainsi que deux applications de modèles
génératifs à d’autres problèmes d’apprentissage automatique, l’une sur les réseaux résiduels,
l’autre sur la vérification de la sécurité.
|
265 |
Adaptive learning of tensor network structuresHashemizadehaghda, Seyed Meraj 10 1900 (has links)
Les réseaux tensoriels offrent un cadre puissant pour représenter efficacement des objets de très haute dimension. Les réseaux tensoriels ont récemment montré leur potentiel pour les applications d’apprentissage automatique et offrent une vue unifiée des modèles de décomposition tensorielle courants tels que Tucker, tensor train (TT) et tensor ring (TR). Cependant, l’identification de la meilleure structure de réseau tensoriel à partir de données pour une tâche donnée est un défi.
Dans cette thèse, nous nous appuyons sur le formalisme des réseaux tensoriels pour développer un algorithme adaptatif générique et efficace pour apprendre conjointement la structure et les paramètres d’un réseau de tenseurs à partir de données. Notre méthode est basée sur une approche simple de type gloutonne, partant d’un tenseur de rang un et identifiant successivement les bords du réseau tensoriel les plus prometteurs pour de petits incréments de rang. Notre algorithme peut identifier de manière adaptative des structures avec un petit nombre de paramètres qui optimisent efficacement toute fonction objective différentiable. Des expériences sur des tâches de décomposition de tenseurs, de complétion de tenseurs et de compression de modèles démontrent l’efficacité de l’algorithme proposé. En particulier, notre méthode surpasse l’état de l’art basée sur des algorithmes évolutionnaires introduit dans [26] pour la décomposition tensorielle d’images (tout en étant plusieurs ordres de grandeur plus rapide) et trouve des structures efficaces pour compresser les réseaux neuronaux en surpassant les approches populaires basées sur le format TT [30]. / Tensor Networks (TN) offer a powerful framework to efficiently represent very high-dimensional objects. TN have recently shown their potential for machine learning applications and offer a unifying view of common tensor decomposition models such as Tucker, tensor train (TT) and tensor ring (TR). However, identifying the best tensor network structure from data for a given task is challenging. In this thesis, we leverage the TN formalism to develop a generic and efficient adaptive algorithm to jointly learn the structure and the parameters of a TN from data. Our method is based on a simple greedy approach starting from a rank one tensor and successively identifying the most promising tensor network edges for small rank increments. Our algorithm can adaptively identify TN structures with small number of parameters that effectively optimize any differentiable objective function. Experiments on tensor decomposition, tensor completion and model compression tasks demonstrate the effectiveness of the proposed algorithm. In particular, our method outperforms the state-of-the- art evolutionary topology search introduced in [26] for tensor decomposition of images (while being orders of magnitude faster) and finds efficient structures to compress neural networks outperforming popular TT based approaches [30].
|
266 |
Dynamics of learning and generalization in neural networksPezeshki, Mohammad 08 1900 (has links)
Les réseaux neuronaux sont remarquablement performants pour une grande variété de tâches d'apprentissage automatique et ont eu un impact profond sur la définition même de l'intelligence artificielle (IA). Cependant, malgré leur rôle important dans l'état actuel de l'IA, il est important de réaliser que nous sommes encore loin d'atteindre une intelligence de niveau humain. Une étape cruciale à l'amélioration de la performance des réseaux neuronaux consiste à faire progresser notre compréhension théorique, qui est en retard par rapport aux développements pratiques. Les dynamiques d'optimisation complexes des réseaux neuronaux, qui résultent d’interactions en haute dimension entre les nombreux paramètres du réseau, constituent un défi majeur pour l'élaboration des fondements théoriques de l'apprentissage profond. Ces dynamiques non triviales donnent lieu à des comportements empiriques déroutants qui, dans certains cas, contrastent fortement avec les prédictions théoriques. L'absence de surapprentissage dans les réseaux sur-paramétrés, leur recours à des corrélations fallacieuses et les courbes de généralisation non monotones font partie des comportements de généralisation des réseaux neuronaux qui laissent perplexe.
Dans cette thèse, notre objectif est d'étudier certains de ces phénomènes perplexes en tant que pièces différentes d'un même casse-tête; un casse-tête dans lequel chaque phénomène sert de signal d'orientation pour développer une meilleure compréhension des réseaux neuronaux. Nous présentons trois articles en vue d’atteindre cet objectif; Le premier article sur multi-scale feature learning dynamics étudie les raisons qui sous-tendent la courbe de généralisation à double descente observée dans les réseaux neuronaux modernes. L'une des principales conclusions est que la double descente à travers les époques peut être attribuée à l'apprentissage de traits caractéristiques distincts à différentes échelles : Alors que les représentations faciles/rapides à apprendre sont en sur-apprentissage, les représentations plus complexes/lentes commencent à bien apprendre, ce qui entraîne une deuxième descente de l'erreur sur l’ensemble de test. Le deuxième article sur la famine de gradient identifie un phénomène fondamental qui peut entraîner une inclination à l'apprentissage dans les réseaux neuronaux. La famine de gradient se produit lorsqu'un réseau neuronal apprend à minimiser la perte en ne capturant qu'un sous-ensemble des traits caractéristiques pertinents à la classification, malgré la présence d'autres traits caractéristiques informatifs qui ne sont pas découverts. La famine de gradient a des conséquences bénéfiques et néfastes dont nous discutons. Le troisième article sur les méthodes simples de ré-équilibrage des données présente une étude empirique sur le problème de la généralisation à des groupes sous-représentés lorsque les données d'entraînement souffrent de déséquilibres importants. Ce travail porte sur les modèles qui généralisent bien en moyenne mais ne parviennent pas à généraliser à des groupes minoritaires. Notre principale conclusion est que des méthodes simples de ré-équilibrage de données permettent d'atteindre l’état de l’art pour la précision sur les groupes minoritaires, ce qui appelle à une examination plus approfondie des valeurs de référence et des méthodes de recherche sur la généralisation en-dehors du support de la distribution.
Nos résultats permettent de mieux comprendre la mécanique interne des réseaux neuronaux et d'identifier les obstacles à la construction de modèles plus fiables, et ont des implications pratiques quant à l'entraînement des réseaux neuronaux. / Neural networks perform remarkably well in a wide variety of machine learning tasks and have had a profound impact on the very definition of artificial intelligence (AI). However, despite their significant role in the current state of AI, it is important to realize that we are still far from achieving human-level intelligence. A critical step in further improving neural networks is to advance our theoretical understanding which is in fact lagging behind our practical developments. A key challenge in building theoretical foundations for deep learning is the complex optimization dynamics of neural networks, resulting from the high-dimensional interactions between a large number of network parameters. Such non-trivial dynamics lead to puzzling empirical behaviors that, in some cases, appear in stark contrast with existing theoretical predictions. Lack of overfitting in over-parameterized networks, their reliance on spurious correlations, and double-descent generalization curves are among the perplexing generalization behaviors of neural networks.
In this dissertation, our goal is to study some of these perplexing phenomena as different pieces of the same puzzle. A puzzle in which every phenomenon serves as a guiding signal towards developing a better understanding of neural networks. We present three articles towards this goal; The first article on multi-scale feature learning dynamics investigates the reasons underlying the double-descent generalization curve observed in modern neural networks. A central finding is that epoch-wise double descent can be attributed to distinct features being learned at different scales: as fast-learning features overfit, slower-learning features start to fit, resulting in a second descent in test error. The second article on gradient starvation identifies a fundamental phenomenon that can result in a learning proclivity in neural networks. Gradient starvation arises when a neural network learns to minimize the loss by capturing only a subset of features relevant for classification, despite the presence of other informative features which fail to be discovered. We discuss how gradient starvation can have both beneficial and adverse consequences on generalization performance. The third article on simple data balancing methods conducts an empirical study on the problem of generalization to underrepresented groups when the training data suffers from substantial imbalances. This work looks into models that generalize well on average but fail to generalize to minority groups of examples. Our key finding is that simple data balancing methods already achieve state-of-the-art accuracy on minority groups which calls for closer examination of benchmarks and methods for research in out-of-distribution generalization. These three articles take steps towards bringing insights into the inner mechanics of neural networks, identifying the obstacles in the way of building reliable models, and providing practical suggestions for training neural networks.
|
267 |
Amélioration d'un "Evolving Fuzzy Neural Network" dans le cadre d'applications militaires et astrophysiquesNadeau, Louis 11 April 2018 (has links)
Les buts de la recherche présentée dans ce mémoire sont : (1) de choisir et d'implémenter un algorithme d'apprentissage pour un système d'information militaire et (2) d'appliquer cet algorithme dans un cadre astrophysique. L'algorithme choisi est le «Evolving Fuzzy Neural Network (EFuNN)». Trois lacunes de l'EFuNN ont été identifiées et corrigées : (1) la métrique n'accepte pas de données manquantes, (2) la méthode de suppression des règles n'est pas adaptée au monde réel et (3) l'EFuNN ne peut pas exploiter ses connaissances statistiques. Pour l'application militaire, trois variations d'une expérience ont été faites : prédire la qualité de sources d'informations distribuées sur une carte. L'EFuNN a eu une précision supérieure aux besoins. Pour l'application astrophysique, l'EFuNN a eu une performance comparable à d'autres réseaux de neurones, ainsi, il pourrait être utile dans un système comprenant plusieurs réseaux de neurones qui votent. / The research presented in this master's thesis has two goals : (1) choose and implement a learning algorithm for a military information System and (2) apply this algorithm to an astrophysic problem of classification. The choosen algorithm is the Evoling Fuzzy Neural Network (EFuNN). Three problems of the EFuNN were found and corrected : (1) The metric was not able to mariage missing data, (2) the pruning method was not adapted to real world learning and (3) the EFuNN was not able to used its statistical knowledge. For the first goal, three variations of the same experiment were made : predict the quality of informations sources that are distributed on a map. The modified EFuNN performed better that needed on those tests. For the second goal, the EFuNN had a similar performance in comparison with other algorithms and it could be useful to include it in a program which uses many algorithms to better its overall performance.
|
268 |
Apprentissage faiblement supervisé appliqué à la segmentation d'images de protéines neuronalesBilodeau, Anthony 26 March 2024 (has links)
Tableau d'honneur de la Faculté des études supérieures et postdoctorales, 2020-2021 / En biologie cellulaire, la microscopie optique est couramment utilisée pour visualiser et caractériser la présence et la morphologie des structures biologiques. Suite à l’acquisition, un expert devra effectuer l’annotation des structures pour quantification. Cette tâche est ardue, requiert de nombreuses heures de travail, parfois répétitif, qui peut résulter en erreurs d’annotations causées par la fatigue d’étiquetage. L’apprentissage machine promet l’automatisation de tâches complexes à partir d’un grand lot de données exemples annotés. Mon projet de maîtrise propose d’utiliser des techniques faiblement supervisées, où les annotations requises pour l’entraînement sont réduites et/ou moins précises, pour la segmentation de structures neuronales. J’ai d’abord testé l’utilisation de polygones délimitant la structure d’intérêt pour la tâche complexe de segmentation de la protéine neuronale F-actine dans des images de microscopie à super-résolution. La complexité de la tâche est supportée par la morphologie hétérogène des neurones, le nombre élevé d’instances à segmenter dans une image et la présence de nombreux distracteurs. Malgré ces difficultés, l’utilisation d’annotations faibles a permis de quantifier un changement novateur de la conformation de la protéine F-actine en fonction de l’activité neuronale. J’ai simplifié davantage la tâche d’annotation en requérant seulement des étiquettes binaires renseignant sur la présence des structures dans l’image réduisant d’un facteur 30 le temps d’annotation. De cette façon, l’algorithme est entraîné à prédire le contenu d’une image et extrait ensuite les caractéristiques sémantiques importantes pour la reconnaissance de la structure d’intérêt à l’aide de mécanismes d’attention. La précision de segmentation obtenue sur les images de F-actine est supérieure à celle des annotations polygonales et équivalente à celle des annotations précises d’un expert. Cette nouvelle approche devrait faciliter la quantification des changements dynamiques qui se produisent sous le microscope dans des cellules vivantes et réduire les erreurs causées par l’inattention ou le biais de sélection des régions d’intérêt dans les images de microscopie. / In cell biology, optical microscopy is commonly used to visualize and characterize the presenceand morphology of biological structures. Following the acquisition, an expert will have toannotate the structures for quantification. This is a difficult task, requiring many hours ofwork, sometimes repetitive, which can result in annotation errors caused by labelling fatigue.Machine learning promises to automate complex tasks from a large set of annotated sampledata. My master’s project consists of using weakly supervised techniques, where the anno-tations required for training are reduced and/or less precise, for the segmentation of neuralstructures.I first tested the use of polygons delimiting the structure of interest for the complex taskof segmentation of the neuronal protein F-actin in super-resolution microscopy images. Thecomplexity of the task is supported by the heterogeneous morphology of neurons, the highnumber of instances to segment in an image and the presence of many distractors. Despitethese difficulties, the use of weak annotations has made it possible to quantify an innovativechange in the conformation of the F-actin protein as a function of neuronal activity. I furthersimplified the annotation task by requiring only binary labels that indicate the presence ofstructures in the image, reducing annotation time by a factor of 30. In this way, the algorithmis trained to predict the content of an image and then extract the semantic characteristicsimportant for recognizing the structure of interest using attention mechanisms. The segmen-tation accuracy obtained on F-actin images is higher than that of polygonal annotations andequivalent to that of an expert’s precise annotations. This new approach should facilitate thequantification of dynamic changes that occur under the microscope in living cells and reduceerrors caused by inattention or bias in the selection of regions of interest in microscopy images.
|
269 |
Une approche sémantique de détection de maliciel Android basée sur la vérification de modèles et l'apprentissage automatiqueEl Hatib, Souad 02 February 2024 (has links)
Le nombre croissant de logiciels malveillants Android s’accompagne d’une préoccupation profonde liée aux problèmes de la sécurité des terminaux mobiles. Les enjeux deviennent sans conteste de plus en plus importants, suscitant ainsi beaucoup d’attention de la part de la communauté des chercheurs. En outre, la prolifération des logiciels malveillants va de pair avec la sophistication et la complexité de ces derniers. En effet, les logiciels malveillants plus élaborés, tels que les maliciels polymorphes et métamorphiques, utilisent des techniques d’obscurcissement du code pour créer de nouvelles variantes qui préservent la sémantique du code original tout en modifiant sa syntaxe, échappant ainsi aux méthodes de détection usuelles. L’ambition de notre recherche est la proposition d’une approche utilisant les méthodes formelles et l’apprentissage automatique pour la détection des maliciels sur la plateforme Android. L’approche adoptée combine l’analyse statique et l’apprentissage automatique. En effet, à partir des applications Android en format APK, nous visons l’extraction d’un modèle décrivant de manière non ambiguë le comportement de ces dernières. Le langage de spécification formelle choisi est LNT. En se basant sur le modèle généré, les comportements malicieux exprimés en logique temporelle sont vérifiés à l’aide d’un vérificateur de modèle. Ces propriétés temporelles sont utilisées comme caractéristiques par un algorithme d’apprentissage automatique pour classifier les applications Android. / The ever-increasing number of Android malware is accompanied by a deep concern about security issues in the mobile ecosystem. Unquestionably, Android malware detection has received much attention in the research community and therefore it becomes a crucial aspect of software security. Actually, malware proliferation goes hand in hand with the sophistication and complexity of malware. To illustrate, more elaborated malware like polymorphic and metamorphic malware, make use of code obfuscation techniques to build new variants that preserve the semantics of the original code but modify it’s syntax and thus escape the usual detection methods. In the present work, we propose a model-checking based approach that combines static analysis and machine learning. Mainly, from a given Android application we extract an abstract model expressed in terms of LNT, a process algebra language. Afterwards, security related Android behaviours specified by temporal logic formulas are checked against this model, the satisfaction of a specific formula is considered as a feature, finally machine learning algorithms are used to classify the application as malicious or not.
|
270 |
Système de gestion d'énergie d'un véhicule électrique hybride rechargeable à trois rouesDenis, Nicolas January 2014 (has links)
Résumé : Depuis la fin du XXème siècle, l’augmentation du prix du pétrole brut et les problématiques environnementales poussent l’industrie automobile à développer des technologies plus économes en carburant et générant moins d’émissions de gaz à effet de serre. Parmi ces technologies, les véhicules électriques hybrides constituent une solution viable et performante. En alliant un moteur électrique et un moteur à combustion, ces véhicules possèdent un fort potentiel de réduction de la consommation de carburant sans sacrifier son autonomie. La présence de deux moteurs et de deux sources d’énergie requiert un contrôleur, appelé système de gestion d’énergie, responsable de la commande simultanée des deux moteurs. Les performances du véhicule en matière de consommation dépendent en partie de la conception de ce contrôleur. Les véhicules électriques hybrides rechargeables, plus récents que leur équivalent non rechargeable, se distinguent par l’ajout d’un chargeur interne permettant la recharge de la batterie pendant l’arrêt du véhicule et par conséquent la décharge de celle-ci au cours d’un trajet. Cette particularité ajoute un degré de complexité pour ce qui est de la conception du système de gestion d’énergie. Dans cette thèse, nous proposons un modèle complet du véhicule dédié à la conception du contrôleur. Nous étudions ensuite la dépendance de la commande optimale des deux moteurs par rapport au profil de vitesse suivi au cours d’un trajet ainsi qu’à la quantité d’énergie électrique disponible au début d’un trajet. Cela nous amène à proposer une technique d’auto-apprentissage visant l’amélioration de la stratégie de gestion d’énergie en exploitant un certain nombre de données enregistrées sur les trajets antérieurs. La technique proposée permet l’adaptation de la stratégie de contrôle vis-à-vis du trajet en cours en se basant sur une pseudo-prédiction de la totalité du profil de vitesse. Nous évaluerons les performances de la technique proposée en matière de consommation de carburant en la comparant avec une stratégie optimale bénéficiant de la connaissance exacte du profil de vitesse ainsi qu’avec une stratégie de base utilisée couramment dans l’industrie. // Abstract : Since the end of the XXth century, the increase in crude oil price and the environmental concerns lead the automotive industry to develop technologies that can improve fuel savings and decrease greenhouse gases emissions. Among these technologies, the hybrid electric vehicles stand as a reliable and efficient solution. By combining an electrical motor and an internal combustion engine, these vehicles can bring a noticeable improvement in terms of fuel consumption without sacrificing the vehicle autonomy. The two motors and the two energy storage systems require a control unit, called energy management system, which is responsible for the command decision of both motors. The vehicle performances in terms of fuel consumption greatly depend on this control unit. The plug-in hybrid electric vehicles are a more recent technology compared to their non plug-in counterparts. They have an extra internal battery charger that allows the battery to be charged during OFF state, implying a possible discharge during a trip. This particularity adds complexity when it comes to the design of the energy management system. In this thesis, a complete vehicle model is proposed and used for the design of the controller. A study is then carried out to show the dependence between the optimal control of the motors and the speed profile followed during a trip as well as the available electrical energy at the beginning of a trip. According to this study, a self-learning optimization technique that aims at improving the energy management strategy by exploiting some driving data recorded on previous trips is proposed. The technique allows the adaptation of the control strategy to the current trip based on a pseudo-prediction of the total speed profile. Fuel consumption performances for the proposed technique will be evaluated by comparing it with an optimal control strategy that benefits from the exact a priori knowledge of the speed profile as well as a basic strategy commonly used in industry.
|
Page generated in 0.1174 seconds