• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 81
  • 80
  • 13
  • Tagged with
  • 169
  • 169
  • 105
  • 72
  • 41
  • 38
  • 33
  • 28
  • 23
  • 23
  • 22
  • 21
  • 20
  • 19
  • 19
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Reading Faces. Using Hard Multi-Task Metric Learning for Kernel Regression / Analyse de visages à l'aide d'une régularisation multi-tâches contrainte pour un apprentissage de métrique adaptée à un régresseur par noyaux

Nicolle, Jérémie 08 March 2016 (has links)
Recueillir et labelliser un ensemble important et pertinent de données pour apprendre des systèmes de prédiction d'informations à partir de visages est à la fois difficile et long. Par conséquent, les données disponibles sont souvent de taille limitée comparée à la difficultés des tâches. Cela rend le problème du sur-apprentissage particulièrement important dans de nombreuses applications d'apprentissage statistique liées au visage. Dans cette thèse, nous proposons une nouvelle méthode de régression de labels multi-dimensionnels, nommée Hard Multi-Task Metric Learning for Kernel Regression (H-MT-MLKR). Notre méthode a été développée en focalisant sur la réduction du phénomène de sur-apprentissage. La méthode Metric Learning for Kernel Regression qui a été proposée par Kilian Q. Weinberger en 2007 vise à apprendre un sous-espace pour minimiser l'erreur quadratique d'un estimateur de Nadaraya-Watson sur la base d'apprentissage. Dans notre méthode, on étend la méthode MLKR pour une régression de labels multi-dimensionnels en ajoutant une nouvelle régularisation multi-tâches qui réduit les degrés de liberté du modèle appris ainsi que le sur-apprentissage. Nous évaluons notre méthode pour deux applications différentes, à savoir la localisation de points caractéristiques et la prédiction de l'intensité des Action Units. Nous présentons aussi un travail sur la prédiction des émotions en espace continu basé aussi sur l'estimateur de Nadaraya-Watson. Deux des systèmes proposés nous ont permis de remporter deux premières places à des concours internationaux, à savoir le Audio-Visual Emotion Challenge (AVEC'12) et le Facial Expression Recognition and Analysis challenge (FERA'15). / Collecting and labeling various and relevant data for training automatic facial information prediction systems is both hard and time-consuming. As a consequence, available data is often of limited size compared to the difficulty of the prediction tasks. This makes overfitting a particularly important issue in several face-related machine learning applications. In this PhD, we introduce a novel method for multi-dimensional label regression, namely Hard Multi-Task Metric Learning for Kernel Regression (H-MT-MLKR). Our proposed method has been designed taking a particular focus on overfitting reduction. The Metric Learning for Kernel Regression method (MLKR) that has been proposed by Kilian Q. Weinberger in 2007 aims at learning a subspace for minimizing the quadratic training error of a Nadaraya-Watson estimator. In our method, we extend MLKR for multi-dimensional label regression by adding a novel multi-task regularization that reduces the degrees of freedom of the learned model along with potential overfitting. We evaluate our regression method on two different applications, namely landmark localization and Action Unit intensity prediction. We also present our work on automatic emotion prediction in a continuous space which is based on the Nadaraya-Watson estimator as well. Two of our frameworks let us win international data science challenges, namely the Audio-Visual Emotion Challenge (AVEC’12) and the fully continuous Facial Expression Recognition and Analysis challenge (FERA’15).
72

Apprentissage statistique pour l'évaluation et le contrôle non destructifs : application à l'estimation de la durée de vie restante des matériaux par émission acoustique sous fluage / Statistical learning for evaluation and non-destructive testing : application in estimating the remaining lifetime of materials by acoustic emission under creep test

Darwiche, Mohamad 04 June 2013 (has links)
Les matériaux composites se caractérisent par une forte dispersion de leur durée de vie qui peut s'étendre de quelques minutes à plusieurs semaines lors d'un test de fluage. Lors d'un essai en fluage de ces matériaux nous distinguons trois phases de temps caractérisées chacune par une activité acoustique propre. Dans la première phase, le taux d'apparition des signaux d'EA est important, puis le taux diminue et atteint une valeur constante relativement faible durant la seconde phase, ensuite ce taux d'apparition s'accélère annonçant la troisième phase qui se termine par la rupture. Les caractéristiques des signaux d'émission acoustique (EA) émis dans la phase précédant la rupture sont différentes de celles des autres phases. Le premier volet de cette étude consiste à utiliser des méthodes d'apprentissage relevant de l'intelligence artificielle (réseaux de neurones, machines à vecteurs de support et classifieurs bayésiens) afin de prédire si les signaux recueillis à partir d'un matériau sous test se trouve dans la phase de pré-rupture ou non. Ce sont des méthodes qui, appliquées à l'émission acoustique, permettent d'identifier parmi un grand nombre de signaux, caractérisés par des paramètres principaux, des classes de signaux ayant des paramètres voisins et donc provenant probablement de la même phase. Ces méthodes se sont avérées très performantes en classification, nous atteignons avec les SVM une sensibilité de 82 % et une spécificité de 84% pour les résultats en validation croisée, et une sensibilité de 90 % et une spécificité de 94 % pour les résultats en test, avec un temps de calcul acceptable.Le deuxième volet de l'étude effectué dans le cadre de cette thèse concerne l'estimation de la durée de vie restante des les matériaux composites. La normalisation des courbes cumulées des signaux d'émission acoustique en fonction du temps prouve que les réponses en fluage des éprouvettes mises en test sont parfaitement ressemblantes. Un modèle a été établi pour caractériser le comportement de ce matériau lors de ce test. Deux approches sont utilisées pour déterminer le temps de rupture. Par rapport à la littérature, la première approche proposée améliore la détection des temps de transition des différentes phases. Cette approche fournit également une meilleure corrélation avec le temps de rupture. La deuxième approche est fondée sur la corrélation du temps de rupture avec le temps de référence correspondant à la diminution de la vitesse d'un certain pourcentage. Les résultats de cette dernière approche sont très intéressants : l'estimation du temps de rupture pour une éprouvette ayant une durée de vie de 1 heure peut être possible dès les 15 premières secondes, avec une erreur de l'ordre de 4 %. / The composite materials are characterized by a high dispersion of their lifetime, which may extend from several minutes to several weeks in a creep test. When tested in creep of these materials we distinguish three phases, each characterized by its own acoustic activity. In the first phase, the occurrence rate of the AE signals is important, and then the rate drops to a relatively low constant value during the second phase, then this occurrence rate accelerate announcing the third phase which ends by a rupture. The characteristics of the acoustic emission (AE) signals in the phase preceding the rupture are different from those of other phases.The first part of this study is to use learning methods from artificial intelligence (neural networks, support vector machines and Bayesian classifier) to predict if the signals collected from the material under test in the pre-rupture or not. These are methods which, when applied to acoustic emission, identify among a large number of signals, characterized by key parameters, classes of signals having similar parameters and thus probably from the same phase. These methods have proved highly effective in classification; we reach the SVM with a sensitivity of 82 % and a specificity of 84 % for cross-validation results, and a sensitivity of 90 % and a specificity of 94 % for test results, with an acceptable calculation time.The second part of the study in the framework of this thesis concerns the estimation of the remaining life of composites. Standardization of signals accumulated acoustic emission curves as a function proves that the responses of the creep test pieces are set perfectly similar. A model was developed to characterize the behavior of this material during this test. Two approaches are used to determine the time of rupture. Compared to the literature, the first proposed approach improves the detection time of transition phases. This approach also provides a better correlation with the rupture time. The second approach is based on the correlation of rupture time with the reference time corresponding to the decrease of the speed by a percentage. The results of this latter approach is very interesting : the estimation of the rupture time for a test piece having a life of one hour may be possible from the first 15 seconds, with an error of about 4 %.
73

Segmentation supervisée d'actions à partir de primitives haut niveau dans des flux vidéos / Action supervised segmentation based on high level features on video streams

Chan-Hon-Tong, Adrien 29 September 2014 (has links)
Cette thèse porte sur la segmentation supervisée de flux vidéo dans un contexte applicatif lié à la reconnaissance d'actions de la vie courante.La méthode de segmentation proposée est dérivée la méthode des modèles de formes implicites (Implicit Shape Model) et s'obtient en optimisant les votes présents dans cette méthode d'élection.Nous démontrons que cette optimisation (dans un contexte de fenêtre temporelle glissante) peut être exprimée de manière équivalente dans le formalisme des SVM en imposant une contrainte de cohérence temporelle à l'apprentissage, ou, en représentant la fenêtre glissante selon une décomposition pyramidale dense.Tout ce processus est validé expérimentalement sur un jeu de données de la littérature de segmentation supervisée.Il y surpasse les autres méthodes de type modèles de formes implicites et le SVM linéaire standard.La méthode proposée est ensuite mise en œuvre dans le cadre de la segmentation supervisée d'actions.Pour cela, des primitives dédiées sont extraites des données squelette de la personne d'intérêt obtenues grâce à des logiciels standards.Ces primitives sont ensuite quantifiées puis utilisées par la méthode d'élection.Ce système de segmentation d'actions obtient les meilleurs scores de l'état de l'art sur un jeu de données de la littérature de reconnaissance d'actions, ce qui valide cette combinaison des primitives et de la méthode d'élection. / This thesis focuses on the supervised segmentation of video streams within the application context of daily action recognition.A segmentation algorithm is obtained from Implicit Shape Model by optimising the votes existing in this polling method.We prove that this optimisation can be linked to the sliding windows plus SVM framework and more precisely is equivalent with a standard training by adding temporal constraint, or, by encoding the data through a dense pyramidal decomposition. This algorithm is evaluated on a public database of segmentation where it outperforms other Implicit Shape Model like methods and the standard linear SVM.This algorithm is then integrated into a action segmentation system.Specific features are extracted from skeleton obtained from the video by standard software.These features are then clustered and given to the polling method.This system, combining our feature and our algorithm, obtains the best published performance on a human daily action segmentation dataset.
74

Processus de substitution markoviens : un modèle statistique pour la linguistique / Markov Substitute Processes : a statistical model for linguistics

Mainguy, Thomas 11 December 2014 (has links)
Ce travail de thèse propose une nouvelle approche au traitement des langues naturelles. Plutôt qu'essayer d'estimer directement la probabilité d'une phrase quelconque, nous identifions des structures syntaxiques dans le langage, qui peuvent être utilisées pour modifier et créer de nouvelles phrases à partir d'un échantillon initial. L'étude des structures syntaxiques est accomplie avec des ensembles de substitution Markoviens, ensembles de chaînes de caractères qui peuvent être échangées sans affecter la distribution. Ces ensembles définissent des processus de substitution Markoviens qui modélisent l'indépendance conditionnelle de certaines chaînes vis-À-Vis de leur contexte. Ce point de vue décompose l'analyse du langage en deux parties, une phase de sélection de modèle, où les ensembles de substitution sont sélectionnés, et une phase d'estimation des paramètres, où les fréquences pour chaque ensemble sont estimées. Nous montrons que ces processus constituent des familles exponentielles quand la structure du langage est fixée. Lorsque la structure du langage est inconnue, nous proposons des méthodes pour identifier des ensembles de substitution à partir d'un échantillon, et pour estimer les paramètres de la distribution. Les ensembles de substitution ont quelques relations avec les grammaires hors-Contexte, qui peuvent être utilisées pour aider l'analyse. Nous construisons alors des dynamiques invariantes pour les processus de substitution. Elles peuvent être utilisées pour calculer l'estimateur du maximum de vraisemblance. En effet, les processus de substitution peuvent être vus comme la limite thermodynamique de la mesure invariante d'une dynamique de crossing-Over. / This thesis proposes a new approach to natural language processing. Rather than trying to estimate directly the probability distribution of a random sentence, we will detect syntactic structures in the language, which can be used to modify and create new sentences from an initial sample.The study of syntactic structures will be done using Markov substitute sets, sets of strings that can be freely substituted in any sentence without affecting the whole distribution. These sets define the notion of Markov substitute processes, modelling conditional independence of certain substrings (given by the sets) with respect to their context. This point of view splits the issue of language analysis into two parts, a model selection stage where Markov substitute sets are selected, and a parameter estimation stage where the actual frequencies for each set are estimated.We show that these substitute processes form exponential families of distributions, when the language structure (the Markov substitute sets) is fixed. On the other hand, when the language structure is unknown, we propose methods to identify Markov substitute sets from a statistical sample, and to estimate the parameters of the distribution. Markov substitute sets show some connections with context-Free grammars, that can be used to help the analysis. We then proceed to build invariant dynamics for Markov substitute processes. They can among other things be used to effectively compute the maximum likelihood estimate. Indeed, Markov substitute models can be seen as the thermodynamical limit of the invariant measure of crossing-Over dynamics.
75

Bootstrap and uniform bounds for Harris Markov chains / Bootstrap et bornes uniformes pour des chaînes de Markov Harris récurrentes

Ciolek, Gabriela 14 December 2018 (has links)
Cette thèse se concentre sur certaines extensions de la théorie des processus empiriques lorsque les données sont Markoviennes. Plus spécifiquement, nous nous concentrons sur plusieurs développements de la théorie du bootstrap, de la robustesse et de l’apprentissage statistique dans un cadre Markovien Harris récurrent positif. Notre approche repose sur la méthode de régénération qui s’appuie sur la décomposition d’une trajectoire de la chaîne de Markov atomique régénérative en blocs d’observations indépendantes et identiquement distribuées (i.i.d.). Les blocs de régénération correspondent à des segments de la trajectoire entre des instants aléatoires de visites dans un ensemble bien choisi (l’atome) formant une séquence de renouvellement. Dans la premiére partie de la thèse nous proposons un théorème fonctionnel de la limite centrale de type bootstrap pour des chaînes de Markov Harris récurrentes, d’abord dans le cas de classes de fonctions uniformément bornées puis dans un cadre non borné. Ensuite, nous utilisons les résultats susmentionnés pour obtenir unthéorème de la limite centrale pour des fonctionnelles Fréchet différentiables dans un cadre Markovien. Motivés par diverses applications, nous discutons la manière d’étendre certains concepts de robustesse à partir du cadre i.i.d. à un cas Markovien. En particulier, nous considérons le cas où les données sont des processus Markoviens déterministes par morceaux. Puis, nous proposons des procédures d’échantillonnage résiduel et wild bootstrap pour les processus périodiquement autorégressifs et établissons leur validité. Dans la deuxième partie de la thèse, nous établissons des versions maximales d’inégalités de concentration de type Bernstein, Hoeffding et des inégalités de moments polynomiales en fonction des nombres de couverture et des moments des temps de retour et des blocs. Enfin, nous utilisons ces inégalités sur les queues de distributions pour calculer des bornes de généralisation pour une estimation d’ensemble de volumes minimum pour les chaînes de Markov régénératives. / This thesis concentrates on some extensions of empirical processes theory when the data are Markovian. More specifically, we focus on some developments of bootstrap, robustness and statistical learning theory in a Harris recurrent framework. Our approach relies on the regenerative methods that boil down to division of sample paths of the regenerative Markov chain under study into independent and identically distributed (i.i.d.) blocks of observations. These regeneration blocks correspond to path segments between random times of visits to a well-chosen set (the atom) forming a renewal sequence. In the first part of the thesis we derive uniform bootstrap central limit theorems for Harris recurrent Markov chains over uniformly bounded classes of functions. We show that the result can be generalized also to the unbounded case. We use the aforementioned results to obtain uniform bootstrap central limit theorems for Fr´echet differentiable functionals of Harris Markov chains. Propelledby vast applications, we discuss how to extend some concepts of robustness from the i.i.d. framework to a Markovian setting. In particular, we consider the case when the data are Piecewise-determinic Markov processes. Next, we propose the residual and wild bootstrap procedures for periodically autoregressive processes and show their consistency. In the second part of the thesis we establish maximal versions of Bernstein, Hoeffding and polynomial tail type concentration inequalities. We obtain the inequalities as a function of covering numbers and moments of time returns and blocks. Finally, we use those tail inequalities toderive generalization bounds for minimum volume set estimation for regenerative Markov chains.
76

Méthodes statistiques pour la prédiction de température dans les composants hyperfréquences / Statistical methods for temperature prediction in hyperfrequency components

Mallet, Grégory 25 October 2010 (has links)
Cette thèse s’intéresse à l’application des méthodes d’apprentissage statistique pour la prédiction de température d’un composant électronique présent dans un radar. On étudie un cas simplifié des systèmes réels, le système étudié se limitant à un seul composant monté sur un système de refroidissement réduit. Le premier chapitre est consacré à la modélisation thermique. Après avoir présenté les principaux modes de transmission de l’agitation thermique, les modèles analytiques et numériques qui en découlent sont étudiés. En utilisant cette connaissance,le deuxième chapitre propose de choisir dans les méthodes de mesures les plus adaptées aux spécifications et aux contraintes de l’application choisie. Une fois que les bases de données ont été établies, nous pouvons utiliser dans le troisième chapitre les techniques de l’apprentissage statistique pour construire un modèle dynamique. Après un bref rappel sur les tenants et les aboutissants de la modélisation statistique, quatre familles de méthodes seront présentées : les modèles linéaires, les réseaux de neurones, les réseaux bayésiens dynamiques et les machines à vecteur support (SVM). Enfin, le quatrième chapitre est l’occasion de présenter une méthode de modélisation originale.En effet, après avoir détaillé la mise en oeuvre des méthodes d’identification de représentation d’état, nous verrons comment prendre en compte des a priori théoriques au cours de l’apprentissage de ce type de modèle, à savoir une contrainte de stabilité. / This thesis is focused on the application of statistical learning methods for the temperature prediction of an electronic component embedded in a radar. We study a simplified case of real systems, the system under study is limited to a single component mounted on a reduced cooling system. The first chapter is devoted to heat transfer modelisation. After presenting the major mechanisms of thermal agitation transmission, analytical and numerical models are studied. Using this knowledge, the second chapter offers a survey on the methods of temperature measurement, choosing the fittest according to the specifications and the constraints of the chosen application.Once databases have been established, we can use in the third chapter statistical learning techniques to build a dynamic model. After a brief reminder about the ins and outs of statistical modeling, four families of methods willbe presented : linear models, neural networks, dynamic bayesian networks and support vector machines (SVM).The fourth chapter is an opportunity to present a novel method of modeling. Indeed, after a presentation of themethods for the identification of state representation, we see how to take into account theoretical apriorism during learning of this model type, ie a stability constraint.
77

Algorithmes de machine learning en assurance : solvabilité, textmining, anonymisation et transparence / Machine learning algorithms in insurance : solvency, textmining, anonymization and transparency

Ly, Antoine 19 November 2019 (has links)
En été 2013, le terme de "Big Data" fait son apparition et suscite un fort intérêt auprès des entreprises. Cette thèse étudie ainsi l'apport de ces méthodes aux sciences actuarielles. Elle aborde aussi bien les enjeux théoriques que pratiques sur des thématiques à fort potentiel comme l'textit{Optical Character Recognition} (OCR), l'analyse de texte, l'anonymisation des données ou encore l'interprétabilité des modèles. Commençant par l'application des méthodes du machine learning dans le calcul du capital économique, nous tentons ensuite de mieux illustrer la frontrière qui peut exister entre l'apprentissage automatique et la statistique. Mettant ainsi en avant certains avantages et différentes techniques, nous étudions alors l'application des réseaux de neurones profonds dans l'analyse optique de documents et de texte, une fois extrait. L'utilisation de méthodes complexes et la mise en application du Réglement Général sur la Protection des Données (RGPD) en 2018 nous a amené à étudier les potentiels impacts sur les modèles tarifaires. En appliquant ainsi des méthodes d'anonymisation sur des modèles de calcul de prime pure en assurance non-vie, nous avons exploré différentes approches de généralisation basées sur l'apprentissage non-supervisé. Enfin, la réglementation imposant également des critères en terme d'explication des modèles, nous concluons par une étude générale des méthodes qui permettent aujourd'hui de mieux comprendre les méthodes complexes telles que les réseaux de neurones / In summer 2013, the term "Big Data" appeared and attracted a lot of interest from companies. This thesis examines the contribution of these methods to actuarial science. It addresses both theoretical and practical issues on high-potential themes such as textit{Optical Character Recognition} (OCR), text analysis, data anonymization and model interpretability. Starting with the application of machine learning methods in the calculation of economic capital, we then try to better illustrate the boundary that may exist between automatic learning and statistics. Highlighting certain advantages and different techniques, we then study the application of deep neural networks in the optical analysis of documents and text, once extracted. The use of complex methods and the implementation of the General Data Protection Regulation (GDPR) in 2018 led us to study its potential impacts on pricing models. By applying anonymization methods to pure premium calculation models in non-life insurance, we explored different generalization approaches based on unsupervised learning. Finally, as regulations also impose criteria in terms of model explanation, we conclude with a general study of methods that now allow a better understanding of complex methods such as neural networks
78

Estimation du risque de mort subite par arrêt cardiaque a l'aide de méthodes d'apprentissage artificiel / Risk stratification for sudden cardiac death based on machine learning

Cappelaere, Charles-Henri 31 January 2014 (has links)
Depuis le début des années 2000, le défibrillateur automatique implantable (DAI) est prescrit de manière prophylactique aux populations à risque de mort subite. Nombre de ces implantations semblent prématurées, ce qui pose problème en raison des complications post-opératoires encourues. Il apparaît donc important de mieux définir la population à risque de mort subite, afin d'optimiser la sélection des patients.Le pouvoir prédictif de mort subite des différents descripteurs du Holter a fait l'objet de nombreuses études univariées, sans permettre d'amélioration des critères de sélection. Dans ce mémoire, nous présentons l'analyse multivariée des descripteurs du Holter que nous avons menée. Nous avons extrait l'ensemble des descripteurs calculables sur la base étiquetée d'enregistrements de patients, victimes ou non d'arythmies traitées par le DAI, dont nous disposons. À l'aide de connaissances physiologiques sur l'arythmogenèse, nous avons réalisé une sélection des descripteurs les plus pertinents. Puis, par une méthode originale de conception et d'évaluation de classifieur, nous avons construit un classifieur ad hoc, basé, sur les connaissances physiologiques de l'arythmogenèse ; ce classifieur discrimine les patients à risque, des patients pour lesquels l'implantation ne paraît pas opportune.Au vu des performances atteintes, il semble possible d'améliorer la fiabilité des indications d'implantation prophylactique, à l'aide de méthodes d'apprentissage statistique. Pour valider cette conclusion, il paraît néanmoins nécessaire d'appliquer la méthode exposée dans la présente étude à une base de données de plus grande dimension, et de contenu mieux adapté à nos objectifs. / Implantable cardioverter defibrillators (ICD) have been prescribed for prophylaxis since the early 2000?s, for patients at high risk of SCD. Unfortunately, most implantations to date appear unnecessary. This result raises an important issue because of the perioperative and postoperative risks. Thus, it is important to improve the selection of the candidates to ICD implantation in primary prevention. Risk stratification for SCD based on Holter recordings has been extensively performed in the past, without resulting in a significant improvement of the selection of candidates to ICD implantation. The present report describes a nonlinear multivariate analysis of Holter recording indices. We computed all the descriptors available in the Holter recordings present in our database. The latter consisted of labelled Holter recordings of patients equipped with an ICD in primary prevention, a fraction of these patients received at least one appropriate therapy from their ICD during a 6-month follow-up. Based on physiological knowledge on arrhythmogenesis, feature selection was performed, and an innovative procedure of classifier design and evaluation was proposed. The classifier is intended to discriminate patients who are really at risk of sudden death from patients for whom ICD implantation does not seem necessary. In addition, we designed an ad hoc classifier that capitalizes on prior knowledge on arrhythmogenesis. We conclude that improving prophylactic ICD-implantation candidate selection by automatic classification from Holter recording features may be possible. Nevertheless, that statement should be supported by the study of a more extensive and appropriate database.
79

Efficient extreme classification / Classification extreme a faible complexité

Cisse, Mouhamadou Moustapha 25 July 2014 (has links)
Dans cette thèse, nous proposons des méthodes a faible complexité pour la classification en présence d'un très grand nombre de catégories. Ces methodes permettent d'accelerer la prediction des classifieurs afin des les rendre utilisables dans les applications courantes. Nous proposons deux methodes destinées respectivement a la classification monolabel et a la classification multilabel. La première méthode utilise l'information hierarchique existante entre les catégories afin de créer un représentation binaire compact de celles-ci. La seconde approche , destinée aux problemes multilabel adpate le framework des Filtres de Bloom a la representation de sous ensembles de labels sous forme de de vecteurs binaires sparses. Dans chacun des cas, des classifieurs binaires sont appris afin de prédire les representations des catégories/labels et un algorithme permettant de retrouver l'ensemble de catégories pertinentes a partir de la représentation prédite est proposée. Les méthodes proposées sont validées par des expérience sur des données de grandes échelles et donnent des performances supérieures aux méthodes classiquement utilisées pour la classification extreme. / We propose in this thesis new methods to tackle classification problems with a large number of labes also called extreme classification. The proposed approaches aim at reducing the inference conplexity in comparison with the classical methods such as one-versus-rest in order to make learning machines usable in a real life scenario. We propose two types of methods respectively for single label and multilable classification. The first proposed approach uses existing hierarchical information among the categories in order to learn low dimensional binary representation of the categories. The second type of approaches, dedicated to multilabel problems, adapts the framework of Bloom Filters to represent subsets of labels with sparse low dimensional binary vectors. In both approaches, binary classifiers are learned to predict the new low dimensional representation of the categories and several algorithms are also proposed to recover the set of relevant labels. Large scale experiments validate the methods.
80

Conception d'un sol instrumenté pour la détection de chutes de personnes à l'aide de capteurs capacitifs et de techniques de l'apprentissage statistique / Design of an instrumented floor for detecting falls of people by using capacitive sensors and machine learning techniques

Haffner, Julien 21 June 2016 (has links)
Chaque année, près de 9000 personnes âgées de plus de 65 ans décèdent des suites d'une chute en France. Les chutes constituent plus de 80% des accidents de la vie courante chez les plus de 65 ans. Ce chiffre devrait s’accroître considérablement du fait de l’évolution démographique, avec l’augmentation programmée de la population gériatrique. Les séquelles d'une chute sont d'autant plus graves que la personne reste longtemps au sol sans pouvoir se relever. Pour limiter les effets des chutes des personnes âgées, il est nécessaire de développer une offre de services et de technologies permettant aux personnes seules de rester en contact avec l'extérieur. Dans cette thèse, deux systèmes de détection de chutes de personne constitués de capteurs capacitifs intégrés dans le sol sont présentés. Les capteurs sont totalement invisibles par les occupants de la pièce, de manière à déranger le moins possible la tranquillité de l'utilisateur. Dans le premier système, les capteurs sont disposés parallèlement entre eux selon une dimension de la salle. Un capteur est constitué de plusieurs électrodes, dont l'écartement relatif a été déterminé pour favoriser la reconnaissance d'une personne allongée sur le sol. Le deuxième système est constitué de deux couches de capteurs perpendiculaires entre elles. Plusieurs pièces ont été instrumentées avec les capteurs capacitifs. Un changement d'environnement a une influence sur le signal capacitif mesuré, en raison de la configuration du sol propre à chaque installation. Des méthodes de pré-traitement des mesures sont proposées pour conférer aux classifieurs sélectionnés une capacité de performance équivalente sur tous les environnements. / Almost 9000 people aged over 65 die each year in France, as consequences of a fall. Falls represent over 80% of all domestic accidents in this part of the population. This number should substantially increase, as the average age of the population is expected to constantly grow up in the next decades. The longest the fallen person stay on the floor without being rescued, the worst are the consequences of the fall. In order to decrease negative effects of falls in older people, it is decisive to develop a technological way to keep isolated people in contact with outside world. In this thesis two fall detection systems are presented, made up with capacitive sensors integrated into the floor. Sensors are totally hidden to the view of people living in the room, in a way that their privacy is most respected. In the first system, parallel sensors are laid out in one direction of the room. One sensor is composed of four electrodes, whose relative spaces have been chosen to favor the detection of a person laying down on the floor. The second system consists of two perpendicular layers of capacitive sensors. Several rooms have been equipped with such sensors. Installing sensors in a new environment has an influence on the measured capacitive signal, due to the own floor configuration in each room. Methods of data preprocessing are proposed, in order to give equivalent detection performances in each environment.

Page generated in 0.0934 seconds