• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 122
  • 70
  • 27
  • 1
  • Tagged with
  • 221
  • 221
  • 131
  • 108
  • 101
  • 99
  • 91
  • 78
  • 76
  • 72
  • 66
  • 56
  • 55
  • 47
  • 45
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
141

La rétro-conception de composants mécaniques par une approche "concevoir pour fabriquer" / Reverse engineering for manufacturing (REFM)

Ali, Salam 01 July 2015 (has links)
Le processus de rétro-conception (RC), dans la littérature, permet de retrouver un modèle CAO pauvrement paramétré, les modifications sont difficilement réalisables. C’est à partir de ce dernier et d’un logiciel FAO (Fabrication Assistée par Ordinateur) qu’une gamme de fabrication est générée. Cette thèse propose une méthodologie de RC de composants mécaniques dans un contexte de fabrication, nommée « Reverse Engineering For Manufacturing ». Une gamme de fabrication incluant les informations de type opérations d’usinage, posages, phases… est obtenue. Une fois cette gamme générée, elle sera stockée afin d’être réutilisée sur des cas similaires. L’intégration des contraintes métier dans le processus de RC fait penser aux concepts de Design For Manufacturing (DFM) et Knowledge Based Engineering (KBE). La réutilisation de stratégies d’usinage afin de supporter le contexte récurrent fait penser aux travaux sur le « Shape Matching ». En effet, des travaux sur les descripteurs topologiques permettent de reconnaitre, après numérisation, la nature d’une pièce et ainsi appliquer une stratégie d’usinage existante. Cette thèse propose donc un rapprochement entre deux domaines de recherches: la reconnaissance de formes (Shape Matching) et les méthodologies de gestion des données techniques (DFM et KBE). Cette thèse vise à proposer une nouvelle approche de RC dans un contexte d’usinage, et à développer un démonstrateur de RC qui permet de gérer les aspects récurrents de la RC en réutilisant des cas d’études connus / Reverse Engineering (RE) process, in the literature, allows to find a poorly parametrized CAD model, the changes are very difficult. It is from this CAD model and a CAM (Computer Aided Manufacturing) software that a CAPP (Computer Aided Process Planning) model is generated. This thesis proposes a RE methodology of mechanical components in a manufacturing context, called “Reverse Engineering For Manufacturing”. A CAPP model including information like machining operations, fixtures, steps… is obtained. Once this CAPP generated, it will be stored for reuse in similar cases.The integration of design intents in the RE process requires the use of Design For Manufacturing (DFM) and Knowledge Based Engineering (KBE) concepts. The reuse of machining strategies to support the recurrent context requires the use of Shape Matching works. Indeed, works on topological descriptors allow to recognize, after scanning, the nature of a part and thus apply an existing machining strategy. This thesis proposes to combine two research domains: Shape Matching and technical data management methodologies (DFM and KBE). This thesis aims to propose a new RE approach in a machine context, and to develop a RE viewer for managing recurrent aspects of RE by reusing known case studies
142

One-class classification for cyber intrusion detection in industrial systems / Classification mono-classe pour la détection des cyber-intrusions dans les systèmes industriels

Nader, Patric 24 September 2015 (has links)
La sécurité des infrastructures critiques a suscité l'attention des chercheurs récemment avec l'augmentation du risque des cyber-attaques et des menaces terroristes contre ces systèmes. La majorité des infrastructures est contrôlée par des systèmes SCADA (Supervisory Control And Data Acquisition) permettant le contrôle à distance des processus industriels, comme les réseaux électriques, le transport de gaz, la distribution d'eau potable, les centrales nucléaires, etc. Les systèmes traditionnels de détection d'intrusions sont incapables de détecter les nouvelles attaques ne figurant pas dans leurs bases de données. L'objectif de cette thèse est d'apporter une aide supplémentaire à ces systèmes pour assurer une meilleure protection contre les cyber-attaques.La complexité et la diversité des attaques rendent leur modélisation difficile. Pour surmonter cet obstacle, nous utilisons des méthodes d'apprentissage statistique mono-classes. Ces méthodes élaborent une fonction de décision à partir de données d'apprentissage, pour classer les nouveaux échantillons en données aberrantes ou données normales. La fonction de décision définie l’enveloppe d’une région de l’espace de données contenant la majeure partie des données d’apprentissage. Cette thèse propose des méthodes de classification mono-classe, des formulations parcimonieuses de ces méthodes, et une méthode en ligne pour la détection temps réel. Les performances de ces méthodes sont montrées sur des données benchmark de différents types d’infrastructures critiques / The security of critical infrastructures has been an interesting topic recently with the increasing risk of cyber-attacks and terrorist threats against these systems. The majority of these infrastructures is controlled via SCADA (Supervisory Control And Data Acquisition) systems, which allow remote monitoring of industrial processes such as electrical power grids, gas pipelines, water distribution systems, wastewater collection systems, nuclear power plants, etc. Traditional intrusion detection systems (IDS) cannot detect new types of attacks not listed in their databases, so they cannot ensure maximum protection for these infrastructures.The objective of this thesis is to provide additional help to IDS to ensure better protection for industrial systems against cyber-attacks and intrusions. The complexity of studied systems and the diversity of attacks make modeling these attacks very difficult. To overcome this difficulty, we use machine learning, especially one-class classification. Based on training samples, these methods develop decision rules to classify new samples as outliers or normal ones. This dissertation proposes specific one-class classification approaches, sparse formulations of these approaches, and an online approach to improve the real-time detection. The relevance of these approaches is illustrated on benchmark data from three different types of critical infrastructures
143

MMD and Ward criterion in a RKHS : application to Kernel based hierarchical agglomerative clustering / Maximum Dean Discrepancy et critère de Ward dans un RKHS : application à la classification hierarchique à noyau

Li, Na 01 December 2015 (has links)
La classification non supervisée consiste à regrouper des objets afin de former des groupes homogènes au sens d’une mesure de similitude. C’est un outil utile pour explorer la structure d’un ensemble de données non étiquetées. Par ailleurs, les méthodes à noyau, introduites initialement dans le cadre supervisé, ont démontré leur intérêt par leur capacité à réaliser des traitements non linéaires des données en limitant la complexité algorithmique. En effet, elles permettent de transformer un problème non linéaire en un problème linéaire dans un espace de plus grande dimension. Dans ce travail, nous proposons un algorithme de classification hiérarchique ascendante utilisant le formalisme des méthodes à noyau. Nous avons tout d’abord recherché des mesures de similitude entre des distributions de probabilité aisément calculables à l’aide de noyaux. Parmi celles-ci, la maximum mean discrepancy a retenu notre attention. Afin de pallier les limites inhérentes à son usage, nous avons proposé une modification qui conduit au critère de Ward, bien connu en classification hiérarchique. Nous avons enfin proposé un algorithme itératif de clustering reposant sur la classification hiérarchique à noyau et permettant d’optimiser le noyau et de déterminer le nombre de classes en présence / Clustering, as a useful tool for unsupervised classification, is the task of grouping objects according to some measured or perceived characteristics of them and it has owned great success in exploring the hidden structure of unlabeled data sets. Kernel-based clustering algorithms have shown great prominence. They provide competitive performance compared with conventional methods owing to their ability of transforming nonlinear problem into linear ones in a higher dimensional feature space. In this work, we propose a Kernel-based Hierarchical Agglomerative Clustering algorithms (KHAC) using Ward’s criterion. Our method is induced by a recently arisen criterion called Maximum Mean Discrepancy (MMD). This criterion has firstly been proposed to measure difference between different distributions and can easily be embedded into a RKHS. Close relationships have been proved between MMD and Ward's criterion. In our KHAC method, selection of the kernel parameter and determination of the number of clusters have been studied, which provide satisfactory performance. Finally an iterative KHAC algorithm is proposed which aims at determining the optimal kernel parameter, giving a meaningful number of clusters and partitioning the data set automatically
144

Identification automatisée des espèces d'arbres dans des scans laser 3D réalisés en forêt / Automatic recognition of tree species from 3D point clouds of forest plots

Othmani, Ahlem 26 May 2014 (has links)
L’objectif de ces travaux de thèse est la reconnaissance automatique des espèces d’arbres à partir de scans laser terrestres, information indispensable en inventaire forestier. Pour y répondre, nous proposons différentes méthodes de reconnaissance d’espèce basées sur la texture géométrique 3D des écorces.Ces différentes méthodes utilisent la séquence de traitement suivante : une étape de prétraitement, une étape de segmentation, une étape d’extraction des caractéristiques et une dernière étape de classification. Elles sont fondées sur les données 3D ou bien sur des images de profondeur extraites à partir des nuages de points 3D des troncs d’arbres en utilisant une surface de référence.Nous avons étudié et testé différentes approches de segmentation sur des images de profondeur représentant la texture géométrique de l'écorce. Ces approches posent des problèmes de sur-Segmentation et d'introduction de bruit. Pour cette raison, nous proposons une nouvelle approche de segmentation des nuages de points 3D : « Burst Wind Segmentation », inspirée des lignes de partage des eaux. Cette dernière réussit, dans la majorité des cas, à extraire des cicatrices caractéristiques qui sont ensuite comparées à un dictionnaire des cicatrices (« ScarBook ») pour discriminer les espèces d’arbres.Une grande variété de caractéristiques est extraite à partir des régions segmentées par les différentes méthodes proposées. Ces caractéristiques représentent le niveau de rugosité, la forme globale des régions segmentées, la saillance et la courbure du contour, la distribution des points de contour, la distribution de la forme selon différents angles,...Enfin, pour la classification des caractéristiques visuelles, les forêts aléatoires (Random Forest) de Leo Breiman et Adèle Cutler sont utilisées dans une approche à deux étapes : sélection des variables importantes, puis classification croisée avec les variables retenues, seulement.L’écorce de l’arbre change avec l'accroissement en diamètre ; nous avons donc étudié différents critères de variabilité naturelle et nous avons testé nos approches sur une base qui présente cette variabilité. Le taux de bonne classification dépasse 96% dans toutes les approches de segmentation proposées mais les meilleurs résultats sont atteints avec la nouvelle approche de segmentation « Burst Wind Segmentation » étant donné que cette approche réussit mieux à extraire les cicatrices, utilise un dictionnaire de cicatrices et a été évaluée sur une plus grande variété de caractéristiques de forme, de courbure, de saillance et de rugosité. / The objective of the thesis is the automatic recognition of tree species from Terrestrial LiDAR data. This information is essential for forest inventory. As an answer, we propose different recognition methods based on the 3D geometric texture of the bark.These methods use the following processing steps: a preprocessing step, a segmentation step, a feature extraction step and a final classification step. They are based on the 3D data or on depth images built from 3D point clouds of tree trunks using a reference surface.We have investigated and tested several segmentation approaches on depth images representing the geometric texture of the bark. These approaches have the disadvantages of over segmentation and are quite sensitive to noises. For this reason, we propose a new 3D point cloud segmentation approach inspired by the watershed technique that we have called «Burst Wind Segmentation». Our approach succeed in extracting in most cases the characteristic scars that are next compared to those stored in a dictionary («ScarBook») in order to determine the tree species.A large variety of characteristics is extracted from the regions segmented by the different methods proposed. These characteristics are the roughness, the global shape of the segmented regions, the saliency and the curvature of the contour, the distribution of the contour points, the distribution of the shape according to the different orientations.Finally, for the classification of the visual characteristics, the Random Forest method by Leo Breiman and Adèle Cutler is used in a two steps approach: selection of the most important variables and cross classification with the selected variables.The bark of the tree changes with the trunk diameter. We have thus studied different natural variability criteria and we have tested our approaches on a test set that includes this variability. The accuracy rate is over 96% for all the proposed segmentation approaches but the best result is obtained with the «Burst Wind Segmentation» one due to the fact that this approach can better extract the scars, it uses a dictionary of scars for recognition, and it has been evaluated on a greater variety of shapes, curvatures, saliency and roughness.
145

Vers un système de vision auto-adaptatif à base de systèmes multi-agents. / Towards an auto-adaptive vision system based on multi-agents systems.

Mahdjoub, Jason 15 December 2011 (has links)
Il existe une multitude de traitements d'images dans la littérature, chacun étant adapté à un ensemble plus ou moins grand de cadres d'application. Les traitements d'images sont fondamentalement trop différents les uns par rapport aux autres pour être mis en commun de façon naturelle. De plus, ces derniers sont trop rigides pour pouvoir s'adapter d'eux mêmes lorsqu'un problème non prévu à l'avance par le concepteur apparaît. Or la vision est un phénomène autoadaptatif, qui sait traiter en temps réel des situations singulières, en y proposant des traitements particuliers et adaptés. Elle est aussi un traitement complexe des informations, tant ces dernières ne peuvent être réduites à des représentations réductionnistes et simplifiantes sans être mutilées.Dans cette thèse, un système de vision est entrepris comme un tout où chaque partie est adaptée à l'autre, mais aussi où chaque partie ne peut s'envisager sans l'autre dans les tensions les plus extrêmes générées par la complexité et l'intrication des informations. Puisque chaque parcelle d'information joue un rôle local dans la vision, tout en étant dirigée par un objectif global peu assimilable à son niveau, nous envisageons la vision comme un système où chaque agent délibère selon une interférence produite par le potentiel décisionnel de chacun de ses voisins. Cette délibération est entreprise comme le résultat produit par l'interférence d'une superposition de solutions. De cette manière, il émerge du système à base d'agents une décision commune qui dirige les actions locales faites par chaque agent ou chaque partie du système. En commençant par décrire les principales méthodes de segmentation ainsi que les descripteurs de formes, puis en introduisant les systèmes multi-agents dans le domaine de l'image, nous discutons d'une telle approche où la vision est envisagée comme un système multi-agent apte à gérer la complexité inhérente de l'information visuelle tant en représentation qu'en dynamisme systémique. Nous encrons dans ces perspectives deux modèles multi-agents. Le premier modèle traite de la segmentation adaptative d'images sans calibration manuelle par des seuils. Le deuxième modèle traite de la représentation de formes quelconques à travers la recherche de coefficients d'ondelettes pertinents. Ces deux modèles remplissent des critères classiques liés au traitement d'images, et à la reconnaissance de formes, tout en étant des cas d'études à développer pour la recherche d'un système de vision auto-adaptatif tel que nous le décrivons. / Although several image processing approaches exist, each of them was introduced in order to be used in a specific set of applications. In fact, image processing algorithms are fundamentally too different in order to be merged in a natural way. Moreover, due to their rigidity, they are unable to adapt themselves when a non-previously programmed problem appears as it could be the case in our framework. Indeed vision is an auto-adaptive phenomenon which can deal with singular situations by providing particular and adapted treatments. It is also a complex information processing. Therefore, vision should not be reduced to reductionist and simplifying representation. According to this thesis, a vision system could be developed as a whole in which each part adapts itself with others. Its parts cannot be considered separately due to the extreme tensions generated by the complexity and the intricacy of information. Each of them contributes locally to the vision and it is directed by a global objective incomprehensible at its level. We consider vision as a system whose agents deliberate according to an interference produced by the decision potential of each agent. This deliberation is undertaken as the result produced by interferences of a solution superposition. Then, it emerges from the agent-based system a common decision which directs local actions of each agent or of each part of the system. After describing the main shape descriptors and segmentation algorithms and after introducing multi-agent systems on the image processing domain, we discuss on approaches for which vision is considered as a multi-agent system able to manage the inherent complexity of visual information. Then, we give two multi-agent models. The first one deals with an adaptive segmentation which doesn't need manual calibration through thresholds. The second one deals with shape representations through the search of pertinent wavelet coefficients. These two models respect classical image processing criteria. They also are case studies that should be developed in the search of an auto-adaptive vision system.
146

Extraction des paramètres et classification dynamique dans le cadre de la détection et du suivi de défaut de roulements / Extraction of new features and integration of dynamic classification to improve bearing fault monitoring

Kerroumi, Sanaa 21 October 2016 (has links)
Parmi les techniques utilisées en maintenance, l'analyse vibratoire reste l'outil le plus efficace pour surveiller l'état interne des machines tournantes en fonctionnement. En effet l'état de chaque composant constituant la machine peut être caractérisé par un ou plusieurs indicateurs de défaut issus de l'analyse vibratoire. Le suivi de ces indicateurs permet de détecter la présence d'un défaut et même de le localiser. Cependant, l'évolution de ces indicateurs peut être influencée par d'autres paramètres comme la variation de charge, la vitesse de rotation ou le remplacement d'un composant. Cela peut provoquer des fausses alarmes et remettre en question la fiabilité du diagnostic. Cette thèse a pour objectif de combiner l'analyse vibratoire avec la méthode de reconnaissance des formes afin d'une part d'améliorer la détection de défaut des composants en particulier le défaut de roulement et d'autre part de mieux suivre l'évolution de la dégradation pour caractériser le degré de sévérité du défaut. Pour cela nous avons développé des méthodes de classification dynamique pour prendre en compte l'évolution du système. Les observations à classifier sont constituées d'indicateurs de défauts et des combinaisons linéaires de ceux-ci. La démarche de la reconnaissance des formes dynamique consiste à extraire, à sélectionner et à classifier ces observations de façon continue. Trois méthodes de classification dynamiques ont été développées durant cette thèse : le « Dynamic DBSCAN » qui la première version dynamique de DBSCAN développée pour pouvoir suivre les évolutions des classes, « Evolving scalable DBSCAN » ESDBSCAN qui représente une version en ligne et évolutive de DBSCAN et finalement « Dynamic Fuzzy Scalabale DBSCAN » DFSDBSCAN qui est une version dynamique et floue de la méthode de classification ESDBSCAN adaptée pour un apprentissage en ligne. Ces méthodes distinguent les variations des observations liées au changement du mode de fonctionnement de la machine (variation de vitesse ou de charges) et les variations liées au défaut. Ainsi, Elles permettent de détecter, de façon précoce, l'apparition d'un défaut qui se traduit par la création d'une nouvelle classe dite classe dégradée et de suivre l'évolution de celle-ci. Cette méthodologie permettrait d'améliorer l'estimation de la durée de vie résiduelle du composant en analysant la distance séparant la classe "saine" et "dégradée". L'application sur des données réelles a permis d'identifier les différents états du roulement au cours temps (sain ou normal, défectueux) et l'évolution des observations liée à la variation de vitesse et au changement de charges avec un taux d'erreur faible et d'établir un diagnostic fiable. Afin de caractériser le degré de précocité du diagnostic des méthodes développées nous avons comparé ces résultats avec ceux établis par des méthodes classiques de détection. Cette comparaison nous a montré que les méthodes proposées permettent un diagnostic plus précoce et plus fiable.Mots clés : Diagnostic et suivi, roulements, méthodes de reconnaissance des formes, apprentissage en ligne, classification dynamique, analyse vibratoire, DFSDBSCAN, ESDBSCAN, DDBSCAN. / Various techniques can be used in rotating machines condition based maintenance. Among which vibration analysis remains the most popular and most effective tool for monitoring the internal state of an operating machine. Through vibration analysis, the state of each component constituting the machine can be characterized by one or more fault indicators. Monitoring these indicators can be used to detect the presence of a defect or even locate it. However, the evolution of these indicators can be influenced by other parameters than defect such as the variation of load, speed or replacement of a component. So counting solely on the evolution of these fault indicators to diagnose a machine can cause false alarms and question the reliability of the diagnosis.In this thesis, we combined vibration analysis tools with pattern recognition method to firstly improve fault detection reliability of components such as bearings, secondly to assess the severity of degradation by closely monitor the defect growth and finally to estimate their remaining useful life. For these reasons, we have designed a pattern recognition process capable of; identifying defect even in machines running under non stationary conditions, processing evolving data of an evolving system and can handle an online learning. This process will have to decide the internal state of the machine using only faults indicators or linear combinations of fault indicators.The process of pattern recognition of dynamic forms consists of extracting and selecting useful information, classify these observations continuously into their right classes then decide on an action according to the observations' class.Three dynamic classification methods have been developed during this thesis: Dynamic DBSCAN that was developed to capitalize on the time evolution of the data and their classes, Evolving Scalable DBSCAN (ESDBSCAN) that was created to overcome the shortcoming of DDBSCAN in online processing and finally Dynamic Fuzzy Scalable DBSCAN (DFSDBSCAN); a dynamic fuzzy and semi-supervised version of ESDBSCAN. These methods can detect the observations evolution and identify the nature of the change causing it; either if it's a change in operating mode of the machine (speed variation or load) or a change related to the defect.With these techniques we were are able to enhance the reliability of fault detection by identifying the origin of the fault indicators evolution. An evolution caused by an alteration of the operating mode and changes caused by defect result in two different types of classes evolution (the appearance of a new class we named it 'defected' in case of defect or a drift otherwise). Not only that but these techniques helped us enhance the precocity of the fault detection and estimate the remaining useful life of the monitored component as well by analyzing the distance separating the class 'healthy' and 'defected'.The application of the designed process on real data helped us prove the legitimacy of the proposed techniques in identifying the different states of bearings over time (healthy or normal, defective) and the origin of the observations' evolution with a low error rate, a reliable diagnosis and a low memory occupation.Keywords: Diagnosis and monitoring, bearings, pattern recognition, learning, dynamic classification, Vibration Analysis, DFSDBSCAN, ESDBSCAN, DDBSCAN
147

Analyse multimodale des consommateurs dans une surface de vente / Multimodal analysis of customer behaviour in a selling area

Lufimpu-Luviya, Yannick 29 June 2015 (has links)
Cette thèse sur l’analyse multimodale du comportementale des consommateurs dans une surface de vente se décline en trois problématiques : 1) la reconnaissance des caractéristiques bas-niveau que sont la tranche d’âge et le genre, 2) l’analyse des caractéristiques moyen-niveau telles que le degré ou la classe d’indécision 3) l’identification des caractéristiques hauts niveaux que sont les types d’achat. Les données proviennent de caméra, de capteurs oculométriques et de capteurs de position. L’identification du genre et de la tranche d’âge s’effectue sur des images de visages. Notre première contribution est de proposer un modèle d'identification du genre et de la tranche d'âge, en se basant sur des descripteurs de texture sur la partie centrale du visage. Nous mettons en exergue une corrélation entre la tranche d'âge du sujet et le degré de difficulté à identifier son genre. Cette corrélation légitime la segmentation marketing de la population en tranches d'âge. Notre seconde contribution concerne la seconde problématique. En effet, nous proposons une analyse prédictive, et non plus descriptive, du degré d'indécision. Nous utilisons pour ce faire des descripteurs oculométriques et de préhension, ainsi que les machines à vecteurs de support. Notre troisième contribution concerne l'analyse du type d'achat sur des données oculométriques. Tout comme pour l'analyse du degré d'indécision, nous proposons un modèle prédictif. Nous mettons en exergue le facteur temps, important dans tout acte d'achat.Cette thèse a été initiée au sein du projet ANR ORIGAMI2 : Observation du Regard et Interprétation du Geste pour une Analyse Marketing non Intrusive. / This thesis about multimodal analysis of customer behavior in a selling area falls into three issues: 1) the identification of low level characteristics such as age band and gender, 2) the analysis of middle level characteristics such as the indecisiveness degree or the indecisiveness class, 3) the identification of purchasing acts. Data come from cameras, eye-tracking sensors and infrared position sensors. The identification of gender and age band is made with images of faces. Our first contribution is proposing a model for the identification of the gender and the age band, based on texture descriptors on the middle third of the face. We point out a correlation between the age of the subject and the difficulty to identify his gender. This correlation legitimizes the segmentation of the population by marketing managers into age bands. Our second contribution deals with the second issue. Indeed, we propose a predictive analysis of the indecisiveness degree of the customer, instead of descriptive analysis. We use eye-tracking descriptors, gesture descriptors and support vector machines. Our third contribution deals with the analysis of purchasing acts based on eye tracking data. As for the analysis of the indecisiveness degree, we propose a predictive model. We emphasize the time factor, which is an important factor in the purchasing act.This thesis was initiated within the behavioral marketing project ORIGAMI2: observation of gaze and interpretation of gesture for a non-intrusive marketing analysis (Observation du Regard et Interprétation du Geste pour Analyse Marketing non-Intrusive).
148

Reconnaissance rapide et précise d'actions humaines à partir de caméras RGB-D. / Fast and accurate human action recognition using RGB-D cameras

Ghorbel, Enjie 12 October 2017 (has links)
ARécemment, les caméras RGB-D ont été introduites sur le marché et ont permis l’exploration de nouvelles approches de reconnaissance d’actions par l’utilisation de deux modalités autres que les images RGB, à savoir, les images de profondeur et les séquences de squelette. Généralement, ces approches ont été évaluées en termes de taux de reconnaissance. Cette thèse s’intéresse principalement à la reconnaissance rapide d’actions à partir de caméras RGB-D. Le travail a été focalisé sur une amélioration conjointe de la rapidité de calcul et du taux de reconnaissance en vue d’une application temps-réel. Dans un premier temps, nous menons une étude comparative des méthodes existantes de reconnaissance d’actions basées sur des caméras RGB-D en utilisant les deux critères énoncés : le taux de reconnaissance et la rapidité de calcul. Suite aux conclusions résultant de cette étude, nous introduisons un nouveau descripteur de mouvement, à la fois précis et rapide, qui se base sur l’interpolation par splines cubiques de valeurs cinématiques du squelette, appelé Kinematic Spline Curves (KSC). De plus, afin de pallier les effets négatifs engendrés par la variabilité anthropométrique, la variation d’orientation et la variation de vitesse, des méthodes de normalisation spatiale et temporelle rapide ont été proposées. Les expérimentations menées sur quatre bases de données prouvent la précision et la rapidité de ce descripteur. Dans un second temps, un deuxième descripteur appelé Hiearchical Kinematic Coavarince(HKC) est introduit. Ce dernier est proposé dans l’optique de résoudre la question de reconnaissance rapide en ligne. Comme ce descripteur n’appartient pas à un espace euclidien, mais à l’espace des matrices Symétriques semi-Définies Positives (SsDP), nous adaptons les méthodes de classification à noyau par l’introduction d’une distance inspirée de la distance Log-Euclidienne, que nous appelons distance Log-Euclidienne modifiée. Cette extension nous permet d’utiliser des classifieurs adaptés à l’espace de caractéristiques (SPsD).Une étude expérimentale montre l’efficacité de cette méthode non seulement en termes de rapidité de calcul et de précision, mais également en termes de latence observationnelle. Ces conclusions prouvent que cette approche jointe à une méthode de segmentation d’actions pourrait s’avérer adaptée à la reconnaissance en ligne et ouvrent ainsi de nouvelles perspectives pour nos travaux futurs. / The recent availability of RGB-D cameras has renewed the interest of researchers in the topic of human action recognition. More precisely, several action recognition methods have been proposed based on the novel modalities provided by these cameras, namely, depth maps and skeleton sequences. These approaches have been mainly evaluated in terms of recognition accuracy. This thesis aims to study the issue of fast action recognition from RGB-D cameras. It focuses on proposing an action recognition method realizing a trade-off between accuracy and latency for the purpose of applying it in real-time scenarios. As a first step, we propose a comparative study of recent RGB-D based action recognition methods using the two cited criteria: accuracy of recognition and rapidity of execution. Then, oriented by the conclusions stated thanks to this comparative study, we introduce a novel, fast and accurate human action descriptor called Kinematic Spline Curves (KSC).This latter is based on the cubic spline interpolation of kinematic values. Moreover, fast spatialand temporal normalization are proposed in order to overcome anthropometric variability, orientation variation and rate variability. The experiments carried out on four different benchmarks show the effectiveness of this approach in terms of execution time and accuracy. As a second step, another descriptor is introduced, called Hierarchical Kinematic Covariance(HKC). This latter is proposed in order to solve the issue of fast online action recognition. Since this descriptor does not belong to a Euclidean space, but is an element of the space of Symmetric Positive semi-definite (SPsD) matrices, we adapt kernel classification methods by the introduction of a novel distance called Modified Log-Euclidean, which is inspiredfrom Log-Euclidean distance. This extension allows us to use suitable classifiers to the feature space SPsD of matrices. The experiments prove the efficiency of our method, not only in terms of rapidity of calculation and accuracy, but also in terms of observational latency. These conclusions show that this approach combined with an action segmentation method could be appropriate to online recognition, and consequently, opens up new prospects for future works.
149

Detection and counting of Powered Two Wheelers in traffic using a single-plane Laser Scanner / Détection de deux roues motorisées par télémètre laser à balayage

Prabhakar, Yadu 10 October 2013 (has links)
La sécurité des deux-roues motorisés (2RM) constitue un enjeu essentiel pour les pouvoirs publics et les gestionnaires routiers. Si globalement, l’insécurité routière diminue sensiblement depuis 2002, la part relative des accidents impliquant les 2RM a tendance à augmenter. Ce constat est résumé par les chiffres suivants : les 2RM représentent environ 2 % du trafic et 30 % des tués sur les routes.On observe depuis plusieurs années une augmentation du parc des 2RM et pourtant il manque des données et des informations sur ce mode de transport, ainsi que sur les interactions des 2RM avec les autres usagers et l'infrastructure routière. Ce travail de recherche appliquée est réalisé dans le cadre du projet ANR METRAMOTO et peut être divisé en deux parties : la détection des2RM et la détection des objets routiers par scanner laser. Le trafic routier en général contient des véhicules de nature et comportement inconnus, par exemple leurs vitesses, leurs trajectoires et leurs interactions avec les autres usagers de la route. Malgré plusieurs technologies pour mesurer le trafic,par exemple les radars ou les boucles électromagnétiques, il est difficile de détecter les 2RM à cause de leurs petits gabarits leur permettant de circuler à vitesse élevée et ce même en interfile. La méthode développée est composée de plusieurs sous-parties: Choisir une configuration optimale du scanner laser afin de l’installer sur la route. Ensuite une méthode de mise en correspondance est proposée pour trouver la hauteur et les bords de la route. Le choix d’installation est validé par un simulateur. A ces données brutes, la méthode de prétraitement est implémentée et une transformation de ces données dans le domaine spatio-temporel est faite. Après cette étape de prétraitement, la méthode d’extraction nommée ‘Last Line Check (LLC)’ est appliquée. Une fois que le véhicule est extrait, il est classifié avec un SVM et un KNN. Ensuite un compteur est mis en œuvre pour compter les véhicules classifiés. A la fin, une comparaison de la performance de chacun de ces deux classifieurs est réalisée. La solution proposée est un prototype et peut être intégrée dans un système qui serait installé sur une route au trafic aléatoire (dense, fluide, bouchons) pour détecter, classifier et compter des 2RM en temps réel. / The safety of Powered Two Wheelers (PTWs) is important for public authorities and roadadministrators around the world. Recent official figures show that PTWs are estimated to represent only 2% of the total traffic but represent 30% of total deaths on French roads. However, as these estimated figures are obtained by simply counting the number plates registered, they do not give a true picture of the PTWs on the road at any given moment. This dissertation comes under the project METRAMOTO and is a technical applied research work and deals with two problems: detection of PTWsand the use of a laser scanner to count PTWs in the traffic. Traffic generally contains random vehicles of unknown nature and behaviour such as speed,vehicle interaction with other users on the road etc. Even though there are several technologies that can measure traffic, for example radars, cameras, magnetometers etc, as the PTWs are small-sized vehicles, they often move in between lanes and at quite a high speed compared to the vehicles moving in the adjacent lanes. This makes them difficult to detect. the proposed solution in this research work is composed of the following parts: a configuration to install the laser scanner on the road is chosen and a data coherence method is introduced so that the system is able to detect the road verges and its own height above the road surface. This is validated by simulator. Then the rawd ata obtained is pre-processed and is transform into the spatial temporal domain. Following this, an extraction algorithm called the Last Line Check (LLC) method is proposed. Once extracted, the objectis classified using one of the two classifiers either the Support Vector Machine (SVM) or the k-Nearest Neighbour (KNN). At the end, the results given by each of the two classifiers are compared and presented in this research work. The proposed solution in this research work is a propototype that is intended to be integrated in a real time system that can be installed on a highway to detect, extract, classify and counts PTWs in real time under all traffic conditions (traffic at normal speeds, dense traffic and even traffic jams).
150

Conception d’un algorithme de vision par ordinateur « top-down » dédié à la reconnaissance des sillons corticaux / Design of a top-down computer vision algorithm dedicated to the recognition of cortical sulci

Borne, Léonie 01 October 2019 (has links)
Les plissements du cortex caractérisent de manière unique chaque être humain. Ils apparaissent pendant le dernier trimestre de grossesse, c’est-à-dire pendant la mise en place de l’architecture cérébrale. Les motifs de ces plis sont impactés par les spécificités de cette architecture propres à chaque individu. Ils pourraient donc dévoiler les signatures de certaines anomalies du développement à l’origine de pathologies psychiatriques. Le laboratoire d’analyse d’images de Neurospin développe depuis 25 ans un programme de recherche visant à mettre en évidence de telles signatures grâce à la conception d’outils de vision par ordinateur dédiés qu’il diffuse à la communauté (http://brainvisa.info).Cette thèse a permis l’émergence d’une nouvelle génération d’outils basés sur des techniques d’apprentissage automatique. Le premier outil proposé classifie automatiquement des motifs locaux de plissements du cortex, un problème qui n’avait jamais été abordé jusqu’ici. Le second outil vise l’étiquetage automatique des sillons corticaux en modélisant des mécanismes de reconnaissance « top-down » nécessaires pour pallier les faiblesses des démarches « bottom-up » développées jusqu’à présent. Ainsi, en plus d'avoir des taux de reconnaissances plus élevés et un temps d’exécution plus court, le nouveau modèle proposé est robuste aux erreurs de sous-segmentation, ce qui est l'une des plus grandes faiblesses de l'ancien système. Pour réaliser ces deux outils, plusieurs algorithmes d'apprentissage automatique ont été implémentés et comparés. Ces algorithmes s'inspirent d'une part des méthodes multi-atlas, en particulier de l'approche par patch, qui sont largement utilisées pour la segmentation anatomique d'images médicales et d'autre part des méthodes d'apprentissage profond qui révolutionnent aujourd'hui le monde de la vision par ordinateur. Les travaux de cette thèse confirment l'incroyable efficacité des techniques d'apprentissage profond pour s'adapter à des problèmes complexes. Cependant, les performances obtenues avec ces techniques sont généralement équivalentes à celles des approches par patch, voire moins bonnes si la base de données d'apprentissage est restreinte. Ce qui fait de l'apprentissage profond un outil particulièrement intéressant en pratique n'est autre que sa rapidité d'exécution, d'autant plus pour l'analyse des bases de données colossales aujourd'hui disponibles. / We are seven billion humans with unique cortical folding patterns. The cortical folding process occurs during the last trimester of pregnancy, during the emergence of cortical architecture. The folding patterns are impacted by architectural features specific to each individual. Hence, they could reveal signatures of abnormal developments that can lead to psychiatric syndroms. For the last 25 years, the image analysis lab of Neurospin has been designing dedicated computer vision tools to tackle the research of such signatures. The resulting tools are distributed to the community (http://brainvisa.info).This thesis has resulted in the emergence of a new generation of tools based on machine learning techniques. The first proposed tool automatically classifies local patterns of cortical folds, a problem that had never been addressed before. The second tool aims at the automatic labeling of cortical sulci by modeling the top-down recognition mechanisms necessary to overcome weaknesses of the current bottom-up systems. Thus, in addition to having higher recognition rates and shorter execution time, the proposed new model is robust to sub-segmentation errors, which is one of the greatest weaknesses of the old system. To realize these two tools, several machine learning algorithms were implemented and compared. These algorithms are inspired on the one hand by multi-atlas methods, in particular the patch approach, which are widely used for the anatomical segmentation of medical images and on the other hand by the deep learning methods that are revolutionizing the world of computer vision. The work of this thesis confirms the incredible effectiveness of deep learning techniques to adapt well to complex problems. However, the performances obtained with these techniques are generally equivalent to those of patch approaches, or even worse if the training database is limited. What makes deep learning a particularly interesting tool in practice is its fast execution, especially for the analysis of the huge databases now available.

Page generated in 0.1259 seconds