• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 124
  • 108
  • 15
  • 3
  • Tagged with
  • 254
  • 228
  • 157
  • 111
  • 65
  • 64
  • 64
  • 58
  • 57
  • 55
  • 53
  • 53
  • 51
  • 49
  • 46
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Architectures de circuits nanoélectroniques neuro-inspirée.

Chabi, Djaafar 09 March 2012 (has links) (PDF)
Les nouvelles techniques de fabrication nanométriques comme l'auto-assemblage ou la nanoimpression permettent de réaliser des matrices régulières (crossbars) atteignant des densités extrêmes (jusqu'à 1012 nanocomposants/cm2) tout en limitant leur coût de fabrication. Cependant, il est attendu que ces technologies s'accompagnent d'une augmentation significative du nombre de défauts et de dispersions de caractéristiques. La capacité à exploiter ces crossbars est alors conditionnée par le développement de nouvelles techniques de calcul capables de les spécialiser et de tolérer une grande densité de défauts. Dans ce contexte, l'approche neuromimétique qui permet tout à la fois de configurer les nanodispositifs et de tolérer leurs défauts et dispersions de caractéristiques apparaît spécialement pertinente. L'objectif de cette thèse est de démontrer l'efficacité d'une telle approche et de quantifier la fiabilité obtenue avec une architecture neuromimétique à base de crossbar de memristors, ou neurocrossbar (NC). Tout d'abord la thèse introduit des algorithmes permettant l'apprentissage de fonctions logiques sur un NC. Par la suite, la thèse caractérise la tolérance du modèle NC aux défauts et aux variations de caractéristiques des memristors. Des modèles analytiques probabilistes de prédiction de la convergence de NC ont été proposés et confrontés à des simulations Monte-Carlo. Ils prennent en compte l'impact de chaque type de défaut et de dispersion. Grâce à ces modèles analytiques il devient possible d'extrapoler cette étude à des circuits NC de très grande taille. Finalement, l'efficacité des méthodes proposées est expérimentalement démontrée à travers l'apprentissage de fonctions logiques par un NC composé de transistors à nanotube de carbone à commande optique (OG-CNTFET).
72

Une approche mathématique de l'apprentissage non-supervisé dans les réseaux de neurones récurrents

Galtier, Mathieu 13 December 2011 (has links) (PDF)
Dans cette thèse nous tentons de donner un sens mathématique à la proposition : le néocortex se construit un modèle de son environnement. Nous considérons que le néocortex est un réseau de neurones spikants dont la connectivité est soumise à une lente évolution appelée apprentissage. Dans le cas où le nombre de neurones est proche de l'infini, nous proposons une nouvelle méthode de champ-moyen afin de trouver une équation décrivant l'évolution du taux de décharge de populations de neurones. Nous étudions donc la dynamique de ce système moyennisé avec apprentissage. Dans le régime où l'apprentissage est beaucoup plus lent que l'activité du réseau nous pouvons utiliser des outils de moyennisation temporelle pour les systèmes lents/rapides. Dans ce cadre mathématique nous montrons que la connectivité du réseau converge toujours vers une unique valeur d'équilibre que nous pouvons calculer explicitement. Cette connectivité regroupe l'ensemble des connaissances du réseau à propos de son environnement. Nous comparons cette connectivité à l'équilibre avec les stimuli du réseau. Considérant que l'environnement est solution d'un système dynamique quelconque, il est possible de montrer que le réseau encode la totalité de l'information nécessaire à la définition de ce système dynamique. En effet nous montrons que la partie symétrique de la connectivité correspond à la variété sur laquelle est définie le système dynamique de l'environnement, alors que la partie anti-symétrique de la connectivité correspond au champ de vecteur définissant le système dynamique de l'environnement. Dans ce contexte il devient clair que le réseau agit comme un prédicteur de son environnement.
73

Vision cognitive : apprentissage supervisé pour la segmentation d'images et de videos

Martin, Vincent 19 December 2007 (has links) (PDF)
Dans cette thèse, nous abordons le problème de la segmentation d'image dans le cadre de la vision cognitive. Plus précisément, nous étudions deux problèmes majeurs dans les systèmes de vision : la sélection d'un algorithme de segmentation et le réglage de ses paramètres selon le contenu de l'image et les besoins de l'application. Nous proposons une méthodologie reposant sur des techniques d'apprentissage pour faciliter la configuration des algorithmes et adapter en continu la tâche de segmentation. Notre première contribution est une procédure d'optimisation générique pour l'extraction automatiquement des paramètres optimaux des algorithmes. L'évaluation de la qualité de la segmentation est faite suivant une segmentation de référence. De cette manière, la tâche de l'utilisateur est réduite à fournir des données de référence pour des images d'apprentissage, comme des segmentations manuelles. Une seconde contribution est une stratégie pour le problème de sélection d'algorithme. Cette stratégie repose sur un jeu d'images d'apprentissage représentatif du problème. La première partie utilise le résultat de l'étape d'optimisation pour classer les algorithmes selon leurs valeurs de performance pour chaque image. La seconde partie consiste à identifier différentes situations à partir du jeu d'images d'apprentissage (modélisation du contexte) et à associer un algorithme paramétré avec chaque situation identifiée. Une troisième contribution est une approche sémantique pour la segmentation d'image. Dans cette approche, nous combinons le résultat des segmentations optimisées avec un processus d'étiquetage des régions. Les labels des régions sont donnés par des classificateurs de régions eux-mêmes entrainés à partir d'exemples annotés par l'utilisateur. Une quatrième contribution est l'implémentation de l'approche et le développement d'un outil graphique dédié à l'extraction, l'apprentissage, et l'utilisation de la connaissance pour la segmentation (modélisation et apprentissage du contexte pour la sélection dynamique d'algorithme de segmentation, optimisation automatique des paramètres, annotations des régions et apprentissage des classifieurs). Nous avons testé notre approche sur deux applications réelles : une application biologique (comptage d'insectes sur des feuilles de rosier) et une application de vidéo surveillance. Pour la première application, la segmentation des insectes obtenue par notre approche est de meilleure qualité qu'une segmentation non-adaptative et permet donc au système de vision de compter les insectes avec une meilleure précision. Pour l'application de vidéo surveillance, la principale contribution de l'approche proposée se situe au niveau de la modélisation du contexte, permettant d'adapter le choix d'un modèle de fond suivant les caractéristiques spatio-temporelles de l'image. Notre approche permet ainsi aux applications de vidéo surveillance d'élargir leur champ d'application aux environnements fortement variables comme les très longues séquences (plusieurs heures) en extérieur. Afin de montrer le potentiel et les limites de notre approche, nous présentons les résultats, une évaluation quantitative et une comparaison avec des segmentations non-adaptative.
74

Contrôle supervisé, confiance et dialogue

CROCQUESEL, Cyril 27 September 2012 (has links) (PDF)
La confiance de l'homme envers la machine est une caractéristique essentielle du contrôle supervisé. En effet, des contres performances du couple homme-machine provoquées par un mauvais niveau de confiance (insuffisant ou excessif) peuvent conduire à des dégâts matériels ou humains. Il est donc nécessaire d'évaluer la confiance de l'homme pour anticiper de telles situations et ainsi empêcher leur réalisation. C'est pourquoi, dans cette thèse, nous proposons un modèle d'évaluation de la confiance. Pour cela, nous avons défini deux modèles. Le premier est un modèle de dialogue basé sur la théorie du grounding et spécifique au contrôle supervisé. Le second est un modèle d'évaluation de la confiance qui décrit le lien entre la confiance de l'homme et l'observation de sa stratégie de dialogue à l'aide du premier modèle. Cet apport théorique est accompagné de deux expérimentations. Elles sont contextualisées dans le domaine du contrôle multi-drones et plus spécifiquement pour les opérations de surveillance et d'interception. La première expérience, à but exploratoire, met en évidence l'existence d'un lien entre confiance et dialogue. La seconde permet de tester la validation de notre modèle d'évaluation de la confiance. Cette thèse apporte donc les bases d'une approche objective de l'évaluation de la confiance à partir de l'observation du dialogue homme-machine.
75

Adaptations et applications de modèles mixtes de réseaux de neurones à un processus industriel

Schutz, Georges 05 October 2006 (has links) (PDF)
Cette étude consiste à étudier l'apport de réseaux de neurones<br />artificiels pour améliorer le contrôle de processus industriels<br />complexes, caractérisés en particulier par leur aspect temporel.<br />Les motivations principales pour traiter des séries temporelles<br />sont la réduction du volume de données, l'indexation pour la<br />recherche de similarités, la localisation de séquences,<br />l'extraction de connaissances (data mining) ou encore la<br />prédiction.<br /><br />Le processus industriel choisi est un four à arc<br />électrique pour la production d'acier liquide au Luxembourg. Notre<br />approche est un concept de contrôle prédictif et se base sur des<br />méthodes d'apprentissage non-supervisé dans le but d'une<br />extraction de connaissances.<br /><br />Notre méthode de codage se base sur<br />des formes primitives qui composent les signaux. Ces formes,<br />composant un alphabet de codage, sont extraites par une méthode<br />non-supervisée, les cartes auto-organisatrices de Kohonen (SOM).<br />Une méthode de validation des alphabets de codage accompagne<br />l'approche.<br /><br />Un sujet important abordé durant ces recherches est<br />la similarité de séries temporelles. La méthode proposée est<br />non-supervisée et intègre la capacité de traiter des séquences de<br />tailles variées.
76

Analyse et reconnaissance des émotions lors de conversations de centres d'appels

Vaudable, Christophe 11 July 2012 (has links) (PDF)
La reconnaissance automatique des émotions dans la parole est un sujet de recherche relativement récent dans le domaine du traitement de la parole, puisqu'il est abordé depuis une dizaine d'années environs. Ce sujet fait de nos jours l'objet d'une grande attention, non seulement dans le monde académique mais aussi dans l'industrie, grâce à l'augmentation des performances et de la fiabilité des systèmes. Les premiers travaux étaient fondés sur des donnés jouées par des acteurs, et donc non spontanées. Même aujourd'hui, la plupart des études exploitent des séquences pré-segmentées d'un locuteur unique et non une communication spontanée entre plusieurs locuteurs. Cette méthodologie rend les travaux effectués difficilement généralisables pour des informations collectées de manière naturelle.Les travaux entrepris dans cette thèse se basent sur des conversations de centre d'appels, enregistrés en grande quantité et mettant en jeu au minimum 2 locuteurs humains (un client et un agent commercial) lors de chaque dialogue. Notre but est la détection, via l'expression émotionnelle, de la satisfaction client. Dans une première partie nous présentons les scores pouvant être obtenus sur nos données à partir de modèles se basant uniquement sur des indices acoustiques ou lexicaux. Nous montrons que pour obtenir des résultats satisfaisants une approche ne prenant en compte qu'un seul de ces types d'indices ne suffit pas. Nous proposons pour palier ce problème une étude sur la fusion d'indices de types acoustiques, lexicaux et syntaxico-sémantiques. Nous montrons que l'emploi de cette combinaison d'indices nous permet d'obtenir des gains par rapport aux modèles acoustiques même dans les cas ou nous nous basons sur une approche sans pré-traitements manuels (segmentation automatique des conversations, utilisation de transcriptions fournies par un système de reconnaissance de la parole). Dans une seconde partie nous remarquons que même si les modèles hybrides acoustiques/linguistiques nous permettent d'obtenir des gains intéressants la quantité de données utilisées dans nos modèles de détection est un problème lorsque nous testons nos méthodes sur des données nouvelles et très variées (49h issus de la base de données de conversations). Pour remédier à ce problème nous proposons une méthode d'enrichissement de notre corpus d'apprentissage. Nous sélectionnons ainsi, de manière automatique, de nouvelles données qui seront intégrées dans notre corpus d'apprentissage. Ces ajouts nous permettent de doubler la taille de notre ensemble d'apprentissage et d'obtenir des gains par rapport aux modèles de départ. Enfin, dans une dernière partie nous choisissons d'évaluées nos méthodes non plus sur des portions de dialogues comme cela est le cas dans la plupart des études, mais sur des conversations complètes. Nous utilisons pour cela les modèles issus des études précédentes (modèles issus de la fusion d'indices, des méthodes d'enrichissement automatique) et ajoutons 2 groupes d'indices supplémentaires : i) Des indices " structurels " prenant en compte des informations comme la durée de la conversation, le temps de parole de chaque type de locuteurs. ii) des indices " dialogiques " comprenant des informations comme le thème de la conversation ainsi qu'un nouveau concept que nous nommons " implication affective ". Celui-ci a pour but de modéliser l'impact de la production émotionnelle du locuteur courant sur le ou les autres participants de la conversation. Nous montrons que lorsque nous combinons l'ensemble de ces informations nous arrivons à obtenir des résultats proches de ceux d'un humain lorsqu'il s'agit de déterminer le caractère positif ou négatif d'une conversation
77

Contextualisation d'un détecteur de piétons : application à la surveillance d'espaces publics

Chesnais, Thierry 24 June 2013 (has links) (PDF)
La démocratisation de la " vidéosurveillance intelligente " nécessite le développement d'outils automatiques et temps réel d'analyse vidéo. Parmi ceux-ci, la détection de piétons joue un rôle majeur car de nombreux systèmes reposent sur cette technologie. Les approches classiques de détection de piétons utilisent la reconnaissance de formes et l'apprentissage statistique. Elles souffrent donc d'une dégradation des performances quand l'apparence des piétons ou des éléments de la scène est trop différente de celle étudiée lors de l'apprentissage. Pour y remédier, une solution appelée " contextualisation du détecteur " est étudiée lorsque la caméra est fixe. L'idée est d'enrichir le système à l'aide d'informations provenant de la scène afin de l'adapter aux situations qu'il risque de fréquemment rencontrer. Ce travail a été réalisé en deux temps. Tout d'abord, l'architecture d'un détecteur et les différents outils utiles à sa construction sont présentés dans un état de l'art. Puis la problématique de la contextualisation est abordée au travers de diverses expériences validant ou non les pistes d'amélioration envisagées. L'objectif est d'identifier toutes les briques du système pouvant bénéficier de cet apport afin de contextualiser complètement le détecteur. Pour faciliter l'exploitation d'un tel système, la contextualisation a été entièrement automatisée et s'appuie sur des algorithmes d'apprentissage semi-supervisé. Une première phase consiste à collecter le maximum d'informations sur la scène. Différents oracles sont proposés afin d'extraire l'apparence des piétons et des éléments du fond pour former une base d'apprentissage dite contextualisée. La géométrie de la scène, influant sur la taille et l'orientation des piétons, peut ensuite être analysée pour définir des régions, dans lesquelles les piétons, tout comme le fond, restent visuellement proches. Dans la deuxième phase, toutes ces connaissances sont intégrées dans le détecteur. Pour chaque région, un classifieur est construit à l'aide de la base contextualisée et fonctionne indépendamment des autres. Ainsi chaque classifieur est entraîné avec des données ayant la même apparence que les piétons qu'il devra détecter. Cela simplifie le problème de l'apprentissage et augmente significativement les performances du système.
78

Découvertes d'activités humaines dans des videos

Pusiol, Guido Thomas 30 May 2012 (has links) (PDF)
L'objectif de cette thèse est de proposer une plateforme complète pour la découverte automatique d'activités, leur modélisation et leur reconnaissance à patir de vidéos. La plateforme utilise des informations perceptuelles (i.e des trajectoires) en entrée et produit une reconnaissance sémantique des activités. La plateforme fonctionne en 5 étapes: 1) La video est divisée en plusieurs parties afin de reconnaitre des activités. Nous proposons différentes techniques pour extraire des caractéristiques perceptuelles à partir du découpage. Nous construisons des ensembles de caractéristiques perceptuelles capable de décrire les activités dans des petites périodes de temps. 2) Nous proposons d'apprendre les informations contextuelles de la video. Nous construisons des modèles de scène en apprenant les caractéristiques perceptuelles pertinentes. Le modèle final contient des régions de la scène intéressantes pour décrire des actions sémantiques (i.e des régions ou des interactions arrivent). 3) Nous proposons de réduire le gap entre les informations visuelles de bas niveau et l'interprètation sémantique en construisant un niveau intermédiaire composés d'évènements primitifs. La représentation proposée pour ces évènements primitifs décrit les mouvements intéressants de la scène. Ceci est fait en par abstraction des caractéristiques perceptuelles en utilisant les informations contextuelles de la scène , de manière non supervisée. 4) Nous reconnaissons des activités composées avec une méthode de reconnaissance de chemins. Nous proposons aussi une méthode générique pour modéliser les activités composées. Les modèles sont construits comme des ensembles probabilistes flexibles, faciles à mettre à jour. 5) Nous proposons une méthode de reconnaissance d'activités qui cherche de façon déterministe les occurrences des activités modélisées dans des nouveaux ensemble de données. Les sémantiqes sont générées en interaction avec l'utilisateur. Toute cette approche a été évaluée sur des ensembles de données réels provenant de la surveillance de personnes dans un appartement et de personnes agées dans un hopital. Ce travail a aussi été évalué sur d'autres types d'application comme la surveillance du sommeil.
79

Partitionnement non supervisé d'images hyperspectrales : application à l'identification de la végétation littorale / Unsupervised partitioning approach of hyperspectral image : application to the identification of the algal vegetation

Chen, Bai Yang 02 December 2016 (has links)
La première partie de ce travail présente un état de l'art des principaux critères non supervisés, non paramétriques, d'évaluation d'une partition, des méthodes d'estimation préliminaires du nombre de classes, et enfin des méthodes de classification supervisées, semi-supervisées et non supervisées. Une analyse des avantages et des inconvénients de ces critères et méthodes est menée. L'analyse des performances des méthodes de classification et des critères d'évaluation a été également conduite via l'application visée dans cette thèse. Une approche de partitionnement non supervisée, non paramétrique et hiérarchique s'avère la plus adaptée au problème posé. En effet, ce type d'approche et plus particulièrement la classification descendante donne un partitionnement à plusieurs niveaux et met en évidence des informations plus détaillées d'un niveau à l'autre, ce qui permet une meilleure interprétation de la richesse d'information apportée par l'imagerie hyperspectrale et ainsi conduire à une meilleure décision. Dans ce sens, la deuxième partie de cette thèse présente, tout d'abord l'approche de classification descendante hiérarchique non supervisée (CDHNS) développée. Cette approche non paramétrique, permet l'obtention de résultats stables et objectifs indépendamment des utilisateurs finaux. Le second développement conduit, porte sur la sélection de bandes spectrales parmi celles qui composent l'image hyperspectrale originale afin de réduire la quantité d'information à traiter avant le processus de classification. Cette méthode est également non supervisée et non paramétrique. L'approche de classification et la méthode de réduction ont été expérimentées et validées sur une image hyperspectrale synthétique construite à partir des images réelles puis sur des images réelles dont l'application porte sur l'identification des différentes classes algales. Les résultats de partitionnement obtenus sans réduction montrent d'une part, la stabilité des résultats et, d'autre part, la discrimination des classes principales (végétation, substrat et eau) dès les premiers niveaux. Les résultats de la sélection des bandes spectrales font apparaître leur bonne répartition sur toute la gamme spectrale du capteur (visible et proche-infrarouge). Les résultats montrent aussi que le partitionnement avec et sans réduction sont globalement similaires. De plus, le temps de calcul est fortement réduit. / The upstream location of the different algal species causing clogging in the EDF nuclear power plants cooling systems along the Channel coastline, by analyzing hyperspectral aerial image is today the most appropriate means. Indeed, hyperspectral imaging allows, through its spatial resolution and its broad spectral range covering the areas of visible and near infrared, the objective discrimination of plant species on the foreshore, necessarily yielding accurate maps on large coastal areas. To provide a solution to this problem and achieve the objectives, the work conducted within the framework of this thesis lies in the development of unsupervised partitioning approaches to data with large spectral and spatial dimensions. The first part of this work presents a state of the art of main unsupervised criteria, and nonparametric, for partitioning evaluation, the preliminary methods for estimating the number of classes, and finally, supervised, semi-supervised and unsupervised classification methods. An analysis of the advantages and drawbacks of these methods and criteria is conducted. The analysis of the performances of these classification methods and evaluation criteria was also conducted through the application targeted in this thesis. An unsupervised, nonparametric, hierarchical partitioning approach appears best suited to the problem. Indeed, this type of approach, and particularly the descending classification, gives a partitioning at several levels and highlights more detailed information from one level to another, allowing a better interpretation of the wealth of information provided by hyperspectral imaging and therefore leading to a better decision. In this sense, the second part of this thesis presents, firstly the unsupervised hierarchical descending classification (UHDC) approach developed. This nonparametric approach allows obtaining stable and objective results regardless of end users. The second development proposed concerns the selection of spectral bands from those that make up the original hyperspectral image, in order to reduce the amount of information to be processed before the classification process. This method is also unsupervised and nonparametric. The classification approach and the reduction method have been tested and validated on a synthetic hyperspectral image constructed from real images, and then on real images, with application to the identification of different algal classes. The partitioning results obtained without reduction show firstly, the stability of the results and, secondly, the discrimination of the main classes (vegetation, substrate and water) from the first levels. The results of the spectral bands selection method show that the retained bands are well distributed over the entire spectral range of the sensor (visible and near-infrared). The results also show that partitioning results with and without reduction are broadly similar. Moreover, the computation time is greatly reduced.
80

Traitement des dossiers refusés dans le processus d'octroi de crédit aux particuliers. / Reject inference in the process for granting credit.

Guizani, Asma 19 March 2014 (has links)
Le credit scoring est généralement considéré comme une méthode d’évaluation du niveau du risque associé à un dossier de crédit potentiel. Cette méthode implique l'utilisation de différentes techniques statistiques pour aboutir à un modèle de scoring basé sur les caractéristiques du client.Le modèle de scoring estime le risque de crédit en prévoyant la solvabilité du demandeur de crédit. Les institutions financières utilisent ce modèle pour estimer la probabilité de défaut qui va être utilisée pour affecter chaque client à la catégorie qui lui correspond le mieux: bon payeur ou mauvais payeur. Les seules données disponibles pour construire le modèle de scoring sont les dossiers acceptés dont la variable à prédire est connue. Ce modèle ne tient pas compte des demandeurs de crédit rejetés dès le départ ce qui implique qu'on ne pourra pas estimer leurs probabilités de défaut, ce qui engendre un biais de sélection causé par la non-représentativité de l'échantillon. Nous essayons dans ce travail en utilisant l'inférence des refusés de remédier à ce biais, par la réintégration des dossiers refusés dans le processus d'octroi de crédit. Nous utilisons et comparons différentes méthodes de traitement des refusés classiques et semi supervisées, nous adaptons certaines à notre problème et montrons sur un jeu de données réel, en utilisant les courbes ROC confirmé par simulation, que les méthodes semi-supervisé donnent de bons résultats qui sont meilleurs que ceux des méthodes classiques. / Credit scoring is generally considered as a method of evaluation of a risk associated with a potential loan applicant. This method involves the use of different statistical techniques to determine a scoring model. Like any statistical model, scoring model is based on historical data to help predict the creditworthiness of applicants. Financial institutions use this model to assign each applicant to the appropriate category : Good payer or Bad payer. The only data used to build the scoring model are related to the accepted applicants in which the predicted variable is known. The method has the drawback of not estimating the probability of default for refused applicants which means that the results are biased when the model is build on only the accepted data set. We try, in this work using the reject inference, to solve the problem of selection bias, by reintegrate reject applicants in the process of granting credit. We use and compare different methods of reject inference, classical methods and semi supervised methods, we adapt some of them to our problem and show, on a real dataset, using ROC curves, that the semi-supervised methods give good results and are better than classical methods. We confirmed our results by simulation.

Page generated in 0.0696 seconds