• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 7
  • Tagged with
  • 13
  • 13
  • 7
  • 5
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • 3
  • 3
  • 3
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Approche neuronale de la représentation et de la commande multimodèles de processus complexes / A neural multimodel approach of complex processes identification and control

Elfelly, Nesrine 13 December 2010 (has links)
Les travaux présentés dans ce mémoire portent sur la représentation et la commande multimodèles de processus complexes. L'approche envisagée, essentiellement basée sur des techniques de classification neuro-floues, vise à établir une base de modèles décrivant le système dans l'ensemble de son espace de fonctionnement en se servant seulement des mesures de type entrée/sortie. L'implémentation de cette approche nécessite trois étapes principales :(1) détermination de la structure multimodèle, pour laquelle le nombre de modèles est tout d'abord selectionné en utilisant un réseau de neurones à apprentissage compétitif pénalisant le rival. Les différentes classes de fonctionnement sont ensuite déterminées en se servant d'un algorithme de classification adéquat (carte de Kohonen, K-moyennes ou K-moyennes floues),(2) identification paramétrique des modèles basée sur les résultats de la classification et une procédure de validation dont l'objectif est de confirmer l'efficacité de la structure multimodèle proposée en faisant intervenir un mécanisme de décision convenable permettant l'estimation de la contribution (ou validité) de chaque modèle,(3) calcul des paramètres du contrôleur global du système à travers une fusion entre les paramètres des commandes partielles associées aux différents modèles de la base.L’approche suggérée se distingue essentiellement par son aspect général et pratique dans la mesure où elle est simple à mettre en œuvre, ne nécessite aucune connaissance a priori et propose d’adapter le traitement en choisissant les méthodes adéquates de classification et de calcul des validités, suivant certains aspects de l’espace de fonctionnement du processus considéré. / This contribution deals with a new approach for complex processes modeling and control. It is essentially based on neuro-fuzzy classification methods and aims to derive a base of models describing the system in the whole operating domain by using only input/output measurements. The implementation of this approach requires three main steps:(1) determination of the multimodel stucture, for which the number of models are firstly worked out by using a neural network with a rival penalized competitive learning. The different operating clusters are then selected referring to an adequate classification algorithm (Kohonen card, K-means or fuzzy K-means),(2) parametric model identification using the classification results and a validation procedure to confirm the efficiency of the proposed multimodel structure through an appropriate decision mechanism which allows the estimation of the contribution (or validity) of each model.(3) determination of the global system control parameters deduced through a fusion of models control parameters.The suggested approach seems to be interessent since it's easy to apply, doesn't require any a priori knowledge and propose to adapt the processing by choosing the adequate methods of data classification and validity computation referring to some aspects of the operating domain of the considered process.
2

Mesure de la dynamique des polluants gazeux en air intérieur : évaluation des performances de systèmes multi-capteurs / Measuring the dynamics of gaseous pollutants in indoor air : evaluation of the performances of multi-sensor devices

Caron, Alexandre 14 December 2016 (has links)
La qualité de l’air intérieur constitue de nos jours un enjeu sanitaire majeur ainsi qu’une problématique de recherche enplein essor. De nombreux polluants sont présents à l’intérieur des bâtiments. Ils sont directement émis par des sourcesintérieures telles que les matériaux de constructions, le mobilier, l’activité des occupants ou proviennent de l’airextérieur. La politique de réduction de la consommation énergétique entraîne la construction de bâtiments de plus enplus hermétiques, réduisant ainsi l’élimination des polluants par transfert vers l’extérieur. Les techniques d’analysesclassiques ne sont pas adaptées à la surveillance continue de ces environnements. Il s’agit généralement d’analyseursencombrants, coûteux, bruyants et qui nécessitent du personnel qualifié. Une alternative à ces méthodes est récemmentapparue sous la forme de capteurs miniatures. Dans ce travail de thèse, les performances et limitations de plusieurscapteurs miniatures, tels que des capteurs à infrarouge, électrochimiques, à photoionisation ou semi-conducteurs pourla mesure du CO2, du CO, des NOx, d’O3 et des COV, ont été évaluées en laboratoire et lors de campagnes de mesurespour le suivi des principaux polluants de l’air intérieur. Bien que la réponse de ces capteurs soit fortement corrélée avecla concentration mesurée par des analyseurs de référence, le manque de sélectivité ne permet pas toujours une analysequantitative. L’apprentissage bayésien naïf ainsi que le clustering par bisecting k-means ont permis d’interpréter lessignaux mesurés par les capteurs et de mettre en évidence des événements typiques de pollution, traduisant ladynamique de la qualité de l’air intérieur. / Nowadays, indoor air quality is a major health issue and a growing research challenge. Many pollutants are presentinside buildings. They are directly emitted by indoor sources such as building materials, furniture, occupants and theiractivities or transferred from outdoors. Due to an increasing concern for energy saving, recent buildings are much moreairtight, reducing the pollutants elimination to the outside. Standard analyzers are not suitable for monitoring the airquality indoors. These techniques are usually bulky, expensive, noisy and require skilled people. An alternative to theseconventional methods recently appeared under the form of microsensors. In this work, the performances and limitationsof different type of sensors such as infrared sensors, electrochemical sensors, photoionisation detectors orsemiconductive sensors for the measurement of CO2, CO, NOx, O3 or VOC, were evaluated in laboratory conditions andalso during measurement campaigns in order to monitor the major indoor air pollutants. Although the response of thesesensors is highly correlated with the concentration measured by reference instruments, their lack of selectivity does notalways allow a quantitative analysis. Naive Bayes classifier and bisecting k-means clustering were used to help analyzethe output of the sensors, and allow identifying typical pollution events, reflecting the dynamics of the indoor air quality.
3

Algorithmes de classification répartis sur le cloud / Distributed clustering algorithms over a cloud computing platform

Durut, Matthieu 28 September 2012 (has links)
Les thèmes de recherche abordés dans ce manuscrit ont trait à la parallélisation d’algorithmes de classification non-supervisée (clustering) sur des plateformes de Cloud Computing. Le chapitre 2 propose un tour d’horizon de ces technologies. Nous y présentons d’une manière générale le Cloud Computing comme plateforme de calcul. Le chapitre 3 présente l’offre cloud de Microsoft : Windows Azure. Le chapitre suivant analyse certains enjeux techniques de la conception d’applications cloud et propose certains éléments d’architecture logicielle pour de telles applications. Le chapitre 5 propose une analyse du premier algorithme de classification étudié : le Batch K-Means. En particulier, nous approfondissons comment les versions réparties de cet algorithme doivent être adaptées à une architecture cloud. Nous y montrons l’impact des coûts de communication sur l’efficacité de cet algorithme lorsque celui-ci est implémenté sur une plateforme cloud. Les chapitres 6 et 7 présentent un travail de parallélisation d’un autre algorithme de classification : l’algorithme de Vector Quantization (VQ). Dans le chapitre 6 nous explorons quels schémas de parallélisation sont susceptibles de fournir des résultats satisfaisants en terme d’accélération de la convergence. Le chapitre 7 présente une implémentation de ces schémas de parallélisation. Les détails pratiques de l’implémentation soulignent un résultat de première importance : c’est le caractère en ligne du VQ qui permet de proposer une implémentation asynchrone de l’algorithme réparti, supprimant ainsi une partie des problèmes de communication rencontrés lors de la parallélisation du Batch K-Means. / He subjects addressed in this thesis are inspired from research problems faced by the Lokad company. These problems are related to the challenge of designing efficient parallelization techniques of clustering algorithms on a Cloud Computing platform. Chapter 2 provides an introduction to the Cloud Computing technologies, especially the ones devoted to intensivecomputations. Chapter 3 details more specifically Microsoft Cloud Computing offer : Windows Azure. The following chapter details technical aspects of cloud application development and provides some cloud design patterns. Chapter 5 is dedicated to the parallelization of a well-known clustering algorithm: the Batch K-Means. It provides insights on the challenges of a cloud implementation of distributed Batch K-Means, especially the impact of communication costs on the implementation efficiency. Chapters 6 and 7 are devoted to the parallelization of another clustering algorithm, the Vector Quantization (VQ). Chapter 6 provides an analysis of different parallelization schemes of VQ and presents the various speedups to convergence provided by them. Chapter 7 provides a cloud implementation of these schemes. It highlights that it is the online nature of the VQ technique that enables an asynchronous cloud implementation, which drastically reducesthe communication costs introduced in Chapter 5.
4

Algorithmes de classification répartis sur le cloud

Durut, Matthieu 28 September 2012 (has links) (PDF)
Les thèmes de recherche abordés dans ce manuscrit ont trait à la parallélisation d'algorithmes de classification non-supervisée (clustering) sur des plateformes de Cloud Computing. Le chapitre 2 propose un tour d'horizon de ces technologies. Nous y présentons d'une manière générale le Cloud Computing comme plateforme de calcul. Le chapitre 3 présente l'offre cloud de Microsoft : Windows Azure. Le chapitre suivant analyse certains enjeux techniques de la conception d'applications cloud et propose certains éléments d'architecture logicielle pour de telles applications. Le chapitre 5 propose une analyse du premier algorithme de classification étudié : le Batch K-Means. En particulier, nous approfondissons comment les versions réparties de cet algorithme doivent être adaptées à une architecture cloud. Nous y montrons l'impact des coûts de communication sur l'efficacité de cet algorithme lorsque celui-ci est implémenté sur une plateforme cloud. Les chapitres 6 et 7 présentent un travail de parallélisation d'un autre algorithme de classification : l'algorithme de Vector Quantization (VQ). Dans le chapitre 6 nous explorons quels schémas de parallélisation sont susceptibles de fournir des résultats satisfaisants en terme d'accélération de la convergence. Le chapitre 7 présente une implémentation de ces schémas de parallélisation. Les détails pratiques de l'implémentation soulignent un résultat de première importance : c'est le caractère en ligne du VQ qui permet de proposer une implémentation asynchrone de l'algorithme réparti, supprimant ainsi une partie des problèmes de communication rencontrés lors de la parallélisation du Batch K-Means.
5

Optimalité statistique du partitionnement par l'optimisation convexe / Statistically Optimal Clustering through Convex Optimisation

Royer, Martin 16 November 2018 (has links)
Ces travaux traitent de la problématique du partitionnement d'un ensemble d'observations ou de variables en groupes d'éléments similaires. Elle sert de nombreuses applications essentielles comme la classification de gènes en biologie ou l'apprentissage automatique en analyse d'image. Les travaux modélisent la notion de similarité entre éléments pour analyser les propriétés statistiques d'algorithmes de partitionnement, comme l'estimateur des K-moyennes. Ce dernier est équivalent au maximum de vraisemblance quand les groupes considérés sont homoscedastiques ; dans le cas contraire, on s'aperçoit que l'estimateur est biaisé, en ce qu'il tend à séparer les groupes ayant une plus grande dispersion. En utilisant une formulation équivalente qui fait intervenir l'optimisation semi-définie positive, on propose une correction opérationnelle de ce biais. On construit et étudie ainsi des algorithmes de complexité polynomiale qui sont quasi-minimax pour le partitionnement exact dans les deux contextes étudiés. Ces résultats s'interprètent dans le cadre de modèles standards comme le modèle de mélange ou le modèle à variables latentes, et s'étendent à de nouveaux modèles plus généraux et plus robustes, les modèles $G$-block. Les contrôles peuvent être adaptés au nombre intrinsèque de groupes, ainsi qu'à la dimension effective de l'espace des données. Ils apportent une meilleure compréhension d'estimateurs classiques du partitionnement comme les estimateurs spectraux. Ils sont appuyés par des expériences extensives sur données de synthèse, ainsi que sur des jeux de données réelles. Enfin lorsqu'on cherche à améliorer l'efficacité computationnelle des algorithmes étudiés, on peut utiliser une connexion forte avec le domaine de l'optimisation convexe et notamment exploiter des techniques de relaxation de faible rang motivées par des problématiques de grande dimension. / This work focuses on the problem of point and variable clustering, that is the grouping of either similar vectors or similar components of a vector in a metric space. This has applications in many relevant fields including pattern recognition in image analysis or gene expression data classification. Through adequate modeling of the similarity between points or variables within a cluster we analyse the statistical properties of known clustering algorithms such as K-means.When considering homoscedastic elements for all groups the K-means algorithm is equivalent to a maximum-likelihood procedure. Otherwise the algorithm shows bias in the sense that it tends to separate groups with larger dispersion, regardless of actual group separation. By using a semi definite positive reformulation of the estimator, we suggest a pattern of correction for the algorithm that leads to the construction of computational algorithm with quasiminimax properties for hard clustering of points or variables.Those results can be studied under the classical mixture model or latent variables model, and can be extended to more general and robust class of $G$-block models. The stochastic controls can be made adaptive to the unknown number of classes as well as to the effective dimension of the problem. They help understand the behavior of the class of spectral estimators that are also widely used for clustering problems. They are supported by extensive simulation studies as well as data analysis stemming from the biological field.When focus is brought on the computational aspect of those algorithms, we exploit ideas based on a strong connexion with the domain of convex optimisation and specifically the technique of low-rank relaxation, of importance when dealing with high dimensional problems.
6

Détection et classification de changements sur des scènes urbaines en télédétection

Fournier, Alexandre 31 October 2008 (has links) (PDF)
Cette thèse aborde le problème de la détection de changements sur des images de scènes urbaines en télédétection. Les expériences ont été menées sur des couples d'images satellitaires panchromatiques haute résolution (< 1 m). À travers ce thème général, plusieurs problématiques, correspondant aux divers niveaux d'une chaîne de traitement, sont abordés, depuis la création d'un masque de changements jusqu'au raisonnement à un niveau objet. Dans ce manuscrit, nous abordons premièrement le problème de la détermination d'un masque de changements. Après avoir étudié les limites d'un algorithme de détection de changements, fondé sur l'analyse en composantes principales, nous proposons un algorithme tirant parti de l'invariance des lignes de niveau, fondé sur un modèle d'illumination et des hypothèses sur la régularité de la scène. Par la suite, nous abordons la classification des zones détectées comme changées au cours de l'étape précédente. D'abord, nous nous fondons uniquement sur les radiométries des couples de pixels. Enfin, nous étudions l'intérêt d'une composante géométrique dans la classification. Plus précisément, nous appliquons un algorithme d'approximation polygonale sur les zones connexes issues de la classification précédentes, puis nous classifions les formes obtenues compte tenu des orientations des côtés des polygones obtenus.
7

Évaluation du transport isentropique à travers la barrière dynamique stratosphérique subtropicale de l'hémisphère sud

Kirgis, Guillaume 09 September 2008 (has links) (PDF)
Cette thèse est consacrée à l'évaluation des échanges entre le réservoir tropical et les moyennes latitudes au travers de la barrière dynamique stratosphérique subtropicale de l'hémisphère sud. La stratégie consiste à reconstituer le transport sur des surfaces isentropes avec le modèle d'advection de contours à haute résolution MIMOSA. Ce modèle a été alimenté par les champs de vorticité potentielle calculé sur 26 années consécutives (1980-2005) à partir des champs de vents et de température du modèle européen ERA-40. L'algorithme DYBAL a calculé l'intensité des barrières dynamiques (barrière subtropicale et vortex polaire) et du mélange. Couplé à l'algorithme des k-moyennes, il a permis la détection en coordonnées géographiques de la position des barrières et donc le calcul de l'extension méridienne des réservoirs stratosphériques. Cet algorithme a également été utilisé pour reconstituer les épisodes filamentaires caractéristiques du transport isentrope. Enfin, la perméabilité de la barrière subtropicale a été évaluée par le suivi des échanges et les routes privilégiées de ces échanges ont été mises en évidence. L'implication de ces événements sur le transport de l'ozone a été estimée ainsi que l'influence de l'oscillation quasi-biennale (QBO) et du cycle solaire de 11 ans. Les résultats présentent la variabilité dynamique de la stratosphère sur l'isentrope 600 K et montrent une augmentation de la taille du réservoir tropical et des moyennes latitudes en correspondance avec le rétrécissement du vortex polaire. Une diminution de l'intensité des échanges à travers la barrière dynamique subtropicale depuis les années 1980 est également mise en évidence.
8

Quelques exemples de jeux à champ moyen / Some examples of mean field games

Coron, Jean-Luc 18 December 2017 (has links)
La théorie des jeux à champ moyen fut introduite en 2006 par Jean-Michel Lasry et Pierre-Louis Lions. Elle permet l'étude de la théorie des jeux dans certaines configurations où le nombre de joueurs est trop grand pour espérer une résolution pratique. Nous étudions la théorie des jeux à champ moyen sur les graphes en nous appuyant sur les travaux d'Olivier Guéant que nous étendrons à des formes plus générales d'Hilbertien. Nous étudierons aussi les liens qui existent entres les K-moyennes et les jeux à champ moyen ce qui permettra en principe de proposer de nouveaux algorithmes pour les K-moyennes grâce aux techniques de résolution numérique propres aux jeux à champ moyen. Enfin nous étudierons un jeu à champ moyen à savoir le problème "d'heure de début d'une réunion" en l'étendant à des situations où les agents peuvent choisir entre deux réunions. Nous étudierons de manière analytique et numérique l'existence et la multiplicité des solutions de ce problème. / The mean field game theory was introduced in 2006 by Jean-Michel Lasry and Pierre-Louis Lions. It allows us to study the game theory in some situations where the number of players is too high to be able to be solved in practice. We will study the mean field game theory on graphs by learning from the studies of Oliver Guéant which we will extend to more generalized forms of Hilbertian. We will also study the links between the K-means and the mean field game theory. In principle, this will offer us new algorithms for solving the K-means thanks to the techniques of numerical resolutions of the mean field games. Findly, we will study a mean field game called the "starting time of a meeting". We will extend it to situations where the players can choose between two meetings. We will study analytically and numerically the existence and multiplicity of the solutions to this problem.
9

Etude de l'organisation spatiale du tissu conjonctif par analyse d'images basée sur une approche multiéchelles. Application à la prédiction de la tendreté de la viande bovine

El Jabri, Mohammed 22 May 2008 (has links) (PDF)
L'objectif de ce travail est de caractériser le tissu musculaire en évaluant sa qualité à partir de données d'imagerie. Plus précisement, on se propose de développer des outils de prédiction de la tendreté de la viande bovine, basés sur le processus de vision artificielle, en étudiant le tissu conjonctif intramusculaire qui contribue de manière significative à la dureté intrinsèque de la viande. Les images des coupes de muscles, ont été acquises avec deux types d'éclairage : lumière blanche polarisée et ultraviolet. Notre contribution pour analyser ces images est basée sur une approche multiéchelle. Deux méthodes de segmentation ont été proposées, elles sont basées sur la transformée en ondelettes discrète, notamment l'algorithme "à trous". La première repose sur le seuillage universel et la seconde sur l'algorithme de K-moyennes appliqué à l'image résultante d'une sommation sur les plans d'ondelettes. Un autre volet de ce travail concerne l'extraction des paramètres et la décision. L'information retenue est la distribution des tailles d'objets éléments de la trame conjonctive de viande. Les outils statistiques que sont la régression linéaire et les réseaux de neurones ont été appliqués aux données issues des étapes de traitement des images. Le modèle final qui a été retenu pour la prévision de la tendreté a été déterminé selon un critère de maximisation du R2. Le choix du nombre de paramètres a été basé sur un critère de validation croisée (Leave one out). Les résultats de prédiction, issus de la base de données d'étude, sont très encourageants, mettant en évidence une corrélation certaine entre les paramètres d'images et la qualité sensorielle de la viande en particulier la tendreté.
10

Urban Detection From Hyperspectral Images Using Dimension-Reduction Model and Fusion of Multiple Segmentations Based on Stuctural and Textural Features

He, Jin 09 1900 (has links)
Ce mémoire de maîtrise présente une nouvelle approche non supervisée pour détecter et segmenter les régions urbaines dans les images hyperspectrales. La méthode proposée n ́ecessite trois étapes. Tout d’abord, afin de réduire le coût calculatoire de notre algorithme, une image couleur du contenu spectral est estimée. A cette fin, une étape de réduction de dimensionalité non-linéaire, basée sur deux critères complémentaires mais contradictoires de bonne visualisation; à savoir la précision et le contraste, est réalisée pour l’affichage couleur de chaque image hyperspectrale. Ensuite, pour discriminer les régions urbaines des régions non urbaines, la seconde étape consiste à extraire quelques caractéristiques discriminantes (et complémentaires) sur cette image hyperspectrale couleur. A cette fin, nous avons extrait une série de paramètres discriminants pour décrire les caractéristiques d’une zone urbaine, principalement composée d’objets manufacturés de formes simples g ́eométriques et régulières. Nous avons utilisé des caractéristiques texturales basées sur les niveaux de gris, la magnitude du gradient ou des paramètres issus de la matrice de co-occurrence combinés avec des caractéristiques structurelles basées sur l’orientation locale du gradient de l’image et la détection locale de segments de droites. Afin de réduire encore la complexité de calcul de notre approche et éviter le problème de la ”malédiction de la dimensionnalité” quand on décide de regrouper des données de dimensions élevées, nous avons décidé de classifier individuellement, dans la dernière étape, chaque caractéristique texturale ou structurelle avec une simple procédure de K-moyennes et ensuite de combiner ces segmentations grossières, obtenues à faible coût, avec un modèle efficace de fusion de cartes de segmentations. Les expérimentations données dans ce rapport montrent que cette stratégie est efficace visuellement et se compare favorablement aux autres méthodes de détection et segmentation de zones urbaines à partir d’images hyperspectrales. / This master’s thesis presents a new approach to urban area detection and segmentation in hyperspectral images. The proposed method relies on a three-step procedure. First, in order to decrease the computational complexity, an informative three-colour composite image, minimizing as much as possible the loss of information of the spectral content, is computed. To this end, a non-linear dimensionality reduction step, based on two complementary but contradictory criteria of good visualization, namely accuracy and contrast, is achieved for the colour display of each hyperspectral image. In order to discriminate between urban and non-urban areas, the second step consists of extracting some complementary and discriminant features on the resulting (three-band) colour hyperspectral image. To attain this goal, we have extracted a set of features relevant to the description of different aspects of urban areas, which are mainly composed of man-made objects with regular or simple geometrical shapes. We have used simple textural features based on grey-levels, gradient magnitude or grey-level co-occurence matrix statistical parameters combined with structural features based on gradient orientation, and straight segment detection. In order to also reduce the computational complexity and to avoid the so-called “curse of dimensionality” when clustering high-dimensional data, we decided, in the final third step, to classify each individual feature (by a simple K-means clustering procedure) and to combine these multiple low-cost and rough image segmentation results with an efficient fusion model of segmentation maps. The experiments reported in this report demonstrate that the proposed segmentation method is efficient in terms of visual evaluation and performs well compared to existing and automatic detection and segmentation methods of urban areas from hyperspectral images.

Page generated in 0.0382 seconds