• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 8
  • 2
  • Tagged with
  • 39
  • 13
  • 13
  • 12
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel / Modeling, detection and annotation of emotional states using an algebraic multidimensional vector space

Tayari Meftah, Imen 12 April 2013 (has links)
Notre travail s'inscrit dans le domaine de l'affective computing et plus précisément la modélisation, détection et annotation des émotions. L'objectif est d'étudier, d'identifier et de modéliser les émotions afin d'assurer l’échange entre applications multimodales. Notre contribution s'axe donc sur trois points. En premier lieu, nous présentons une nouvelle vision de la modélisation des états émotionnels basée sur un modèle générique pour la représentation et l'échange des émotions entre applications multimodales. Il s'agit d'un modèle de représentation hiérarchique composé de trois couches distinctes : la couche psychologique, la couche de calcul formel et la couche langage. Ce modèle permet la représentation d'une infinité d'émotions et la modélisation aussi bien des émotions de base comme la colère, la tristesse et la peur que les émotions complexes comme les émotions simulées et masquées. Le second point de notre contribution est axé sur une approche monomodale de reconnaissance des émotions fondée sur l'analyse des signaux physiologiques. L'algorithme de reconnaissance des émotions s'appuie à la fois sur l'application des techniques de traitement du signal, sur une classification par plus proche voisins et également sur notre modèle multidimensionnel de représentation des émotions. Notre troisième contribution porte sur une approche multimodale de reconnaissance des émotions. Cette approche de traitement des données conduit à une génération d'information de meilleure qualité et plus fiable que celle obtenue à partir d'une seule modalité. Les résultats expérimentaux montrent une amélioration significative des taux de reconnaissance des huit émotions par rapport aux résultats obtenus avec l'approche monomodale. Enfin nous avons intégré notre travail dans une application de détection de la dépression des personnes âgées dans un habitat intelligent. Nous avons utilisé les signaux physiologiques recueillis à partir de différents capteurs installés dans l'habitat pour estimer l'état affectif de la personne concernée. / This study focuses on affective computing in both fields of modeling and detecting emotions. Our contributions concern three points. First, we present a generic solution of emotional data exchange between heterogeneous multi-modal applications. This proposal is based on a new algebraic representation of emotions and is composed of three distinct layers : the psychological layer, the formal computational layer and the language layer. The first layer represents the psychological theory adopted in our approach which is the Plutchik's theory. The second layer is based on a formal multidimensional model. It matches the psychological approach of the previous layer. The final layer uses XML to generate the final emotional data to be transferred through the network. In this study we demonstrate the effectiveness of our model to represent an in infinity of emotions and to model not only the basic emotions (e.g., anger, sadness, fear) but also complex emotions like simulated and masked emotions. Moreover, our proposal provides powerful mathematical tools for the analysis and the processing of these emotions and it enables the exchange of the emotional states regardless of the modalities and sensors used in the detection step. The second contribution consists on a new monomodal method of recognizing emotional states from physiological signals. The proposed method uses signal processing techniques to analyze physiological signals. It consists of two main steps : the training step and the detection step. In the First step, our algorithm extracts the features of emotion from the data to generate an emotion training data base. Then in the second step, we apply the k-nearest-neighbor classifier to assign the predefined classes to instances in the test set. The final result is defined as an eight components vector representing the felt emotion in multidimensional space. The third contribution is focused on multimodal approach for the emotion recognition that integrates information coming from different cues and modalities. It is based on our proposed formal multidimensional model. Experimental results show how the proposed approach increases the recognition rates in comparison with the unimodal approach. Finally, we integrated our study on an automatic tool for prevention and early detection of depression using physiological sensors. It consists of two main steps : the capture of physiological features and analysis of emotional information. The first step permits to detect emotions felt throughout the day. The second step consists on analyzing these emotional information to prevent depression.
12

Développement d’une méthodologie de couplage multimodèle avec changements de dimension : validation sur un cas-test réaliste / Methodological development for model coupling with dimension heterogeneity : validation on a realistic test-case

Daou, Mehdi Pierre 27 September 2016 (has links)
Les progrès réalisés depuis plusieurs décennies, à la fois en termes de connaissances physiques, numériques et de puissance informatique disponible, permettent de traiter des simulations de plus en plus complexes. Les modélisations d'écoulements fluviaux et maritimes n'échappent pas à cette tendance. Ainsi, pour de très nombreuses applications de ce type, les modélisateurs doivent mettre en œuvre de véritables "systèmes de modélisation", couplant entre eux plusieurs modèles et logiciels, représentant différentes parties du système physique. La mise en place de tels systèmes permet de traiter de nombreuses études, comme par exemple les impacts de construction d'ouvrages d'art ou industriels, ou encore l'évaluation des aléas suite à un événement exceptionnel, etc.Dans le cadre de cette thèse, nous abordons cette problématique en utilisant une méthodologie de type Schwarz, empruntée à la théorie de décomposition de domaine, dont le principe est de ramener la résolution d'un problème complexe à celle de plusieurs sous-problèmes plus simples, grâce à un algorithme itératif. Ces méthodologies sont particulièrement bien adaptées au couplage de codes industriels puisqu'elles sont très peu intrusives.Cette thèse, réalisée dans le cadre d'un contrat CIFRE et grâce au financement du projet européen CRISMA, a été fortement ancrée dans un contexte industriel. Elle a été réalisée au sein d'Artelia en collaboration avec l'équipe AIRSEA du Laboratoire Jean Kuntzmann, avec pour objectif principal de transférer vers Artelia des connaissances et du savoir-faire concernant les méthodologies de couplage de modèles.Nous développons, dans le cadre de cette thèse, une méthodologie de couplage multi-modèles et de dimensions hétérogènes basée sur les méthodes de Schwarz, afin de permettre la modélisation de problématiques complexes dans des cas opérationnels (en complexifiant les problématiques étudiées au fur et à mesure de la thèse). Du point de vue industriel, les couplages mis en place sont fortement contraints par les logiciels utilisés répondant aux besoins d'Artelia (Telemac-3D, Mascaret, InterFOAM, Open-PALM).Nous étudions tout d'abord un couplage 1-D/3-D résolvant des écoulements à surface libre sous un même système de logiciel Telemac-Mascaret. L'avantage d'un tel couplage est une réduction de coût grâce à l'utilisation du modèle 1-D. Toutefois l’une des difficultés liées au changement de dimension réside dans la définition même de la notion de couplage entre des modèles de dimensions différentes. Ceci conduit à une solution couplée qui n’est pas définie d’une façon unique et qui dépend du choix des opérateurs d’interfaces.Puis nous nous intéressons au couplage monophasique/diphasique (1-D/3-D et 3-D/3-D) entre le système de logiciel Telemac-Mascaret et InterFOAM (modèle diphasique VOF), où la difficulté du choix des opérateurs d'interface lors du changement de physique (monophasique/diphasique) est aussi présente. Ce couplage a pour avantage de rendre possible la résolution d’écoulements complexes, que le système Telemac-Mascaret ne peut pas simuler (déferlement, lame d'eau, écoulement en charge, etc.) en utilisant localement InterFOAM avec son coût de calcul très important. Enfin, nous étudions l’application du couplage monophasique/diphasique sur un cas opérationnel d’étude d’ingénierie.Par ailleurs, les travaux effectués lors du projet CRISMA, pour le développement d'une application permettant de simuler les différents aspects d'une crise liée aux risques de submersions marines en Charente Maritime, coordonnés par Artelia, sont également présentés. Le projet CRISMA a pour objectif d'améliorer l'aide à la décision en se basant sur la simulation pour la gestion opérationnelle des situations de crise dans différents domaines du risque naturel et industriel (inondations, feux de forêt, pollutions accidentelles, etc.). / Progress has been performed for decades, in terms of physical knowledge, numerical techniques and computer power, that allows to address more and more complex simulations. Modelling of river and marine flows is no exception to this rule. For many applications, engineers have now to implement complex "modelling systems", coupling several models and software, representing various parts of the physical system. Such modelling systems allow addressing numerous studies, like quantifying the impacts of industrial constructions or highway structures, or evaluating the consequences of an extreme event.In the framwork of the present thesis, we address model coupling techniques using Schwarz's methodology, which is based on domain decomposition methods. The basic principle is to reduce the resolution of a complex problem into several simpler sub-problems, thanks to an iterative algorithm. These methods are particularly well suited for industrial codes, since they are very few intrusive.This thesis was realized within the framework of a CIFRE contract and thanks to the funding of the European CRISMA project and was thus greatly influenced by this industrial context. It was performed within the Artelia company, in collaboration with the AIRSEA team of the Jean Kuntzmann Laboratory, with the main objective of transferring to Artelia some knowledge and expertise regarding coupling methodologies.In this thesis, we develop a methodology for multi-model coupling with heterogeneous dimensions, based on Schwarz's methods, in order to allow modelling of complex problems in operational cases. From the industrial viewpoint, the developed coupled models must use software meeting Artelia's needs (Telemac-3D, Mascaret, InterFOAM, Open-PALM).We firstly study a testcase coupling 1-D and 3-D free surface flows, using the same software system Telemac-Mascaret. The advantage of such coupling is a reduction of the computation cost, thanks to the use of a 1-D model. However the change in the model dimension makes it difficult to define properly the notion of coupling, leading to a coupled solution which is not defined in a unique way but depends on the choice of the interface operators.Then we study a coupling case between a monophasic model and a diphasic model (1-D/3-D and 3-D/3-D), using Telemac-Mascaret and InterFOAM software systems. Once again, the main difficulty lies in the definition of interfaces operators, due to the change in the physics (monophasic / diphasic). Such a coupling makes it possible to solve complex flows that the Telemac-Mascaret system alone cannot address (breaking waves, water blade, closed-conduit flow, etc.), by locally using InterFOAM where necessary (InterFOAM is very expensive in terms of computations). Finally, we implement such a monophasic/diphasic coupling on an operational engineering study.In addition, we also present the work done during the CRISMA project. The overall objective of the CRISMA project was to develop a simulation-based decision support system for the operational crisis management in different domains of natural or industrial risks (floods, forest fires, accidental pollution, etc.). In this context, Artelia coordinated the development of an application allowing to simulate various aspects of crisis linked to flood risks in Charente-Maritime.
13

Heuristiques hybrides pour la résolution de problèmes en variables 0-1 mixtes

Wilbaut, Christophe 29 September 2006 (has links) (PDF)
Les problèmes d'optimisation en variables 0-1 mixtes permettent de modéliser de nombreux problèmes réels difficiles à résoudre. Cette thèse s'intéresse à la mise en oeuvre de méthodes de résolution hybrides pour obtenir des solutions de bonne qualité en des temps raisonnables pour ces problèmes. L'ensemble des algorithmes présentés dans cette thèse est testé sur le problème du sac-à-dos multidimensionnel. Il consiste à maximiser une fonction linéaire en respectant un ensemble de contraintes linéaires. Après une présentation de quelques concepts fondamentaux utilisés en recherche opérationnelle pour résoudre les problèmes d'optimisation, nous présentons dans le premier chapitre différents problèmes de la famille du sac-à-dos. Nous abordons dans le second chapitre un ensemble de méthodes efficaces existantes pour résoudre le problème du sac-à-dos multidimensionnel. Nous proposons dans le chapitre 3 une première méthode hybride qui combine la programmation dynamique et la recherche tabou au sein d'un processus dit d'intensification globale. Des concepts de réduction sont également intégrés dans la programmation dynamique de manière à essayer de réduire la taille du problème. La seconde approche décrite dans le chapitre 4 combine la recherche dispersée avec des éléments de la recherche tabou et des chemins reliants pour affiner la recherche. Une étude expérimentale est menée pour mesurer l'impact de différents composants de l'algorithme. Nous terminons dans le chapitre 5 par une méthode utilisant conjointement la relaxation en continu et la relaxation en nombres entiers mixtes pour résoudre efficacement les problèmes en variables 0-1. Un ensemble de résultats numériques est présenté pour chacune de ces méthodes. La dernière approche permet d'améliorer quelques meilleures valeurs connues sur des instances existantes du problème du sac-à-dos multidimensionnel.
14

Contributions à l'analyse de sensibilité et à l'analyse discriminante généralisée

Jacques, Julien 05 December 2005 (has links) (PDF)
Deux thèmes sont abordés dans cette thèse : l'analyse de sensibilité et l'analyse discriminante généralisée.<br /><br />L'analyse de sensibilité globale d'un modèle mathématique étudie comment les variables de sortie de ce dernier réagissent à des perturbations de ses entrées. Les méthodes basées sur l'étude de la variance quantifient les parts de variance de la réponse du modèle dues à chaque variable d'entrée et chaque sous-ensemble de variables d'entrée. Le premier problème abordé est l'impact d'une incertitude de modèle sur les résultats d'une analyse de sensibilité. Deux formes particulières d'incertitude sont étudiées : celle due à une mutation du modèle de référence, et celle due à l'utilisation d'un modèle simplifié à la place du modèle de référence. Un second problème relatif à l'analyse de sensibilité a été étudié au cours de cette thèse, celui des modèles à entrées corrélées. En effet, les indices de sensibilité classiques n'ayant pas de signification (d'un point de vue interprétation) en présence de corrélation des entrées, nous proposons une approche multidimensionnelle consistant à exprimer la sensibilité de la sortie du modèle à des groupes de variables corrélées. Des applications dans le domaine de l'ingénierie nucléaire illustrent ces travaux.<br /><br />L'analyse discriminante généralisée consiste à classer les individus d'un échantillon test en groupes, en utilisant l'information contenue dans un échantillon d'apprentissage, lorsque ces deux échantillons ne sont pas issus d'une même population. Ce travail étend les méthodes existantes dans un cadre gaussien au cas des données binaires. Une application en santé publique illustre l'utilité des modèles de discrimination généralisée ainsi définis.
15

Pour l'identification de modèles factoriels de séries temporelles: Application aux ARMA stationnaires

Toque, Carole 10 1900 (has links) (PDF)
Cette thèse est axée sur le problème de l'identification de modèles factoriels de séries temporelles et est à la rencontre des deux domaines de la Statistique, l'analyse des séries temporelles et l'analyse des données avec ses méthodes descriptives. La première étape de notre travail a pour but d'étendre à plusieurs séries temporelles discrètes, l'étude des composantes principales de Jenkins développée dans les années 70. Notre approche adapte l'analyse en composantes principales "classique" (ou ACP) aux séries temporelles en s'inspirant de la technique Singular Spectrum Analysis (ou SSA). Un principe est déduit et est appliqué au processus multidimensionnel générateur des séries. Une matrice de covariance à structure "remarquable" est construite autour de vecteurs al9;atoires décalés: elle exploite la chronologie, la stationnarité et la double dimension du processus. A l'aide de deux corollaires établis par Friedman B. dans les années 50 basés sur le produit tensoriel de matrices, et de propriétés de covariance des processus circulaires, nous approchons les éléments propres de la matrice de covariance. La forme générale des composantes principales de plusieurs séries temporelles est déduite. Dans le cas des processus "indépendants", une propriété des scores est établie et les composantes principales sont des moyennes mobiles des séries temporelles. A partir des résultats obtenus, une méthodologie est présentée permettant de construire des modèles factoriels de référence sur des ARMA vectoriels "indépendants". L'objectif est alors de projeter une nouvelle série dans un des modèles graphiques pour son identification et une première estimation de ses paramètres. Le travail s'effectue dans un cadre théorique, puis dans un cadre expérimental en simulant des échantillons de trajectoires AR(1) et MA(1) stationnaires, "indépendantes" et à coefficients symétriques. Plusieurs ACP, construites sur la matrice temporelle issue de la simulation, produisent de bonnes qualités de représentation des processus qui se regroupent ou s'opposent selon leur type en préservant la propriété des scores et la symétrie dans le comportement des valeurs propres. Mais, ces modèles factoriels reflètent avant tout la variabilité des bruits de la simulation. Directement basées sur les autocorrélations, de nouvelles ACP donnent de meilleurs résultats quels que soient les échantillons. Un premier modèle factoriel de référence est retenu pour des séries à forts coefficients. La description et la mesure d'éventuels changements structurels conduisent à introduire des oscillateurs, des fréquences et des mesures entropiques. C'est l'approche structurelle. Pour établir une possible non-linéarité entre les nombreux critères et pour augmenter la discrimination entre les séries, une analyse des correspondances multiples suivie d'une classification est élaborée sur les entropies et produit un deuxième modèle de référence avec trois classes de processus dont celle des processus à faibles coefficients. Ce travail permet également d'en déduire une méthode d'analyse de séries temporelles qui combine à la fois, l'approche par les autocorrélations et l'approche par les entropies, avec une visualisation par des méthodes factorielles. La méthode est appliquée à des trajectoires AR(2) et MA(2) simulées et fournit deux autres modèles factoriels de référence.
16

Couplage Planification et Ordonnancement: Approche hiérarchique et décomposition

Guyon, Olivier 19 May 2010 (has links) (PDF)
Cette thèse -spécialisée en Recherche Opérationnelle- traite de l'intégration, dans le processus décisionnel industriel, de deux facteurs-clés: la planification des ressources humaines et l'ordonnancement de la production. Un premier cas de ce genre de problématiques est tout d'abord étudié. Deux bornes inférieures obtenues par relaxation lagrangienne et deux méthodes de résolution exacte par décomposition et génération de coupes sont présentées. Si la première approche relève d'une technique connue de la littérature (décomposition de Benders), la seconde se veut plus spécifique. Une technique de génération de coupes énergétiques valides, applicable en préprocess de toute méthode de résolution, est également proposée. La seconde partie traite d'un autre cas particulier, déjà évoqué dans la littérature, de la problématique générale. Ces travaux prolongent ceux effectués lors de la première étude dans le sens où le problème traité est intrinsèquement plus complexe et le but avoué est d'expérimenter les techniques de décomposition et génération de coupes, a priori efficaces, sur une autre problématique. Une technique de génération d'inégalités valides, applicable elle aussi en préprocess de toute méthode de résolution, est tout d'abord mise en place. Deux méthodes de résolution exacte sont ensuite développées. La première est analogue à la technique spécifique de décomposition décrite auparavant. La seconde, plus novatrice, exploite la décomposition intuitive de la problématique et la génération de coupes dédiées dans un cadre où les solutions à valider sont construites via une approche arborescente de type Procédure de Séparation et Evaluation Séquentielle.
17

Différenciation et intégration des systèmes comptables : Une étude typologique

El Orf, Lazhar 25 October 2012 (has links) (PDF)
L'objectif de notre thèse est de comprendre et d'expliquer les modes d'intégration des systèmes comptables des entreprises à partir de quatre cas (deux grandes entreprises et deux entreprises moyennes). Nous nous sommes appuyés sur la théorie de la différenciation-intégration de Lawrence et Lorsch (1967) pour interpréter les situations d'intégration étudiées. Cette théorie montre que les entreprises ayant des structures très différenciées disposent des mécanismes d'intégration sophistiqués tandis que celles dont les structures sont peu différenciées ont des mécanismes de coordination rudimentaires. Nous avons également mobilisé l'approche événementielle et multidimensionnelle de Sorter (1969) qui propose un cadre théorique de l'intégration informatico-comptable. Les progiciels ERP constituent une application très concrète de cette approche. Notre analyse qualitative de quatre cas en termes de similitudes et de différences, appuyée sur la théorie de la différenciation-intégration, a permis d'expliquer les situations d'intégration des sous-systèmes comptables observées mais aussi de montrer la pertinence de l'approche événementielle, comme cadre de conception du système d'information de structures diversifiées et différenciées. Nos résultats montrent, à l'instar de Lawrence et Lorsch, qu'il existe des modes différents d'intégration des systèmes comptables adaptés à des contextes différents. Nous avons ébauché une typologie de quatre configurations types des systèmes comptables (quatre situations d'intégration-différenciation) : (1) Système classique bidimensionnel, (2) Système quasi-intégré centralisé, (3) Système intégré, (4) Système multidimensionnel. La stratégie et la taille paraissent être, au-delà de toutes autres considérations, les principaux déterminants de l'intégration comptable ; viennent ensuite, l'environnement et certains autres éléments du contexte tels que la structure de gestion et le système de contrôle. Cependant, l'impact de la taille diffère d'une entreprise à l'autre. Lorsque la taille est combinée à une stratégie de diversification (et par extension à des environnements variés et dynamiques) son effet différenciateur sur l'organisation (et le système comptable) est très important, ce qui nécessite des mécanismes compensateurs d'intégration développés. Les deux entreprises diversifiées (POULINA et MEDDEB) ont mis en place un système comptable intégré voire multidimensionnel pour maitriser leurs sous-systèmes différenciés. Lorsque la taille est la conséquence d'un simple développement d'une activité unique (monoactivité) son effet différenciateur-intégrateur sur l'organisation et le système comptable est moins important. Les deux entreprises ayant des activités et des structures homogènes (SONEDE et SME) se sont contentées d'un système comptable peu intégré voire bidimensionnel.
18

Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel

Tayari Meftah, Imen 12 April 2013 (has links) (PDF)
Notre travail s'inscrit dans le domaine de modélisation des états émotionnels. L'objectif est d'étudier et de modéliser les émotions afin d'assurer l'échanges entre applications multimodales. Il s'agit de pouvoir réutiliser et échanger des connaissances émotionnelles entre applications indépendamment de la modalité utilisée. Notre contribution s'axe donc sur deux points. En premier lieu, nous présentons une solution générique d'échange de données émotionnelle hétérogène entre des applications multimodales. Notre approche est basée sur une nouvelle représentation algébrique des émotions et elle est composée de trois couches distinctes: la couche psychologique, la couche de calcul formel et la couche langue. Dans notre travail, nous démontrons l'efficacité de notre modèle pour représenter une infinité d'émotions et de modéliser non seulement les émotions de base (par exemple, la colère, la tristesse, la peur), mais aussi les émotions complexes comme les émotions simulées et masqués. Le second point de notre contribution est axé sur la validation de notre modèle. Nous procédons pour cela à la reconnaissance des émotions a partir des signaux physiologiques. Nous avons utilisé les mêmes données collectées et utilisées dans la thèse de Healey (2000). L'algorithme de reconnaissance des émotion s'appuie sur l'application des technique de traitement de signal et sur une classification par plus proche voisins et en utilisant notre modèle multidimensionnel pour la représentation des émotions.
19

Fast hierarchical algorithms for the low-rank approximation of matrices, with applications to materials physics, geostatistics and data analysis / Algorithmes hiérarchiques rapides pour l’approximation de rang faible des matrices, applications à la physique des matériaux, la géostatistique et l’analyse de données

Blanchard, Pierre 16 February 2017 (has links)
Les techniques avancées pour l’approximation de rang faible des matrices sont des outils de réduction de dimension fondamentaux pour un grand nombre de domaines du calcul scientifique. Les approches hiérarchiques comme les matrices H2, en particulier la méthode multipôle rapide (FMM), bénéficient de la structure de rang faible par bloc de certaines matrices pour réduire le coût de calcul de problèmes d’interactions à n-corps en O(n) opérations au lieu de O(n2). Afin de mieux traiter des noyaux d’interaction complexes de plusieurs natures, des formulations FMM dites ”kernel-independent” ont récemment vu le jour, telles que les FMM basées sur l’interpolation polynomiale. Cependant elles deviennent très coûteuses pour les noyaux tensoriels à fortes dimensions, c’est pourquoi nous avons développé une nouvelle formulation FMM efficace basée sur l’interpolation polynomiale, appelée Uniform FMM. Cette méthode a été implémentée dans la bibliothèque parallèle ScalFMM et repose sur une grille d’interpolation régulière et la transformée de Fourier rapide (FFT). Ses performances et sa précision ont été comparées à celles de la FMM par interpolation de Chebyshev. Des simulations numériques sur des cas tests artificiels ont montré que la perte de précision induite par le schéma d’interpolation était largement compensées par le gain de performance apporté par la FFT. Dans un premier temps, nous avons étendu les FMM basées sur grille de Chebyshev et sur grille régulière au calcul des champs élastiques isotropes mis en jeu dans des simulations de Dynamique des Dislocations (DD). Dans un second temps, nous avons utilisé notre nouvelle FMM pour accélérer une factorisation SVD de rang r par projection aléatoire et ainsi permettre de générer efficacement des champs Gaussiens aléatoires sur de grandes grilles hétérogènes. Pour finir, nous avons développé un algorithme de réduction de dimension basé sur la projection aléatoire dense afin d’étudier de nouvelles façons de caractériser la biodiversité, à savoir d’un point de vue géométrique. / Advanced techniques for the low-rank approximation of matrices are crucial dimension reduction tools in many domains of modern scientific computing. Hierarchical approaches like H2-matrices, in particular the Fast Multipole Method (FMM), benefit from the block low-rank structure of certain matrices to reduce the cost of computing n-body problems to O(n) operations instead of O(n2). In order to better deal with kernels of various kinds, kernel independent FMM formulations have recently arisen such as polynomial interpolation based FMM. However, they are hardly tractable to high dimensional tensorial kernels, therefore we designed a new highly efficient interpolation based FMM, called the Uniform FMM, and implemented it in the parallel library ScalFMM. The method relies on an equispaced interpolation grid and the Fast Fourier Transform (FFT). Performance and accuracy were compared with the Chebyshev interpolation based FMM. Numerical experiments on artificial benchmarks showed that the loss of accuracy induced by the interpolation scheme was largely compensated by the FFT optimization. First of all, we extended both interpolation based FMM to the computation of the isotropic elastic fields involved in Dislocation Dynamics (DD) simulations. Second of all, we used our new FMM algorithm to accelerate a rank-r Randomized SVD and thus efficiently generate multivariate Gaussian random variables on large heterogeneous grids in O(n) operations. Finally, we designed a new efficient dimensionality reduction algorithm based on dense random projection in order to investigate new ways of characterizing the biodiversity, namely from a geometric point of view.
20

Apprentissage semi-supervisé par réduction de dimensionnalité non linéaire

Payette, François January 2004 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Page generated in 0.1113 seconds