• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 29
  • 8
  • 2
  • Tagged with
  • 39
  • 13
  • 13
  • 12
  • 8
  • 7
  • 7
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Automatisation du traitement pour études multidimensionnelles

Bournival, Sylvain January 2010 (has links)
Les études par éléments finis sont de plus en plus utilisées dans l'industrie pour assister la conception de produits, de structures ou de machineries. Plus la capacité de la méthode des éléments finis s'accroit, plus on en demande. À l'heure actuelle, une limitation importante de la méthode est due à son support informatique dont la capacité n?est pas infinie et au temps de résolution d'un gros système. Un des moteurs employé pour réduire la taille du système est d'utiliser des éléments à dimensions réduites, soit des poutres et des coques. Bien que plusieurs études puissent être réalisées avec ces éléments à dimensions réduites, il y a tout de même certaines études dont la géométrie du modèle ne permet pas d'utiliser uniquement ce type d'élément. On peut alors avoir recours aux études multidimensionnelles qui combinent des éléments de dimensions différentes. Ces études se butent cependant à deux problèmes majeurs limitant leur précision et leur automatisation. Le premier étant l'assemblage des différents maillages et le second la compatibilité des degrés de liberté. Cette recherche propose des méthodes pour résoudre les problèmes et démontre comment les automatiser. Deux approches principales sont évaluées et celle retenue est automatisée. Cette méthode est alors modifiée pour s'ajuster à tous les types de connexions entre entités de différentes dimensions. Le produit est alors un maillage exportable, qui, lorsqu'importé dans un solveur externe, conduit à un système d'éléments finis pouvant être calculé par un solveur standard. Ces méthodes sont non seulement automatiques, mais retournent également des résultats intéressants comparés aux autres méthodes.
2

Étude du vieillissement et des systèmes biologiques: une approche multidimensionnelle

Morissette-Thomas, Vincent January 2015 (has links)
On propose ici des méthodes statistiques qui tiennent compte de la structure complexe des bases de données et des interactions entre les variables. Parmi ces méthodes, certaines permettront de vérifier la stabilité et la robustesse des résultats obtenus. Nous utilisons l'analyse en composantes principales afin de détecter la présence de systèmes complexes. Nous utilisons la distance de Mahalanobis afin de décrire la dérèglement de ces systèmes et nous utilisons une méthode de bootstrap afin de vérifier la stabilité des résultats. Deux articles sont mis de l'avant afin de présenter l'application de ces outils dans le cadre du vieillissement et des systèmes biologiques sous-jacents.
3

Représentations visuelles adaptatives de connaissances associant projection multidimensionnelle (MDS) et analyse de concepts formels (FCA)

Villerd, Jean 19 November 2008 (has links) (PDF)
Les outils de recherche d'information sont confrontés à un accroissement constant à la fois du volume et du nombre de dimensions des données accessibles. La traditionnelle liste de résultats ne suffit plus. Un réel besoin en nouvelles techniques de représentation visuelle émerge. Ces nouvelles techniques doivent permettre d'appréhender de manière globale des données nombreuses et multidimensionnelles, en révélant les tendances et la structure générales. On souhaite également pouvoir observer de façon détaillée un ensemble plus restreint de données selon un certain point de vue correspondant à des dimensions particulières. Notre objectif principal est d'assister l'utilisateur dans sa tâche d'exploration de l'information par une articulation judicieuse entre vue globale et vues locales maintenant sa carte mentale. Pour atteindre cet objectif, nous allions des techniques d'analyse de données capables d'identifier des sous-ensembles pertinents, à des techniques de visualisation d'information permettant de naviguer dynamiquement et intuitivement parmi ces sous-ensembles. Une attention particulière est portée aux problèmes liés aux données manquantes, d'une part, et aux données indexées sur des dimensions mixtes (binaires, nominales, continues), d'autre part. De plus, conformément aux attentes de la communauté visualisation, nous définissons un cadre formel pour la spécification de visualisations à partir des données à représenter. Concrètement, nous proposons une méthode de navigation originale associant des techniques de FCA (Formal Concept Analysis) et de visualisation multidimensionnelle MDS (MultiDimensional Scaling). Cette méthode s'appuie sur le paradigme de visualisation "overview + detail" constitué d'une vue globale révélant la structure des données et d'une vue locale affichant les détails d'un élément de la vue globale. Nous tirons parti des propriétés de regroupement du treillis de Galois en l'utilisant comme vue globale pour représenter la structure des données et suggérer des parcours cohérents. La vue locale représente les objets en extension d'un concept sélectionné, projetés par MDS. Nous illustrons la pertinence de cette méthode sur des données concrètes, issues de nos partenariats industriels, et montrons en quoi les techniques de visualisation liées à FCA et la visualisation spatialisée de données par projection MDS, parfois jugées incompatibles, se révèlent complémentaires.
4

Stratégies de segmentation d'images multicomposantes par analyse d'histogrammes multidimensionnels : Application à des images couleur de coupes histologiques de pommes

Ouattara, Sié 11 December 2009 (has links) (PDF)
Des progrès techniques récents ont permis la mise en oeuvre de capteurs capables de caractériser une scène par un ensemble d'images appelé image multicomposantes (couleur, multispectrale et multisource ou multiprotocole). Les algorithmes de traitement développés en segmentation pour les images monocomposantes ne sont pas directement applicables aux images multicomposantes en raison de leur caractère vectoriel. Dans la littérature, la plupart des travaux s'appuient sur la segmentation d'images multicomposantes par analyse d'histogrammes marginaux en faisant fi de la corrélation existante entre les composantes de l'image ou sur des images requantifiées à cause de la difficulté de manipuler les histogrammes multidimensionnels (nD, n étant le nombre de composantes de l'image) dont le volume de données est considérable. Dans un premier temps, nous avons développé une méthode de segmentation d'images multicomposantes (n ≥ 3) à caractère vectoriel, non supervisée et non paramétrique appelée ImSegHier_nD. Elle repose sur une analyse hiérarchique d'histogrammes nD compacts, une structure de données algorithmique permettant de réduire sans perte de données l'espace mémoire occupé par les histogrammes nD classiques. Les modes sont obtenus grâce à la mise en oeuvre d'un algorithme d'étiquetage en composantes connexes (ECC) adapté à ce type d'histogrammes. L'évaluation de la qualité de segmentation d'ImSegHier_nD relativement à K-means a montré qu'en évaluation supervisée notre approche est meilleure que K-means et inversement en évaluation non supervisée. Les cas de moindres performances de ImSegHier_nD au regard des critères étudiés (Levine-Nazif, Zeboudj, Borsotti et Rosenberger) s'expliquent par l'aspect diffus des histogrammes nD et ont été étudiés pour différentes typologies d'histogrammes. Dans un deuxième temps, pour apporter une réponse plus générale à la problématique de la sur-segmentation engendrée par le caractère diffus des histogrammes nD quand n augmente, nous avons proposé un algorithme d'étiquetage en composantes connexes floues (ECCF) dont nous comparons les résultats sur la classification avec une requantification de l'histogramme. Nous aboutissons ainsi à quatre stratégies de segmentation dérivées d'ImSegHier_nD dont nous comparons les résultats sur des images naturelles et des images de synthèse. Enfin, nous avons appliqué ce travail à l'analyse de coupes histologiques de pommes en microscopie optique. Nos résultats ont mis en évidence la différence entre trois variétés de pommes en lien avec des analyses de texture et de fermeté.
5

Modélisation, détection et annotation des états émotionnels à l'aide d'un espace vectoriel multidimensionnel

Tayari Meftah, Imen 12 April 2013 (has links) (PDF)
Notre travail s'inscrit dans le domaine de l'affective computing et plus précisément la modélisation, détection et annotation des émotions. L'objectif est d'étudier, d'identifier et de modéliser les émotions afin d'assurer l'échange entre applications multimodales. Notre contribution s'axe donc sur trois points. En premier lieu, nous présentons une nouvelle vision de la modélisation des états émotionnels basée sur un modèle générique pour la représentation et l'échange des émotions entre applications multimodales. Il s'agit d'un modèle de représentation hiérarchique composé de trois couches distinctes : la couche psychologique, la couche de calcul formel et la couche langage. Ce modèle permet la représentation d'une infinité d'émotions et la modélisation aussi bien des émotions de base comme la colère, la tristesse et la peur que les émotions complexes comme les émotions simulées et masquées. Le second point de notre contribution est axé sur une approche monomodale de reconnaissance des émotions fondée sur l'analyse des signaux physiologiques. L'algorithme de reconnaissance des émotions s'appuie à la fois sur l'application des techniques de traitement du signal, sur une classification par plus proche voisins et également sur notre modèle multidimensionnel de représentation des émotions. Notre troisième contribution porte sur une approche multimodale de reconnaissance des émotions. Cette approche de traitement des données conduit à une génération d'information de meilleure qualité et plus fiable que celle obtenue à partir d'une seule modalité. Les résultats expérimentaux montrent une amélioration significative des taux de reconnaissance des huit émotions par rapport aux résultats obtenus avec l'approche monomodale. Enfin nous avons intégré notre travail dans une application de détection de la dépression des personnes âgées dans un habitat intelligent. Nous avons utilisé les signaux physiologiques recueillis à partir de différents capteurs installés dans l'habitat pour estimer l'état affectif de la personne concernée.
6

Contribution à la programmation en nombre entier

Boyer, Vincent 14 December 2007 (has links) (PDF)
Le problème du sac à dos à plusieurs contraintes est un problème classique de l'optimisation appartenant à la classe des problèmes NP-difficiles. On le retrouve notamment sous la forme de sous-problème de nombreux problèmes d'optimisation combinatoire. Les méthodes classiques de résolution exacte telles que la programmation dynamique ou le branch-and-bound ont été traitées abondamment dans la littérature. Elles présentent n'eanmoins des faiblesses si elles sont utilisées telles quelles, d'où l'idée de faire coopérer ces méthodes en tirant profit de leurs spécificités afin de proposer soit des méthodes heuristiques performantes, soit des méthodes exactes plus efficaces. Les approches heuristiques que nous proposons sont comparées à d'autres heuristiques de la littérature. Notre méthode coopérative est, quant à elle, comparée à un algorithme de branchand- bound. L'ensemble de ces tests numériques ont été menés pour diverses instances plus ou moins difficiles de la littérature ainsi que sur des instances engendrées aléatoirement. Enfin, nous proposons deux techniques pour engendrer des problèmes difficiles. Ces dernières sont basées sur des problèmes en contraintes égalités et sur l'analyse de la transformée en Z du sac à dos.
7

L'étude des matériaux polymériques par spectroscopie vibrationnelle à haute résolution spatiale

Hyett, Craig January 2001 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
8

Etude de Resolution Search pour la programmation linéaire en variables binaires

Boussier, Sylvain 27 November 2008 (has links) (PDF)
Dans cette thèse, nous nous intéressons à la résolution exacte de programmes linéaires en variables binaires. L'ensemble de nos travaux s'articule autour de l'étude de Resolution search (Chvátal (1997)) pour la résolution du problème du sac à dos multidimensionnel en 0-1. Dans un premier temps, nous proposons un algorithme d'énumération implicite centré sur une analyse des coûts réduits à l'optimum de la relaxation continue ainsi que sur une décomposition de l'espace de recherche en hyperplans. Nous proposons une stratégie de branchement originale visant à élaguer au plus tôt l'arbre de recherche. Cette stratégie est efficace pour résoudre des instances jugées difficiles mais rend l'algorithme dépendant de la connaissance d'une bonne solution de départ. Dans un deuxième temps, nous proposons une méthode de résolution plus autonome combinant Resolution search avec une énumération implicite inspirée du premier algorithme. Cette coopération permet d'obtenir rapidement de bonnes solutions et prouve les optimums d'instances de plus grande taille. Finalement, nous présentons une application de Resolution Search à la résolution d'un problème de planification dans le domaine des télécommunications.
9

L'analyse multidimensionnelle des données de dissimilarité

Drouet D'Aubigny, Gérard 27 January 1989 (has links) (PDF)
Trois objectifs sont poursuivis. Nous définissons d'abord un cadre algébrique suffisamment général pour unifier les deux classes de méthodes d'analyse des données de dissimilarite connues. Le langage de la géométrie affine nous permet de montrer les correspondances entre les présentations française et anglo-américaine des méthodes tautologiques et d'enrichir la méthodologie par l'apport de méthodes issues de la tradition factorialiste et la proposition d'outils d'aide à l'interprétation des résultats. Les relations de dualité mises en évidence permettent de rendre compte des liens et différences entre ces méthodes et les techniques d'ajustement de modelés de description euclidienne des données de dissimilarite, dites de codage multidimensionnel. De plus une interprétation en terme de régression ridge du problème ainsi qu'une analogie aux méthodes d'étude des réseaux électriques sont exploites. En deuxième lieu, nous étudions en détail l'introduction de contraintes. Tout d'abord les contraintes de configuration est replace dans le cadre du formalisme statistique d'analyse multivariée des courbes de croissance, et les méthodes sont affinées en conséquence. Le recourt au formalisme tensoriel permet de plus des solutions plus simples, des interprétations plus classiques des méthodes et la proposition d'évaluation de la qualité des solutions. Enfin nous proposons une méthodologie d'analyse des données de dissimilarite structurées, issue de plans d'expérience
10

Entrepôts de données pour l'aide à la décision médicale: conception et expérimentation

María Trinidad, Serna Encinas 27 June 2005 (has links) (PDF)
Les entrepôts de données intègrent les informations en provenance de différentes sources, souvent réparties et hétérogènes et qui ont pour objectif de fournir une vue globale de l'information aux analystes et aux décideurs. L'ensemble des données avec leurs historiques sert pour l'aide à la décision. La conception et la mise en œuvre d'un entrepôt se fait en trois étapes : extraction-intégration, organisation et interrogation. Dans cette thèse, nous nous intéressons aux deux dernières. Pour nous, l'organisation est une tâche complexe et délicate, pour cela, nous la divisons en deux parties : structuration et gestion des données. Ainsi, pour la structuration, nous proposons la définition d'un modèle multidimensionnel qui se compose de trois classes : Cube, Dimension et Hiérarchie. Nous proposons également un algorithme pour la sélection de l'ensemble optimal des vues à matérialiser. La gestion de données doit prendre en compte l'évolution des entrepôts. Le concept d'évolution de schéma a été introduit pour récupérer les données existantes par le biais de leur adaptation au nouveau schéma. Néanmoins, dans les systèmes qui doivent gérer des données historiques, l'évolution de schéma n'est pas suffisante et la maintenance de plusieurs schémas est requise. Pour cela, nous proposons l'utilisation des versions de schémas bitemporels pour la gestion, le stockage et la visualisation des données courantes et historisées (intensionnelles et extensionnelles). Finalement, pour l'interrogation, nous avons développé une interface graphique qui permet la génération (semi-automatique) des indicateurs. Ces indicateurs (par exemple, 'le nombre de séjours par établissement et par maladie') sont déterminés par le cadre applicatif. Nous avons eu l'opportunité de travailler dans le cadre d'un projet médical, ce qui nous a permis de vérifier et de valider notre proposition sur des données réelles.

Page generated in 0.0916 seconds