• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 474
  • 188
  • 93
  • 17
  • 7
  • 5
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 816
  • 743
  • 740
  • 152
  • 89
  • 87
  • 69
  • 66
  • 56
  • 56
  • 55
  • 49
  • 48
  • 48
  • 47
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
291

Méthodologies d'aide à la décision en conception robuste

Pillet, Emmanuel 28 March 2008 (has links) (PDF)
La maîtrise du calcul prévisionnel du comportement dynamique de structures mécaniques demeure un enjeu majeur pour l'amélioration de la conception en présence de facteurs mal maîtrisés. Dans ce document, nous présentons des méthodologies de conception permettant de prendre en compte dans le processus de décision, les incertitudes sur les paramètres de conception, les incertitudes sur les mesures ou encore l'impact des modifications. Dans la première partie, nous étudions le potentiel d'une méthode de synthèse modale basée sur l'utilisation des modes propres orthogonaux. Une méthodologie de vérification et d'optimisation de super-éléments est également présentée. Enfin, nous montrons qu'un algorithme génétique peut permettre une sélection optimale des coordonnées physiques dans les méthodes de réduction. La deuxième partie concerne l'identification paramétrique des structures mécaniques à partir d'observations incertaines et la quantification de l'information susceptible d'être obtenue grâce à des mesures expérimentales. Nous utilisons dans cette étude une formulation probabiliste des problèmes inverses. Une planification d'essais en vue d'un gain d'information est réalisée avec des plans d'expérience bayésiens. Dans la dernière partie, l'approche non-probabiliste info-gap est appliquée afin d'évaluer la robustesse aux incertitudes de deux méthodes de recalage. Cette méthode permet aussi de vérifier que, dans un environnement incertain et pour un critère de performance donné, il peut être préférable de choisir un modèle " satisfaisant" plutôt qu'un modèle optimal.
292

Modèles de cartes cognitives étendues aux notions de contexte et d'échelle

Chauvin, Lionel 17 September 2010 (has links) (PDF)
Une carte cognitive est un modèle graphique qui permet de représenter des systèmes complexes contenant un grand nombre de facteurs qui interagissent. Une carte cognitive est un graphe orienté étiqueté dont les sommets représentent des concepts et dont les arcs représentent les influences entre ces concepts. Le modèle des cartes cognitives inclut un mécanisme de raisonnement nommé propagation, qui calcule l'influence entre toute paire de concepts. Notre thèse a pour objectif d'étendre le modèle des cartes cognitives et le mécanisme de raisonnement qui y est associé. Une première contribution consiste à associer à une carte une ontologie qui organise de façon hiérarchique les concepts : l'utilisation de cette ontologie comme un dictionnaire des données hiérarchiques permet à l'utilisateur de trouver les concepts qui l'intéressent dans une carte. Notre deuxième contribution consiste à fournir des mécanismes à l'utilisateur pour lui permettre de visualiser, à la demande, des vues simplifiées de la carte initiale. Notre troisième contribution fournit une notion d'échelle qui permet de sélectionner le niveau de détail de la carte que l'on veut voir. Notre quatrième contribution consiste en des mécanismes qui donnent à l'utilisateur une carte adaptée à ses savoirs : ceci s'effectue par l'utilisation de profils des utilisateurs ou de contextes exprimés par des graphes conceptuels. Les systèmes SCCO et SCCC montrent la faisabilité de l'approche.
293

Formules booléennes quantifiées : transformations formelles et calculs parallèles

Da Mota, Benoit 03 December 2010 (has links) (PDF)
De nombreux problèmes d'intelligence artificielle et de vérification formelle se ramènent à un test de validité d'une formule booléenne quantifiée (QBF). Mais, pour effectuer ce test les solveurs QBF actuels ont besoin d'une formule sous une forme syntaxique restrictive, comme la forme normale conjonctive ou la forme normale de négation. L'objectif de notre travail est donc de s'affranchir de ces contraintes syntaxiques fortes de manière à utiliser le langage des QBF dans toute son expressivité et nous traitons ce sujet de manière formelle et calculatoire. Notre première contribution est un ensemble d'équivalences et d'algorithmes qui permettent de traiter un motif particulier, les résultats intermédiaires. Ce motif apporte une alternative efficace en espace et en temps de résolution, à la suppression naïve des biimplications et des ou-exclusifs lors de la mise sous forme prénexe. Il offre également de nouvelles possibilités de transformations dans différents fragments du langage QBF. Notre deuxième contribution est d'ordre calculatoire et a pour but d'exploiter la puissance des architectures de calcul parallèles afin de traiter des QBF sans restriction syntaxique. Nous élaborons donc une architecture innovante pour la parallélisation du problème de validité des QBF. Son originalité réside dans son architecture dite de « parallélisation syntaxique » par opposition aux architectures de parallélisation basée sur la sémantique des quantificateurs.
294

Selection Adaptative d'Operateurs pour l'Optimisation

Fialho, Álvaro 22 December 2010 (has links) (PDF)
Les Algorithmes Évolutionnaires sont des algorithmes d'optimisation qui ont déjà montré leur efficacité dans plusieurs domaines; mais leur performance dépend du réglage de plusieurs paramètres. Cette thèse est consacrée au développement de techniques pour automatiser ce réglage par le biais de l'apprentissage automatique. Plus spécifiquement, nous avons travaillé sur un sous-problème: étant donné un ensemble d'opérateurs, cela consiste à choisir lequel doit être appliqué pour la génération de chaque nouvelle solution, basé sur la performance connue de chaque opérateur. Cette approche est utilisée en ligne, au cours de la résolution du problème, en utilisant exclusivement l'histoire du processus d'optimisation courant pour décider parmi les différents opérateurs; ce paradigme est couramment référencé comme Sélection Adaptative d'Opérateurs (SAO). Pour faire de la SAO, deux composants sont nécessaires. L'Affectation de Crédit définit comment récompenser les opérateurs selon l'impact de leur application sur le processus de recherche. La Sélection d'Opérateurs règle leur choix selon les récompenses reçues ultérieurement. En résumé, la contribution principale de cette thèse consiste dans la proposition et l'analyse de différentes approches pour la SAO, basées sur le paradigme de Bandit Manchot (BM); nous avons proposé plusieurs modifications pour transformer un algorithme BM en une technique à la fois performante dans l'environnement dynamique de la SAO, et robuste par rapport aux caractéristiques des problèmes diverses. La dernière méthode, appelé AUC-MAB, est capable de suivre efficacement le meilleur opérateur sans nécessiter d'un réglage spécifique pour chaque problème.
295

Méthodes heuristiques pour le problème de placement sur bande en deux dimensions

Gomez-Villouta, Giglia 21 September 2010 (has links) (PDF)
Les problèmes de placement sont généralement NP-difficiles, ou NP-complets suivant l'objectif à atteindre. Il s'agit ici de positionner un ensemble d'objets dans un ou plusieurs “container(s)”, de dimensions données ou de hauteur infinie, en respectant des contraintes liées à certaines caractéristiques (poids, quantité, rotation, équilibre, découpe guillotine...). Ces problèmes ont de nombreuses applications pratiques. Les stratégies de résolution les plus efficaces sont généralement les méthodes approchées, en particulier la recherche locale. Dans cette thèse, nous nous intéressons à un problème de placement particulier en deux dimensions (sans rotation possible des objets (rectangulaires) ni prise en compte de la contrainte guillotine) connu sous le nom de “strip packing” (SPP). L'objectif de ce problème est de minimiser la hauteur atteinte après placement (sans chevauchement) des objets. Nous avons développé deux approches “méta-heuristiques” incluant des composants novateurs reposant sur une connaissance approfondie du problème. La première est un algorithme génétique avec un nouveau croisement (très “visuel”) et une fonction d'évaluation hiérarchique. La seconde est une recherche tabou avec représentation “directe” (i.e. n'utilisant pas les habituelles permutations) dont les caractéristiques principales sont un voisinage consistant, une diversification reposant sur l'historique de la recherche et une fonction d'évaluation qui mesure la qualité de solutions éventuellement partielles. Les deux approches proposées, évaluées sur un jeux de test bien connu et très difficile, se sont révélées performantes comparées à d'autres stratégies.
296

Paradigmes de segmentation de graphe : comparaisons et applications en traitement d'images

Allène, Cédric 12 February 2009 (has links) (PDF)
Les techniques de segmentation de graphe sont souvent utilisées en traitement d'images puisque ces dernières peuvent être vues comme des graphes valués. Dans cette thèse, nous montrons des liens existant entre plusieurs paradigmes de segmentation de graphes valués. Nous présentons tout d'abord différentes définitions de ligne de partage des eaux et sélectionnons celle dont le cadre permet la comparaison avec des forêts couvrantes particulières. Nous montrons qu'une telle ligne de partage des eaux relative à des marqueurs arbitraires est équivalente à une coupe induite par une forêt couvrante de chemins de moindre altitude. Ensuite, les coupes induites par des forêts couvrantes de poids minimum sont démontrées comme étant des cas particuliers ayant l'avantage d'éviter certaines segmentations non souhaitées. Enfin, nous montrons qu'une coupe minimale coïncide avec une coupe induite par une forêt couvrante de poids maximum pour certaines fonctions de poids particulières. Dans une seconde partie, nous présentons deux applications utilisant la segmentation de graphe : la renaissance d'images et le mélange de textures pour la reconstruction 3D
297

Déploiement sur une plate-forme de visualisation d'un algorithme coopératif pour la segmentation d'images IRM autour d'un système multi-agents

Laguel, Hadjer 12 October 2010 (has links) (PDF)
L'objectif de ce travail est le déploiement d'un système de segmentation d'images de résonance magnétiques (IRM) sur la plateforme de visualisation "BrainVISA". La segmentation vise à classifier le cerveau en trois régions : la matière blanche, la matière grise et le liquide céphalo-rachidien. Il existe plusieurs algorithmes de segmentation d'images, chacun possédant ses avantages et ses limites d'utilisation. Dans ce travail, nous utilisons deux types d'algorithmes : la FCM (Fuzzy C-Mean) qui étudie l'image dans sa globalité et permet de modéliser l'incertitude et l'imprécision et, la croissance de régions qui tient compte des relations de voisinage entre pixels ; le but étant de tirer partie des avantages de chacun. Les deux méthodes de segmentation sont utilisées de manière coopérative. Les prédicats de la croissance de régions sont adaptés à nos images afin d'améliorer la qualité de l'image segmentée. Une implémentation est alors mise en oeuvre autour d'un système multi-agents (SMA), qui permet d'utiliser l'algorithme de croissance de régions de manière plus efficace. La segmentation est réalisée sur des images réelles.
298

Modèles Graphiques Probabilistes pour l'Estimation de Densité en grande dimension : applications du principe Perturb & Combine pour les mélanges d'arbres

Ammar, Sourour 10 December 2010 (has links) (PDF)
Dans les applications actuelles, le nombre de variables continue d'augmenter, ce qui rend difficile l'estimation de densité. En effet, le nombre de paramètres nécessaire pour l'estimation croit exponentiellement par rapport à la dimension du problème. Les modèles graphiques probabilistes fournissent une aide non négligeable pour lutter contre ce problème en fournissant une factorisation de la loi jointe mais souffrent d'un problème de passage à l'échelle. Le problème de grande dimension s'accentue du fait que le nombre d'observations avec lequel on effectue l'estimation de densité n'augmente pas dans les mêmes proportions, et reste même extrêmement faible dans certains domaines d'applications. La factorisation de la loi jointe s'avère non suffisante pour effectuer une estimation de densité de qualité lorsqu'il y a très peu de données. Le principe du Perturb & Combine, initialement appliqué en classification, permet de lutter contre ce genre de problèmes. Dans le cadre de cette thèse, nous proposons un algorithme générique d'estimation de densité en appliquant le principe du Perturb et Combine à une famille de modèles graphiques probabilistes "simples" , les structures arborescentes "manipulables" avec une complexité au pire quadratique. Plusieurs variantes de cet algorithme sont proposées en exploitant à deux niveaux le principe de perturbation: perturbation de la génération des modèles simples et perturbation des données d'apprentissage. Les expérimentations effectuées lors de ce travail montrent que nos premières approches sont concluantes en ce qui concerne la qualité d'approximation, pour une complexité algorithmique quadratique encore insuffisante en grande dimension. Notre seconde contribution concerne donc une nouvelle application du principe de perturbation, permettant d'arriver à une complexité algorithmique proche du quasi-linéaire pour une même qualité d'approximation.
299

Modeling and mining of Web discussions

Stavrianou, Anna 01 February 2010 (has links) (PDF)
Le développement du Web 2.0 a donné lieu à la production d'une grande quantité de discussions en ligne. La fouille et l'extraction de données de qualité de ces discussions en ligne sont importantes dans de nombreux domaines (industrie, marketing) et particulièrement pour toutes les applications de commerce électronique. Les discussions de ce type contiennent des opinions et des croyances de personnes et cela explique l'intérêt de développer des outils d'analyse efficaces pour ces discussions. L'objectif de cette thèse est de définir un modèle qui représente les discussions en ligne et facilite leur analyse. Nous proposons un modèle basé sur des graphes. Les sommets du graphe représentent les objets de type message. Chaque objet de type message contient des informations comme son contenu, son auteur, l'orientation de l'opinion qui y été exprimée et la date où il a été posté. Les liens parmi les objets message montrent une relation de type "répondre à". En d'autres termes, ils montrent quels objets répondent à quoi, conséquence directe de la structure de la discussion en ligne. Avec ce nouveau modèle, nous proposons un certain nombre de mesures qui guident la fouille au sein de la discussion et permettent d'extraire des informations pertinentes. Il existe des mesures centrées sur l'analyse de l'opinion qui traitent de l'évolution de l'opinion au sein de la discussion. Nous définissons également des mesures centrées sur le temps, qui exploitent la dimension temporelle du modèle, alors que les mesures centrées sur le sujet peuvent être utilisées pour mesurer la présence de sujets dans une discussion. La présence de l'utilisateur dans des discussions en ligne peut être exploitée soit par les techniques des réseaux sociaux, soit à travers notre nouveau modèle qui inclut la connaissance des auteurs de chaque objet message. De plus, une liste de messages clés est recommandée à l'utilisateur pour permettre une participation plus efficace au sein de la discussion.
300

Tomographie géométrique avec garanties topologiques

Memari, Pooran 26 March 2010 (has links) (PDF)
Le sujet de cette thèse porte sur la reconstruction de formes à partir de coupes planaires. Dans de nombreux domaines d'application, il est nécessaire de reconstruire des formes à partir de sections. L'importance du sujet en imagerie médicale a conduit, depuis les années 1990, à des résultats importants qui sont cependant pour la plupart limités au cas de sections parallèles. Pourtant en échographie, les données obtenues au moyen d'une sonde guidée manuellement, forment une série d'images représentant des coupes de l'organe par des plans non parallèles. Cette application directe motivait le sujet de ma thèse. Dans cette thèse nous considérons le problème de la reconstruction d'une 3-variété à bord plongée dans R^3, à partir de ses intersections avec un ensemble de plans en positions arbitraires, appelées coupes. C'est pour la première fois que ce problème est étudié en toute généralité, dans le but de fournir des garanties théoriques satisfaisantes sur le résultat de la reconstruction. Aucune garantie théorique n'a été obtenue même pour le cas de coupes parallèles avant cette thèse. Dans le premier chapitre de ce manuscrit, nous étudions la méthode de reconstruction proposée par Liu et al. en 2008. Nous prouvons que si certaines conditions d'échantillonnage sont vérifiées, cette méthode permet de reconstruire la topologie de l'objet à partir des coupes données. Nous prouvons également que l'objet reconstruit est homéomorphe (et isotope) à l'objet. Le deuxième chapitre présente une nouvelle méthode de reconstruction en utilisant le diagramme de Voronoi des sections. Cette méthode permet d'établir plus de connections entre les sections par rapport à la première méthode. Favoriser les connections entre les sections est motivé par la reconstruction d'objets fins à partir de sections peu denses. Nous présentons des conditions d'échantillonnage qui sont adaptées aux objets fins et qui permettent de prouver l'équivalence homotopique entre l'objet reconstruit et l'objet de départ. En effet, nous prouvons que si les plans de coupe sont suffisamment transversales à l'objet, notre méthode de reconstruction est topologiquement valide et peut traiter des topologies complexes des sections avec plusieurs branchements. Dans le dernier chapitre de ce manuscrit, nous présentons une autre méthode de reconstruction qui permet d'établir encore plus de connections entre les sections en comparant avec les deux premières méthodes. Notre méthode est basée sur la triangulation de Delaunay et suit une approche duale en considérant le diagramme de Voronoi des sections. L'algorithme correspondant a été implémenté en C++, en utilisant la bibliothèque CGAL. Les résultats de la reconstruction obtenus par cet algorithme sont très satisfaisants pour les topologies complexes des sections. En se basant sur les études que nous avons développées durant cette thèse, nous espérons pouvoir fournir un fondement solide pour le processus d'acquisition et de reconstruction des données échographiques afin d'avoir un logiciel fiable pour les diagnostics.

Page generated in 0.0288 seconds