• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 309
  • 139
  • 27
  • 1
  • Tagged with
  • 468
  • 214
  • 134
  • 133
  • 60
  • 51
  • 48
  • 46
  • 44
  • 43
  • 42
  • 42
  • 41
  • 40
  • 39
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
91

Modèle pour la conception immersive et intuitive : application à l’industrie automobile / Model for immersive and intuitive design : application to the automotive industry

Martin, Pierre 07 July 2014 (has links)
Cette thèse traite de l’utilisation des technologies de Réalité Virtuelle (RV) dans les activités de Conception Assistée par Ordinateur (CAO). Plus précisément, les travaux de recherche portent sur une approche pour la modification directe et interactive d’objets CAO, notamment adaptée aux processus de conception en industrie. Généralement, les logiciels de CAO requièrent des compétences (expérience et connaissance), à la fois sur les fonctionnalités même du logiciel et les représentations utilisées, ainsi que sur les objets CAO concernés (principalement sur leur historique de construction, savoir de quelle façon ils ont été construits). D’un autre coté, la RV apporte de nouveaux paradigmes d’interaction 3d, tels que l’immersion et la perception multi-sensorimotrice (stéréoscopie, audio 3d, haptique, etc.), et il apparaît nécessaire de disposer de middleware intelligents pour gérer les objets CAO dans ces Environnements Virtuels (EV) immersifs. De précédents travaux ont proposé un mécanisme d’édition implicite d’objets CAO permettant la modification du Graphe d’Historique de Construction (GHC) de ces objets à partir de la manipulation de la représentation visuelle 3d de ces objets. Basé sur un processus d’étiquetage des éléments de frontière (B-Rep), et couplé avec un moteur d’inférence, ce mécanisme décrit un chaînage arrière entre ces éléments de frontières et les opérateurs d’un GHC. Cependant, cette approche avait pour limite majeure de proposer un modèle particulier de GHC, ce qui l’empêchait d’être intégrée à des systèmes CAO fermés ou commerciaux tels que ceux utilisés dans l’industrie et en particulier l’industrie automobile. Notre première contribution consiste donc en la proposition d’un modèle et d’une architecture permettant de généraliser ce mécanisme de chaînage arrière à n’importe quel système CAO basé sur les représentations de type B-Rep et GHC. Pour ce faire, nous avons spécifié plusieurs structures d’encapsulation pour la gestion des opérateurs du GHC ainsi que de leurs paramètres, et des composants de B-Rep. Deuxièmement, le précédent étiquetage, désormais attaché à ces structures d’encapsulation et non plus aux éléments de B-Rep directement, a été étendu pour permettre un chaînage arrière multiple. Certains éléments de frontières peuvent en effet être le résultat de plusieurs opérateurs du GHC, être liés à plusieurs éléments "parents", et ainsi plusieurs décisions peuvent être inférées à partir de leur manipulation. Ces avancées rendent possible la modification directe et intuitive d’objets CAO déjà existants (i.e. via le parcours et l’analyse de base de données CAO précédemment créées), en analysant leur GHC et en remplissant nos structures avec les données nécessaires. De plus, le mécanisme de chaînage arrière multiple renforce la capacité du moteur d’inférence, à libérer les utilisateurs, et spécialement les non-experts, de connaissances trop complexes à propos des modèles CAO. Comme preuve de concept de notre modèle, nous présentons un exemple détaillé de notre approche sur le noyau géométrique de CATIA et montrons comment notre modèle permet d’envisager un nouveau concept d’interaction en revue de projet immersive : permettre aux participants de modifier directement les modèles CAO sans quelque interaction sur station de travail. / This thesis addresses the use of Virtual Reality (VR) technologies in the activities of Computer-Aided Design (CAD). More precisely, this research focuses on an approach for direct and interactive modifications of CAD objects, an approach which might be adapted to the conception process in industry. Usually, CAD software requires some skills (experience and knowledge), on the software’s functionalities and representations, as well as on CAD objects (principally on their design history, on the way they were built). Moreover, VR technologies bring new interactive paradigms of 3D interaction, such as immersion and multi-sensorimotor perception stereoscopy, 3D audio, haptics, and so on), and one needs intelligent middleware to manage CAD objects in these immersive Virtual Environments (VE). Some previous work proposed a mechanism allowing implicit edition of CAD objects, from the manipulation of their 3D visual representations. Based on a technique of Boundary Representations (B-Rep) elements labelling, and coupled with an inference engine, this mechanism describes a backward chaining of B-Rep elements towards the operators of a dedicated model of Constructive History Graphs (CHG). However, this approach had a major limitation: since it was based on a specific model of CHG, its integration within commercial CAD softwares used in industry (and especially in automotive industry) was far from obvious. Our first contribution is then to propose a data model and an architecture to generalize this backward chaining mechanism to any of CAD system based on B-Rep and CHG representations. In order to do that, we have designed several encapsulations structures, to manage CHG operators and their parameters, and the B-Rep components. Secondly, the previous labelling, now attached to these structures, has been extended to enable a multi backward chaining. Actually, some B-Rep elements may be the result of several CHG operators, and thus, several decisions may be inferred from their manipulation. These improvements make possible to have direct and interactive modifications of existing CAD objects by parsing their CHG to fill our structures with useful data. Moreover, the multi backward chaining mechanism reinforces the ability of the inference engine to free users, especially non-expert ones, from too complex understandings on CAD models. As a proof of concept of our model, we present an detailed example of our approach on the geometric kernel of CATIA and we show how one can consider new concepts of interaction during immersive project reviews: to allow participants to directly modify CAD objects without any interaction on desktop workstation.
92

Subgraph Isomorphism Search In Massive Graph Data / Isomorphisme de Sous-Graphes dans les graphes de données massifs

Nabti, Chems Eddine 15 December 2017 (has links)
L'interrogation de graphes de données est un problème fondamental qui connait un grand intérêt, en particulier pour les données structurées massives où les graphes constituent une alternative prometteuse aux bases de données relationnelles pour la modélisation des grandes masses de données. Cependant, l'interrogation des graphes de données est différente et plus complexe que l'interrogation des données relationnelles à base de tables. La tâche principale impliquée dans l'interrogation de graphes de données est la recherche d'isomorphisme de sous-graphes qui est un problème NP-complet.La recherche d'isomorphisme de sous-graphes est un problème très important impliqué dans divers domaines comme la reconnaissance de formes, l'analyse des réseaux sociaux, la biologie, etc. Il consiste à énumérer les sous-graphes d'un graphe de données qui correspondent à un graphe requête. Les solutions les plus connues de ce problème sont basées sur le retour arrière (backtracking). Elles explorent un grand espace de recherche, ce qui entraîne un coût de traitement élevé, notamment dans le cas de données massives.Pour réduire le temps et la complexité en espace mémoire dans la recherche d'isomorphisme de sous-graphes, nous proposons d'utiliser des graphes compressés. Dans notre approche, la recherche d'isomorphisme de sous-graphes est réalisée sur une représentation compressée des graphes sans les décompresser. La compression des graphes s'effectue en regroupant les sommets en super-sommets. Ce concept est connu dans la théorie des graphes par la décomposition modulaire. Il sert à générer une représentation en arbre d'un graphe qui met en évidence des groupes de sommets qui ont les mêmes voisins. Avec cette compression, nous obtenons une réduction substantielle de l'espace de recherche et par conséquent, une économie significative dans le temps de traitement.Nous proposons également une nouvelle représentation des sommets du graphe, qui simplifie le filtrage de l'espace de recherche. Ce nouveau mécanisme appelé compact neighborhood Index (CNI) encode l'information de voisinage autour d'un sommet en un seul entier. Cet encodage du voisinage réduit la complexité du temps de filtrage de cubique à quadratique. Ce qui est considérable pour les données massifs.Nous proposons également un algorithme de filtrage itératif qui repose sur les caractéristiques des CNIs pour assurer un élagage global de l'espace de recherche.Nous avons évalué nos approches sur plusieurs datasets et nous les avons comparées avec les algorithmes de l’état de l’art / Querying graph data is a fundamental problem that witnesses an increasing interest especially for massive structured data where graphs come as a promising alternative to relational databases for big data modeling. However, querying graph data is different and more complex than querying relational table-based data. The main task involved in querying graph data is subgraph isomorphism search which is an NP-complete problem. Subgraph isomorphism search, is an important problem which is involved in various domains such as pattern recognition, social network analysis, biology, etc. It consists to enumerate the subgraphs of a data graph that match a query graph. The most known solutions of this problem are backtracking-based. They explore a large search space which results in a high computational cost when we deal with massive graph data. To reduce time and memory space complexity of subgraph isomorphism search. We propose to use compressed graphs. In our approach, subgraph isomorphism search is achieved on compressed representations of graphs without decompressing them. Graph compression is performed by grouping vertices into super vertices. This concept is known, in graph theory, as modular decomposition. It is used to generate a tree representation of a graph that highlights groups of vertices that have the same neighbors. With this compression we obtain a substantial reduction of the search space and consequently a significant saving in the processing time. We also propose a novel encoding of vertices that simplifies the filtering of the search space. This new mechanism is called compact neighborhood Index (CNI). A CNI distills all the information around a vertex in a single integer. This simple neighborhood encoding reduces the time complexity of vertex filtering from cubic to quadratic which is considerable for big graphs. We propose also an iterative local global filtering algorithm that relies on the characteristics of CNIs to ensure a global pruning of the search space.We evaluated our approaches on several real-word datasets and compared them with the state of the art algorithms
93

Abstraction and modular verification of inter-enterprise business processes / Abstraction et vérification modulaire des processus métier inter-entreprise

Ochi, Hanen 11 December 2015 (has links)
De nos jours, les entreprises sont de plus en plus étendues et faisant collaborer plusieurs organisations pour la réalisation composée d'un objectif global. Des phénomènes tels que le commerce électronique et l'Internet stimulent en effet la coopération entre les organisations, donnant lieu a des processus métier inter-entreprises. Dans cette thèse de doctorat, nous proposons une approche ascendante pour vérifier l’interaction correcte entre des processus répartis sur un certain nombre d'organisations. Le modèle du système global étant indisponible, une approche d'analyse descendante est tout simplement impossible. Nous considérons deux critères de correction des processus métier inter-entreprises composés de deux (ou plusieurs) processus métier qui communiquent de manière synchrone et/ou asynchrone et/ou partageant des ressources. Le premier critère est générique et est exprimé par la propriété de soundness (robustesse), et certaines de ses variantes. Le deuxième critère est spécifique et peut être exprimé avec n'importe quelle formule de la logique temporelle linéaire. Chaque composante du processus global rend publique un modèle abstrait, représenté par un graphe appelé Graphe d'Observation Symbolique (GOS), permettant à la fois de préserver la confidentialité du processus local, la vérification de sa correction et de celle du processus global par composition de GOSs. Nous avons revisité et adapté le GOS afin de réduire la vérification du modèle composite à la vérification de la composition des abstractions des ses composants (leurs GOSs). Nous avons implémenté notre approche de vérification, basée sur le GOS, aussi bien pour les propriétés génériques que pour les propriétés spécifiques (LTL), et nous avons comparé les résultats obtenus avec ceux d'outils connus dans le domaine. Les résultats obtenus sont encourageants au vu du temps d’exécution et de l'espace mémoire consommés par notre technique. Ceci renforce notre conviction que le GOS est une structure appropriée pour l'abstraction et la vérification de processus métiers, en particulier lorsque ceux-ci sont faiblement couplés. / Today's corporations often must operate across organizational boundaries. Phenomena such as electronic commerce, extended enterprises, and the Internet stimulate cooperation between organizations. We propose a bottom-up approach to check the correct interaction between business processes distributed over a number of organizations. The whole system's model being unavailable, an up-down analysis approach is simply not feasible. We consider two correctness criteria of Inter-Enterprise Business Processes (IEBP) composed by two (or more) business processes communicating either synchronously or asynchronously and sharing resources : a generic one expressed with the well known soundness property (and some of its variants), and a specic one expressed with any linear time temporal logic formula. Each part of the whole organization exposes its abstract model, represented by a Symbolic Observation Graph (SOG), in order to allow the collaboration with possible partners. We revisited and adapted the SOG in order to reduce the verification of the entire composite model to the verification of the composition of the SOG-based abstractions. We implemented our verification algorithms, aiming at checking both specic and generic properties using SOGs, and compared our approach to some well known verification tools. The experimental results are encouraging in terms of both the construction time and the size of the abstraction's size. This strengthen our belief that the SOGs are suitable to abstract and to compose business processes especially when these are loosely coupled.
94

Task driven representation learning / Apprentissage de représentation dirigée par la tâche

Wauquier, Pauline 29 May 2017 (has links)
De nombreux algorithmes d'Apprentissage automatique ont été proposés afin de résoudre les différentes tâches pouvant être extraites des problèmes de prédiction issus d'un contexte réel. Pour résoudre les différentes tâches pouvant être extraites, la plupart des algorithmes d'Apprentissage automatique se basent d'une manière ou d'une autre sur des relations liant les instances. Les relations entre paires d'instances peuvent être définies en calculant une distance entre les représentations vectorielles des instances. En se basant sur la représentation vectorielle des données, aucune des distances parmi celles communément utilisées n'est assurée d'être représentative de la tâche à résoudre. Dans ce document, nous étudions l'intérêt d'adapter la représentation vectorielle des données à la distance utilisée pour une meilleure résolution de la tâche. Nous nous concentrons plus précisément sur l'algorithme existant résolvant une tâche de classification en se basant sur un graphe. Nous décrivons d'abord un algorithme apprenant une projection des données dans un espace de représentation permettant une résolution, basée sur un graphe, optimale de la classification. En projetant les données dans un espace de représentation dans lequel une distance préalablement définie est représentative de la tâche, nous pouvons surpasser la représentation vectorielle des données lors de la résolution de la tâche. Une analyse théorique de l'algorithme décrit est développée afin de définir les conditions assurant une classification optimale. Un ensemble d'expériences nous permet finalement d'évaluer l'intérêt de l'approche introduite et de nuancer l'analyse théorique. / Machine learning proposes numerous algorithms to solve the different tasks that can be extracted from real world prediction problems. To solve the different concerned tasks, most Machine learning algorithms somehow rely on relationships between instances. Pairwise instances relationships can be obtained by computing a distance between the vectorial representations of the instances. Considering the available vectorial representation of the data, none of the commonly used distances is ensured to be representative of the task that aims at being solved. In this work, we investigate the gain of tuning the vectorial representation of the data to the distance to more optimally solve the task. We more particularly focus on an existing graph-based algorithm for classification task. An algorithm to learn a mapping of the data in a representation space which allows an optimal graph-based classification is first introduced. By projecting the data in a representation space in which the predefined distance is representative of the task, we aim at outperforming the initial vectorial representation of the data when solving the task. A theoretical analysis of the introduced algorithm is performed to define the conditions ensuring an optimal classification. A set of empirical experiments allows us to evaluate the gain of the introduced approach and to temper the theoretical analysis.
95

Etude de la connectivité fonctionnelle dans les pathologies de mouvement de Parkinson et de Huntington en utilisant l’approche par graine et la théorie des graphes / Functional connectivity study in Parkinson's and Huntington diseases using the seed based analysis and graph theory

Gargouri, Fatma 14 December 2017 (has links)
L’imagerie par résonance magnétique fonctionnelle permet d’explorer l’activité neuronale en utilisant un contraste endogène appelé BOLD. Il a été montré que les fluctuations du signal BOLD au repos corrélaient dans des régions cérébrales distantes. C’est la connectivité fonctionnelle. Elle représente l’activité spontanée du cerveau et elle est mesurée par l’IRMf au repos. Notre projet de recherche a donc combiné un aspect méthodologique et deux applications dans le domaine des pathologies du mouvement. Nous avons étudié les stratégies de prétraitement des données. L'objectif était d'étudier l'influence du type de prétraitement ainsi que leur ordre d'application sur l'optimisation de la topologie des réseaux cérébraux. Nous avons comparé 12 stratégies différentes de prétraitement. Dans ces stratégies nous avons appliqué les techniques standards avec un ordre d'application différent. Les deux études suivantes ont utilisé l'IRMf au repos pour étudier la physiopathologie de deux pathologies du mouvement : la maladie de Huntington et la maladie de Parkinson. Dans ces pathologies, nous nous sommes centrés sur l'étude des réseaux cérébraux grâce à l'étude de la connectivité fonctionnelle. Nous avons déterminé si l'IRMf au repos et les mesures de la théorie des graphes permettaient d'identifier des biomarqueurs robustes de l'évolution de la maladie de Huntington dans une étude longitudinale. Ensuite, nous avons étudié le rôle des noyaux cholinergiques du cerveau basal antérieur et de leurs connexions dans la survenue des troubles cognitifs présentés par les patients atteints de maladie de Parkinson. L'approche par graine est une méthode adaptée à ce type de question. / Functional magnetic resonance imaging (fMRI) is a technique that allows exploring neuronal activity using an endogenous contrast based on the oxygenation level of hemoglobin. This contrast is called BOLD (Blood oxygenated Level Dependent). It has been shown that fluctuations in the BOLD signal at rest, correlated in distant brain regions, defining long-distance brain functional networks. This is called functional connectivity. The latter represents the spontaneous activity of the brain and it is measured by fMRI at rest. Our research project has therefore combined a methodological aspect and two applications in the field of movement pathologies. In the first part of our project we studied data preprocessing strategies. The objective was to study the influence of the preprocessing steps and their order of application on the brain networks’ topology. We compared 12 different pretreatment strategies. In these strategies we applied the standard and most used techniques but with a different order of application. The following two studies used resting-state fMRI to study: Huntington's disease and Parkinson's disease. In these pathologies, we focused on the study of the brain networks addressed through the study of functional connectivity. We determined whether resting-state fMRI and graph theory measures were able to identify robust biomarkers of Huntington's disease progression in a longitudinal study. In the second study, we investigated the role of cholinergic basal nuclei of the forebrain and their connections in the onset of cognitive problems presented in Parkinson's disease. The seed-based analysis is a suitable method for this type of question.
96

Planification SAT et Planification Temporellement Expressive. Les Systèmes TSP et TLP-GP.

Maris, Frederic 18 September 2009 (has links) (PDF)
Cette thèse s'inscrit dans le cadre de la planification de tâches en intelligence artificielle. Après avoir introduit le domaine et les principaux algorithmes de planification dans le cadre classique, nous présentons un état de l'art de la planification SAT. Nous analysons en détail cette approche qui permet de bénéficier directement des améliorations apportées régulièrement aux solveurs SAT. Nous proposons de nouveaux codages qui intègrent une stratégie de moindre engagement en retardant le plus possible l'ordonnancement des actions. Nous présentons ensuite le système TSP que nous avons implémenté pour comparer équitablement les différents codages puis nous détaillons les résultats de nombreux tests expérimentaux qui démontrent la supériorité de nos codages par rapport aux codages existants. Nous présentons ensuite un état de l'art de la planification temporelle en analysant les algorithmes et l'expressivité de leurs langages de représentation. La très grande majorité de ces planificateurs ne permet pas de résoudre des problèmes réels pour lesquels la concurrence des actions est nécessaire. Nous détaillons alors les deux approches originales de notre système TLP-GP permettant de résoudre ce type de problèmes. Ces approches sont comparables à la planification SAT, une grande partie du travail de recherche étant déléguée à un solveur SMT. Nous proposons ensuite des extensions du langage de planification PDDL qui permettent une certaine prise en compte de l'incertitude, du choix, ou des transitions continues. Nous montrons enfin, grâce à une étude expérimentale, que nos algorithmes permettent de résoudre des problèmes réels nécessitant de nombreuses actions concurrentes.
97

Algorithmes d'approximation pour l'optimisation en ligne d'ordonnancements et de structures de communications.

Thibault, Nicolas 24 November 2006 (has links) (PDF)
La réservation de ressources dans un réseau de communication est un domaine d'application très vaste, qui implique des problèmes algorithmiques nombreux et variés. La modélisation d'un réseau sous la forme d'un graphe permet, indépendamment de sa nature physique, de développer des algorithmes pour déterminer quels sont les noeuds et/ou les liens du réseau qui doivent être réservés. Il s'agit de gérer au mieux l'attribution de ces ressources pour les membres qui inter-agissent via le réseau. Pour la résolution de problèmes liés à la réservation de ressources au niveau d'un lien particulier, c'est la modélisation sous la forme d'un ordonnancement qui est alors particulièrement adaptée. Dans ce type de problèmes, il n'est pas toujours possible de connaître à l'avance toutes les données à traiter. En effet, les demandes de membres amenés à communiquer via le réseau ainsi que les demandes de réservation au niveau des liens arrivent en pratique au fils de l'eau. Pour prendre en compte cette difficulté, nous nous plaçons dans le contexte de l'algorithmique on-line (en ligne). Les données du problème à traiter ne sont donc pas connues dès le départ, mais révélées au fur et à mesure, sans aucune connaissance du futur. Pour chacun des problèmes on-lines traités, nous proposons des algorithmes que nous évaluons analytiquement, en fonction d'un (ou parfois plusieurs) critère(s) de performance.
98

Algorithme de Chemin de Régularisation pour l'apprentissage Statistique

Karina, Zapien 09 July 2009 (has links) (PDF)
La sélection d'un modèle approprié est l'une des tâches essentielles de l'apprentissage statistique. En général, pour une tâche d'apprentissage donnée, on considère plusieurs classes de modèles ordonnées selon un certain ordre de "complexité". Dans ce cadre, le processus de sélection de modèle revient à trouver la "complexité" optimale, permettant d'estimer un modèle assurant une bonne généralisation. Ce problème de sélection de modèle se résume à l'estimation d'un ou plusieurs hyperparamètres définissant la complexité du modèle, par opposition aux paramètres qui permettent de spécifier le modèle dans la classe de complexité choisie.<br>L'approche habituelle pour déterminer ces hyperparamètres consiste à utiliser une "grille". On se donne un ensemble de valeurs possibles et on estime, pour chacune de ces valeurs, l'erreur de généralisation du meilleur modèle. On s'intéresse, dans cette thèse, à une approche alternative consistant à calculer l'ensemble des solutions possibles pour toutes les valeurs des hyperparamètres. C'est ce qu'on appelle le chemin de régularisation. Il se trouve que pour les problèmes d'apprentissage qui nous intéressent, des programmes quadratiques paramétriques, on montre que le chemin de régularisation associé à certains hyperparamètres est linéaire par morceaux et que son calcul a une complexité numérique de l'ordre d'un multiple entier de la complexité de calcul d'un modèle avec un seul jeu hyper-paramètres.<br>La thèse est organisée en trois parties. La première donne le cadre général des problèmes d'apprentissage de type SVM (Séparateurs à Vaste Marge ou Support Vector Machines) ainsi que les outils théoriques et algorithmiques permettant d'appréhender ce problème. La deuxième partie traite du problème d'apprentissage supervisé pour la classification et l'ordonnancement dans le cadre des SVM. On montre que le chemin de régularisation de ces problèmes est linéaire par morceaux. Ce résultat nous permet de développer des algorithmes originaux de discrimination et d'ordonnancement. La troisième partie aborde successivement les problèmes d'apprentissage semi supervisé et non supervisé. Pour l'apprentissage semi supervisé, nous introduisons un critère de parcimonie et proposons l'algorithme de chemin de régularisation associé. En ce qui concerne l'apprentissage non supervisé nous utilisons une approche de type "réduction de dimension". Contrairement aux méthodes à base de graphes de similarité qui utilisent un nombre fixe de voisins, nous introduisons une nouvelle méthode permettant un choix adaptatif et approprié du nombre de voisins.
99

Intégration d'un outil d'aide au tolérancement dans un logiciel de C.F.A.O.

Gaëtan, Legrais 22 November 2005 (has links) (PDF)
Dans la plupart des systèmes de CFAO actuels, les tolérances sont indiquées grâce à des outils de représentation graphique symbolique (cotes, cadres de tolérances, repères, textes, ...). Cette représentation doit être correcte du point de vue syntaxique et sémantique. Les règles de bases de la syntaxe sont en général prises en compte par le logiciel, mais pas toutes. Il est encore possible d'écrire des tolérances qui ne sont pas correctes du fait même de leur écriture. Pour vérifier que la sémantique d'une tolérance est correcte, il faut pouvoir lui donner une interprétation conformément aux règles définies par les normes. Or ces règles sont complexes. Jusqu'à présent seul un technicien, avant une connaissance approfondie, est capable de vérifier si une tolérance indiquée sur le dessin est correcte du point de vue sémantique. Je développe un système intégré au logiciel TopSolid qui permet d'inscrire les tolérances sur le plan à partir du modèle 3D de la pièce. L'utilisateur travaillera sur un modèle 3D. Après avoir indiquer sur la pièce les surfaces tolérancées, le logiciel propose alors de contrôler les paramètres et les choix possibles de l'utilisateur. Le concepteur pourra ensuite définir des références de tolérance dont la cohérence avec le cadre de tolérance sera automatiquement vérifiée au fur et à mesure de leurs créations. Il s'agira, ensuite, d'aider le concepteur à déterminer quelles sont les surfaces à prendre en références et celles qui doivent être tolérancées. Cette partie permettra alors de définir un tolérancement complet à partir d'un ensemble de surfaces fonctionnelles hiérarchisées. Cette thése propose d'assister le concepteur dans sa démarche de tolérancement. Pour ce faire, je mets à sa disposition au travers de mes travaux un outil de transfert des connaissances sur le tolérancement et un atelier d'aide à la prise de décision.
100

Optimisation des réseaux de télécommunications : Réseaux multiniveaux, Tolérance aux pannes et Surveillance du trafic

Voge, Marie-Emilie 17 November 2006 (has links) (PDF)
Les problèmes étudiés dans cette thèse sont motivés par des questions issues de l'optimisation des réseaux de télécommunication. Nous avons abordé ces problèmes sous deux angles principaux. D'une part nous avons étudié leurs propriétés de complexité et d'inapproximabilité. D'autre part nous avons dans certains cas proposé des algorithmes exacts ou d'approximation ou encore des méthodes heuristiques que nous avons pu comparer à des formulations en programmes linéaires mixtes sur des instances particulières.<br /><br />Nous nous intéressons aussi bien aux réseaux de coeur qu'aux réseaux d'accès. Dans le premier chapitre, nous présentons brièvement les réseaux d'accès ainsi que les réseaux multiniveaux de type IP/WDM et l'architecture MPLS que nous considérons pour les réseaux de coeur. Ces réseaux sont composés d'un niveau physique sur lequel est routé un niveau virtuel. A leur tour les requêtes des utilisateurs sont routées sur le niveau virtuel. Nous abordons également la tolérance aux pannes dans les réseaux multiniveaux qui motive deux problèmes que nous avons étudiés.<br /><br />Le second chapitre est consacré à la conception de réseaux virtuels. Dans un premier temps nous modélisons un problème prenant en compte la tolérance aux pannes, puis nous en étudions un sous-problème, le groupage. Notre objectif est de minimiser le nombre de liens virtuels, ou tubes, à installer pour router un ensemble de requêtes quelconque lorsque le niveau physique est un chemin orienté.<br /><br />Le troisième chapitre traite des groupes de risque (SRRG) induits par l'empilement de niveaux au sein d'un réseau multiniveaux. Grâce à une modélisation par des graphes colorés, nous étudions la connexité et la vulnérabilité aux pannes de ces réseaux.<br /><br />L'objet du quatrième chapitre est le problème du placement d'instruments de mesure du trafic dans le réseau d'accès d'un opérateur. Nous considérons aussi bien les mesures passives qu'actives. La surveillance du trafic possède de nombreuses applications, en particulier la détection de pannes et l'évaluation des performances d'un réseau.

Page generated in 0.0474 seconds