201 |
Identification modale opérationnelle des robots d'usinage en service / Operational modal identification of machining robots in serviceMaamar, Asia 25 March 2019 (has links)
L’identification des paramètres modaux des machines-outils et des robots d’usinage, en service, constitue un levier d’optimisation des performances de coupe. En effet, la connaissance en continue du comportement dynamique d’une machine permet une prédiction fine des conditions de stabilité, bases d’un pilotage intelligent des paramètres du procédé. Cependant, la présence de fortes excitations harmoniques, dues à la rotation de la broche et de l’outil coupant, rend les techniques classiques d’Analyse Modale Opérationnelle (AMO) inapplicables. Le premier objectif de cette thèse consiste à déterminer une méthode d’AMO adéquate pour une application en présence des harmoniques. Une étude comparative des méthodes existantes est conduite, à savoir : la méthode de décomposition dans le domaine fréquentiel (EFDD), la méthode d’identification dans le sous-espace stochastique (SSI), la méthode PolyMAX et la méthode basée sur la fonction de transmissibilité (TFB). La méthode TFB est choisie afin de réaliser une identification modale opérationnelle des robots d’usinage. Cette technique est tout d’abord investiguée sur une machine-outil cartésienne. Cette étape est justifiée par le fait qu’une machine-outil est une structure plus rigide qui présente moins de variations des propriétés dynamiques par rapport à un robot d’usinage. Les résultats montrent la pertinence de la méthode TFB pour identifier les paramètres modaux de la machine-outil en usinage, même en présence des composantes harmoniques fortement dominantes. Ensuite, l’identification modale opérationnelle du robot d’usinage ABB IRB 6660, qui présente une structure moins rigide par rapport à une machine-outil, est menée sur une trajectoire d’usinage. Les résultats obtenus permettent d’établir une base modale du robot montrant l’évolution de son comportement modal en service. L’originalité des travaux présentés réside dans le développement d’une procédure robuste d’identification modale opérationnelle qui permet de suivre l’évolution du comportement modal du robot en cours d’usinage dans son espace de travail. / The identification of the modal parameters of machining robots in service has a significant adverse influence on machining stability, which will, therefore, decrease the quality of the workpiece and reduce the tool life. However, in presence of strong harmonic excitation, the application of Operational Modal Analysis (OMA) is not straightforward. Firstly, the issue of choosing the most appropiate OMA method for an application in presence of harmonic components, is handled. For a comparison purpose, the modified Enhanced Frequency Domain Decomposition (EFDD) method, the Stochastic Subspace Identification (SSI) method, the PolyMAX method and the Transmissibility Function Based (TFB) method are investigated. The obtained results lead to the adoption of the Transmissibility Function Based (TFB) method for an OMA of machining robots. For an accurate modal identification procedure, the OMA of a machine tool is, initially, conducted. It is a preparation step in order to verify the performance of the chosen method under machining conditions as well as a machine tool is a rigid structure, thus, it has less variation in its dynamic behavior compared to a machining robot. Results demonstrate the efficiency of the TFB method to identify the machine tool modal parameters even in the presence of preponderant harmonic components. Finally, the OMA of the machining robot ABB IRB 6660, which has a flexible structure compared to a machine tool, is carried out for a machining trajectory. The obtained results allow the identification of a modal basis of the machining robot illustrating the evolution of its modal behavior, in service. The main novelty of this thesis lies in the development of a robust procedure for an operational modal identification of machining robots, in service, which makes it possible to continuously follow the variations in the modal parameters of machining robots.
|
202 |
Deux critères de sécurité pour l'exécution de code mobileGrall, Hervé 15 December 2003 (has links) (PDF)
Les programmes mobiles, comme les applettes, sont utiles mais potentiellement hostiles, et il faut donc pouvoir s'assurer que leur exécution n'est pas dangereuse pour le système hôte. Une solution est d'exécuter le programme mobile dans un environnement sécurisé, servant d'interface avec les ressources locales, dans le but de contrôler les flux d'informations entre le code mobile et les ressources, ainsi que les accès du code mobile aux ressources. Nous proposons deux critères de sécurité pour l'exécution de code mobile, obtenus chacun à partir d'une analyse de l'environnement local. Le premier porte sur les flux d'informations, garantit la confidentialité, est fondé sur le code de l'environnement, et est exact et indécidable ; le second porte sur les contrôles d'accès, garantit le confinement, s'obtient à partir du type de l'environnement, et est approché et décidable. Le premier chapitre, méthodologique, présente l'étude d'objets infinis représentés sous la forme d'arbres. Nous avons privilégié pour les définir, une approche équationnelle, et pour raisonner sur eux, une approche déductive, fondée sur l'interprétation co-inductive de systèmes d'inférence. Dans le second chapitre, on montre dans le cas simple du calcul, comment passer d'une sémantique opérationnelle à une sémantique dénotationnelle, en utilisant comme dénotation d'un programme son observation. Le troisième chapitre présente finalement en détail les deux critères de sécurité pour l'exécution de code mobile. Les techniques développées dans les chapitres précédents sont utilisées pour l'étude de la confidentialité, alors que des techniques élémentaires suffisent à l'étude du confinement.
|
203 |
Convergence des copies dans les environnements collaboratifs répartisVidot, Nicolas 20 September 2002 (has links) (PDF)
Dans les environnements collaboratifs répartis temps réel, les objets répliqués, partagés par les utilisateurs sont soumis à des contraintes de concurrence. Pour les satisfaire, différents algorithmes de contrôle, exploitant les propriétés sémantiques des opérations et utilisant les Transformées opérationnelles, ont été proposés de façon à ordonner les opérations concurrentes et par-là garantir la convergence des copies d'un objet tout en respectant l'intention des usagers. Leur inconvénient est d'imposer ou bien que les opérations utilisées par les utilisateurs satisfassent une condition, difficile à vérifier et qu'il n'est pas toujours possible d'assurer, ou bien de défaire puis de refaire des opérations dans certaines situations. Le premier objectif de la thèse est de présenter deux nouveaux algorithmes n'ayant pas ces défauts. Ils reposent sur la mise en œuvre d'un ordre global continu qui permet non seulement de s'affranchir de cette condition mais aussi de simplifier le processus d'intégration d'une opération. Dans l'un des algorithmes, SOCT4 dont nous donnons la preuve formelle, l'intégration est encore simplifiée en différant la diffusion des opérations alors que dans l'autre, SOCT5, le parallélisme dans la diffusion est privilégié. L'extension de ces algorithmes pour tenir compte de la présence de postes mobiles est abordée. Le deuxième objectif est d'adapter les algorithmes de type SOCT2 pour permettre à un utilisateur d'annuler une opération dans la mesure où les rares propositions non restrictives faites pour résoudre ce problème compromettent dans certains cas la convergence des copies. Pour cela, plutôt que de manipuler directement l'opération inverse, on considère l'annulation comme une opération spécifique dont la transposition en avant doit satisfaire deux conditions générales que l'étude met en évidence. Le bien fondé de cette démarche est validée par l'étude de cas critiques.
|
204 |
Analyse et mesure de l'incertitude dans un modèle de simulation. Les principes, une méthode et l'exemple de l'affectation bicritère du traficLeurent, Fabien 29 January 1997 (has links) (PDF)
Un modèle représente un système, ses composants et les interactions entre composants. Il sert à analyser et simuler les interactions, en déduisant les conséquences logiques d'hypothèses sur les variables d'état du système, ou sur des variables de contrôle ou de perturbation. Comment juger, ou mieux mesurer, si le modèle est proche de la réalité ? La thèse établit les principes d'un tel examen, appelé audit technique d'un modèle. Il s'agit de détecter, identifier, et si possible réduire, les erreurs et les incertitudes, que nous décomposons en quatre classes : (i) erreur de conception (quels mécanismes explicatifs constituent la composition conceptuelle, quelles schématisations ?), (ii) erreur formelle (la synthèse mathématique des mécanismes explicatifs dans une formule caractéristique, doit être conforme au contenu conceptuel et cohérente), (iii) erreur algorithmique (le dispositif de résolution fournit-il vraiment une solution ? Avec quelle précision ?), (iv) enfin une incertitude de type économétrique qui englobe l'erreur d'estimation et l'erreur exogène a priori sur les inputs. Chaque classe d'erreur relève d'une discipline spécifique, ce qui confère autant de dimensions à l'audit : audit conceptuel à base d'analyse systémique, audit formel à caractère mathématique, audit algorithmique de caractère physique ou informatique, audit économétrique. Nous proposons une méthode systématique d'audit. Nous l'appliquons à un modèle d'équilibre entre offre et demande, précisément un modèle de choix d'itinéraire sur un réseau avec une offre sujette à congestion et une demande qui arbitre de façon diversifiée entre prix et temps. Nous établissons une formule caractéristique (inéquation variationnelle en dimension finie) dont la solution jouit de propriétés d'existence et d'unicité ; nous proposons et testons plusieurs algorithmes et critères de convergence ; nous effectuons l'analyse de sensibilité pour propager l'erreur économétrique exogène à travers le modèle.
|
205 |
Étude unifiée d'équations aux dérivées partielles de type elliptique régies par des équations différentielles à coefficients opérateurs dans un cadre non commutatif: applications concrètes dans les espaces de Hölder et les espaces LpMeisner, Maëlis 22 June 2012 (has links) (PDF)
L'objectif de ce travail est l'étude des équations différentielles complètes du second ordre de type elliptique à coefficients opérateurs dans un espace de Banach X quelconque. Une application concrète de ces équations est détaillée, il s'agit d'un problème de transmission du potentiel électrique dans une cellule biologique où la membrane constitue une couche mince. L'originalité de ce travail réside particulièrement dans le fait que les opérateurs non bornés considérés ne commutent pas nécessairement. Une nouvelle hypothèse dite de non commutativité est alors introduite. L'analyse est faite dans deux cadres fonctionnels distincts: les espaces de Hölder et les espaces Lp (avec X un espace UMD). L'équation est d'abord étudiée sur la droite réelle puis sur un intervalle borné avec conditions aux limites de Dirichlet. On donne des résultats d'existence, d'unicité et de régularité maximale de la solution classique sous des conditions sur les données dans des espaces d'interpolation. Les techniques utilisées sont basées sur la théorie des semi-groupes, le calcul fonctionnel de Dunford et la théorie de l'interpolation. Ces résultats sont tous appliqués à des équations aux dérivées partielles concrètes de type elliptique ou quasi-elliptique.
|
206 |
Méthodes et outils pour la conception optimale des réseaux de distribution d'électricité dans les aéronefsGiraud, Xavier 06 February 2014 (has links) (PDF)
Dans le domaine aéronautique, la dernière décennie a été marquée par une augmentation constante et progressive du taux d'électrification des systèmes embarqués. L'avion plus électrique est aujourd'hui vu comme un axe d'amélioration majeure pour l'industrie aéronautique permettant d'atteindre des objectifs toujours plus ambitieux : réduction de l'impact environnemental, rationalisation des coûts de maintenance... Dans ce contexte, le réseau de distribution électrique joue un rôle majeur. Les architectes doivent imaginer de nouveaux concepts architecturaux afin d'assurer le " service " de fourniture d'électricité tout en minimisant la masse et le coût. Ainsi les travaux de cette thèse proposent des méthodes d'aide à la conception pour les architectes de réseau. Le manuscrit se divise en 2 parties pouvant être vues comme 2 études distinctes et qui sont introduites dans le chapitre 1. La 1ère partie, traitée dans les chapitres 2 et 3, développe des méthodes et outils afin de résoudre de manière automatique et optimale 2 tâches de l'architecte : la définition des reconfigurations du réseau et l'identification de l'allocation des charges. La formalisation de ces 2 problématiques met en lumière une caractéristique commune : l'explosion combinatoire. Ainsi les résolutions sont réalisées à l'aide de méthodes issues de la recherche opérationnelle. Un processus général est défini afin de traiter les 2 tâches de manière consistante. Les aspects liés à la reconfiguration sont traités à l'aide de : la théorie des graphes pour modéliser la connectivité du réseau, un système expert capturant les règles métiers et la programmation linéaire sélectionnant les reconfigurations les plus performantes. La méthode a été appliquée avec succès sur des réseaux avions existants (A400M et A350) ainsi que sur des réseaux plus électriques prospectifs. La deuxième tâche consistant en l'allocation des charges a été résolue à l'aide de méthodes stochastiques. L'algorithme génétique utilisant une méthode de nichage se révèle être le plus performant en proposant à l'architecte réseau des solutions performantes et variées. La 2ème partie, traitée dans le chapitre 4, s'intéresse à un nouveau concept le " cœur électronique modulaire et mutualisé ". Cet organe de distribution, étroitement lié à l'avion plus électrique, se caractérise par la mutualisation de " m " modules électronique de puissance pour " c " charges électriques. Les méthodes développées dans le chapitre 4 vise à concevoir de manière optimale ce nouveau cœur en ayant 2 degrés de liberté : le nombre " m " de modules et les reconfigurations entre les " m " modules et les " c " charges. De nouveau, la formalisation du problème met en évidence l'explosion combinatoire à laquelle est confronté le concepteur. Le principal objectif de cette étude est de proposer un cadre méthodologique pour la résolution de ce problème de conception. Ainsi une heuristique a été développée pour résoudre ce problème combinatoire. Une attention particulière a été portée pour développer des modèles de composants simples et génériques dans une procédure générale organisée. Enfin une cartographie a été réalisée afin de dégager d'une part les formes de solutions les plus performantes et d'identifier les éléments ayant les impacts les plus significatifs sur la masse du système complet.
|
207 |
Une heuristique à grand voisinage pour un problème de confection de tournée pour un seul véhicule avec cueillettes et livraisons et contrainte de chargementCôté, Jean-François 04 1900 (has links)
Dans ce mémoire, nous présentons un nouveau type de problème de confection de tour- née pour un seul véhicule avec cueillettes et livraisons et contrainte de chargement. Cette variante est motivée par des problèmes similaires rapportés dans la littérature. Le véhi- cule en question contient plusieurs piles où des colis de hauteurs différentes sont empilés durant leur transport. La hauteur totale des items contenus dans chacune des piles ne peut dépasser une certaine hauteur maximale. Aucun déplacement n’est permis lors de la li- vraison d’un colis, ce qui signifie que le colis doit être sur le dessus d’une pile au moment d’être livré. De plus, tout colis i ramassé avant un colis j et contenu dans la même pile doit être livré après j. Une heuristique à grand voisinage, basé sur des travaux récents dans le domaine, est proposée comme méthode de résolution. Des résultats numériques sont rapportés pour plusieurs instances classiques ainsi que pour de nouvelles instances. / In this work, we consider a new type of pickup and delivery routing problem with last- in-first-out loading constraints for a single vehicle with multiple stacks. This problem is motivated by similar problems reported in the literature. In the problem considered, items are collected and put on top of one of multiple stacks inside the vehicle, such that the total height of the items on each stack does not exceed a given threshold. The loading constraints state that if items i and j are in the same stack and item i is collected before item j, then i must be delivered after j. Furthermore, an item can be delivered only if it is on the top of a stack. An adaptive large neighborhood heuristic, based on recent studies in this field, is proposed to solve the problem. Numerical results are reported on many classical instances reported in the literature and also on some new ones.
|
208 |
Passage à l'échelle pour les contraintes d'ordonnancement multi-ressourcesLetort, Arnaud 28 October 2013 (has links) (PDF)
La programmation par contraintes est une approche régulièrement utilisée pour résoudre des problèmes combinatoires d'origines diverses. Dans cette thèse nous nous focalisons sur les problèmes d'ordonnancement cumulatif. Un problème d'ordonnancement consiste à déterminer les dates de débuts et de fins d'un ensemble de tâches, tout en respectant certaines contraintes de capacité et de précédence. Les contraintes de capacité concernent aussi bien des contraintes cumulatives classiques où l'on restreint la somme des hauteurs des tâches intersectant un instant donné, que des contraintes cumulatives colorées où l'on restreint le nombre maximum de couleurs distinctes prises par les tâches. Un des objectifs récemment identifiés pour la programmation par contraintes est de traiter des problèmes de grandes tailles, habituellement résolus à l'aide d'algorithmes dédiés et de métaheuristiques. Par exemple, l'utilisation croissante de centres de données virtualisés laisse apparaitre des problèmes d'ordonnancement et de placement multi-dimensionnels de plusieurs milliers de tâches. Pour atteindre cet objectif, nous utilisons l'idée de balayage synchronisé considérant simultanément une conjonction de contraintes cumulative et des précédences, ce qui nous permet d'accélérer la convergence au point fixe. De plus, de ces algorithmes de filtrage nous dérivons des procédures gloutonnes qui peuvent être appe- lées à chaque noeud de l'arbre de recherche pour tenter de trouver plus rapidement une solution au problème. Cette approche permet de traiter des problèmes impliquant plus d'un million de tâches et 64 resources cumulatives. Ces algorithmes ont été implémentés dans les solveurs de contraintes Choco et SICStus, et évalués sur divers problèmes de placement et d'ordonnancement.
|
209 |
Classification sur données médicales à l'aide de méthodes d'optimisation et de datamining, appliquée au pré-screening dans les essais cliniquesJacques, Julie 02 December 2013 (has links) (PDF)
Les données médicales souffrent de problèmes d'uniformisation ou d'incertitude, ce qui les rend difficilement utilisables directement par des logiciels médicaux, en particulier dans le cas du recrutement pour les essais cliniques. Dans cette thèse, nous proposons une approche permettant de palier la mauvaise qualité de ces données à l'aide de méthodes de classification supervisée. Nous nous intéresserons en particulier à 3 caractéristiques de ces données : asymétrie, incertitude et volumétrie. Nous proposons l'algorithme MOCA-I qui aborde ce problème combinatoire de classification partielle sur données asymétriques sous la forme d'un problème de recherche locale multi-objectif. Après avoir confirmé les apports de la modélisation multi-objectif dans ce contexte, nous calibrons MOCA-I et le comparons aux meilleurs algorithmes de classification de la littérature, sur des jeux de données réels et asymétriques de la littérature. Les ensembles de règles obtenus par MOCA-I sont statistiquement plus performants que ceux de la littérature, et 2 à 6 fois plus compacts. Pour les données ne présentant pas d'asymétrie, nous proposons l'algorithme MOCA, statistiquement équivalent à ceux de la littérature. Nous analysons ensuite l'impact de l'asymétrie sur le comportement de MOCA et MOCA-I, de manière théorique et expérimentale. Puis, nous proposons et évaluons différentes méthodes pour traiter les nombreuses solutions Pareto générées par MOCA-I, afin d'assister l'utilisateur dans le choix de la solution finale et réduire le phénomène de sur-apprentissage. Enfin, nous montrons comment le travail réalisé peut s'intégrer dans une solution logicielle.
|
210 |
Optimisation combinatoire pour la sélection de variables en régression en grande dimension : Application en génétique animaleHamon, Julie 26 November 2013 (has links) (PDF)
Le développement des technologies de séquençage et de génotypage haut-débit permet de mesurer, pour un individu, une grande quantité d'information génomique. L'objectif de ce travail est, dans le cadre de la sélection génomique animale, de sélectionner un sous-ensemble de marqueurs génétiques pertinents permettant de prédire un caractère quantitatif, dans un contexte où le nombre d'animaux génotypés est largement inférieur au nombre de marqueurs étudiées. Ce manuscrit présente un état de l'art des méthodes actuelles permettant de répondre à la problématique. Nous proposons ensuite de répondre à notre problématique de sélection de variables en régression en grande dimension en combinant approches d'optimisation combinatoire et modèles statistiques. Nous commençons par paramétrer expérimentalement deux méthodes d'optimisation combinatoire, la recherche locale itérée et l'algorithme génétique, combinées avec une régression li- néaire multiple et nous évaluons leur pertinence. Dans le contexte de la génomique animale les relations familiales entre animaux sont connues et peuvent constituer une information importante. Notre approche étant flexible, nous proposons une adapta- tion permettant de prendre en considération ces relations familiales via l'utilisation d'un modèle mixte. Le problème du sur-apprentissage étant particulièrement présent sur nos données dû au déséquilibre important entre le nombre de variables étudiées et le nombre d'animaux disponibles, nous proposons également une amélioration de notre approche permettant de diminuer ce sur-apprentissage. Les différentes approches proposées sont validées sur des données de la littérature ainsi que sur des données réelles de Gènes Diffusion.
|
Page generated in 0.1133 seconds