• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 26
  • 6
  • 2
  • Tagged with
  • 34
  • 14
  • 11
  • 11
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Optimisation de structures viscoplastiques par couplage entre métamodèle multi-fidélité et modèles réduits / Structural design optimization by coupling multi-fidelity metamodels and reduced-order models

Nachar, Stéphane 11 October 2019 (has links)
Les phases de conception et de validation de pièces mécaniques nécessitent des outils de calculs rapides et fiables, permettant de faire des choix technologiques en un temps court. Dans ce cadre, il n'est pas possible de calculer la réponse exacte pour l'ensemble des configurations envisageables. Les métamodèles sont alors couramment utilisés mais nécessitent un grand nombre de réponses, notamment dans le cas où celles-ci sont non-linéaires. Une solution est alors d'exploiter plusieurs sources de données de qualité diverses pour générer un métamodèle multi-fidélité plus rapide à calculer pour une précision équivalente. Ces données multi-fidélité peuvent être extraites de modèles réduits.Les travaux présentés proposent une méthode de génération de métamodèles multi-fidélité pour l'optimisation de structures mécaniques par la mise en place d'une stratégie d'enrichissement adaptatif des informations sur la réponse de la structure, par utilisation de données issues d'un solveur LATIN-PGD permettant de générer des données de qualités adaptées, et d'accélérer le calcul par la réutilisation des données précédemment calculées. Un grand nombre de données basse-fidélité sont calculées avant un enrichissement intelligent par des données haute-fidélité.Ce manuscrit présente les contributions aux métamodèles multi-fidélité et deux approches de la méthode LATIN-PGD avec la mise en place d'une stratégie multi-paramétrique pour le réemploi des données précédemment calculées. Une implémentation parallèle des méthodes a permis de tester la méthode sur trois cas-tests, pour des gains pouvant aller jusqu'à 37x. / Engineering simulation provides the best design products by allowing many design options to be quickly explored and tested, but fast-time-to-results requirement remains a critical factor to meet aggressive time-to-market requirements. In this context, using high-fidelity direct resolution solver is not suitable for (virtual) charts generation for engineering design and optimization.Metamodels are commonly considered to explore design options without computing every possibility, but if the behavior is nonlinear, a large amount of data is still required. A possibility is to use further data sources to generate a multi-fidelity surrogate model by using model reduction. Model reduction techniques constitute one of the tools to bypass the limited calculation budget by seeking a solution to a problem on a reduced order basis (ROB).The purpose of the present work is an online method for generating a multi-fidelity metamodel nourished by calculating the quantity of interest from the basis generated on-the-fly with the LATIN-PGD framework for elasto-viscoplastic problems. Low-fidelity fields are obtained by stopping the solver before convergence, and high-fidelity information is obtained with converged solution. In addition, the solver ability to reuse information from previously calculated PGD basis is exploited.This manuscript presents the contributions to multi-fidelity metamodels and the LATIN-PGD method with the implementation of a multi-parametric strategy. This coupling strategy was tested on three test cases for calculation time savings of more than 37x.
12

Modélisation pour la simulation de la chaîne logistique globale dans un environnement de production PME mécatroniques

Tounsi, Jihène 04 December 2009 (has links) (PDF)
Ce travail de thèse adresse une problématique industrielle qui s'articule autour de la modélisation de la chaîne logistique, composée essentiellement de groupements de PME mécatroniques, afin d'analyser les caractéristiques organisationnelles et comportementales et d'en évaluer la performance. Le développement de la solution de modélisation s'inscrit dans une démarche de raffinement itératif et d'intégration progressive de modèles. Le cadre de cette démarche constitue le fondement du processus de développement adopté « ArchMDE » basé sur l'Ingénierie Dirigée par les Modèles (IDM). Par conséquent, les travaux de cette recherche sont caractérisés par une contribution double. Dans la première contribution, il s'agit de la proposition d'un métamodèle générique de la chaîne logistique. En puisant dans la littérature nous avons proposé une méthodologie de conceptualisation incrémentale et générique qui permet la génération d'un modèle conceptuel de la structure d'une chaîne logistique ainsi que les relations entre ses différentes entités. L'application de cette démarche a donné lieu à la construction d'un métamodèle décrivant le champ d'application étudié (PME mécatroniques). La seconde contribution permet de formaliser le comportement dynamique des concepts générés lors de la première étape en adoptant le paradigme multi-agent. Ainsi, nous avons proposé une agentification du métamodèle du domaine en se basant sur l'analogie naturelle entre la chaîne logistique et le système multi-agent. Cette agentification a donné lieu à un métamodèle du domaine agentifié avec une mise en place des protocoles d'interaction visant à synchroniser et piloter la chaîne logistique. L'étude des relations et du comportement dynamique des différents concepts a permis d'aboutir à un métamodèle d'implémentation qui exprime à la fois les deux vues statique et dynamique du domaine d'application. Ce dernier artefact a fait l'objet d'une instanciation et d'une implémentation d'un cas industriel réel dans un environnement JAVA.
13

Exploration en conception mécanique préliminaire des compromis entre contraintes architecturales véhicule et performances vibro-acoustiques agrégées

Hamdi, Abdelbasset 22 January 2008 (has links) (PDF)
Dans cette thèse, nous proposons un cadre méthodologique en phase de conception préliminaire dans l'industrie automobile, afin de gérer le compromis entre, d'une part, les contraintes d'architecture auxquelles est soumis un sous-système mécanique, et d'autre part une contribution satisfaisante du sous-système à la minimisation du bruit dans l'habitacle véhicule. <br />La méthodologie proposée, nous permet d'engager des négociations entre les architectes de l'automobile et les ingénieurs mécaniciens sur le respect ou le non-respect de contraintes d'architecture d'un sous-système ou d'un organe, ainsi que sur l'atteinte des cibles du cahier des charges en ce qui concerne les performances vibro-acoustiques.<br />Le cadre méthodologique proposé se compose de cinq étapes : (1) la modélisation du problème de conception, comprenant (a) la modélisation des performances vibro-acoustiques et (b) la modélisation des contraintes d'architecture (2) la métamodélisation (approximation mathématique) du problème de conception résultant en utilisant les métamodèles de type kriging, (3) la formulation du problème de conception sous la forme d'un problème d'optimisation multi-objectifs, (4) la génération grâce au métamodèle de la frontière de Pareto de ce problème d'optimisation multi-objectif par la méthode des contraintes normales et normalisées, (5) une étape de négociation entre les contraintes d'architecture et les performances du sous-système mécanique.<br />Pour gérer le problème des contraintes d'architecture, dans la phase de conception préliminaire, nous introduisons une méthode pour exprimer, par un critère dit d'architecture, le respect ou le non-respect des contraintes géométriques. L'originalité de cette méthode consiste dans le fait de migrer l'étape de l'allocation de volumes enveloppes sous un système de CAO vers un système d'IAO plus accessible aux ingénieurs puisque c'est dans ce système qu'ils gèrent leurs modèles éléments finis.<br />Nous introduisons, en outre, une méthode d'agrégation des performances vibro-acoustiques d'un sous-système mécanique en un seul critère (indicateur) à valeur réelle. Cette technique permet une réduction efficace de la dimension importante d'un problème de conception lié à l'étude d'un sous-système mécanique avec des multiples performances vibro-acoustiques.<br />L'application de la méthodologie à un cas d'étude, dans le domaine automobile, a permis de démontrer son efficacité à améliorer sensiblement les performances vibro-acoustiques d'une caisse en blanc (caisse nue d'une automobile) tout en respectant des contraintes d'architecture serrées à cause d'un volume enveloppe alloué au groupe motopropulseur du véhicule.<br />Finalement, avec ce cadre méthodologique, les négociations entre les architectes et les ingénieurs ne sont plus fondées sur des jugements qualitatifs, mais elles sont à présent fondées sur des critères quantitatifs à la fois pour les contraintes d'architecture et les performances mécaniques.
14

Optimisation de fonctions coûteuses<br />Modèles gaussiens pour une utilisation efficace du budget d'évaluations : théorie et pratique industrielle

Villemonteix, Julien 10 December 2008 (has links) (PDF)
Cette thèse traite d'une question centrale dans de nombreux problèmes d'optimisation, en particulier<br />en ingénierie. Comment optimiser une fonction lorsque le nombre d'évaluations autorisé est très limité au regard de la dimension et de la complexité du problème ? Par exemple, lorsque le budget d'évaluations est limité par la durée des simulations numériques du système à optimiser, il n'est pas rare de devoir optimiser trente paramètres avec moins<br />de cent évaluations. Ce travail traite d'algorithmes d'optimisation spécifiques à ce contexte pour lequel la plupart des méthodes classiques sont inadaptées.<br />Le principe commun aux méthodes proposées est d'exploiter les propriétés des processus gaussiens et du krigeage pour construire une approximation peu coûteuse de la fonction à optimiser. Cette approximation est ensuite utilisée pour choisir itérativement les évaluations à réaliser. Ce choix est dicté par un critère d'échantillonnage qui combine recherche locale, à proximité des résultats prometteurs, et recherche globale, dans les zones non explorées. La plupart des critères proposés dans la littérature, tel celui de l'algorithme EGO (pour Efficient Global Optimization), cherchent à échantillonner la fonction là où l'apparition d'un optimum est jugée la plus probable. En comparaison, l'algorithme IAGO (pour Informational Approach to Global Optimization), principale contribution de nos travaux, cherche à maximiser la quantité d'information apportée, sur la position de l'optimum, par l'évaluation réalisée. Des problématiques industrielles ont guidé l'organisation de ce mémoire, qui se destine à la communauté de l'optimisation<br />tout comme aux praticiens confrontés à des fonctions à l'évaluation coûteuse. Aussi les applications industrielles y tiennent-elles une place importante tout comme la mise en place de l'algorithme IAGO. Nous détaillons non seulement le cas standard de l'optimisation d'une fonction réelle, mais aussi la prise en compte de contraintes, de<br />bruit sur les résultats des évaluations, de résultats d'évaluation du gradient, de problèmes multi-objectifs, ou encore d'incertitudes de fabrication significatives.
15

Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue

Echard, Benjamin 25 September 2012 (has links) (PDF)
Les méthodes traditionnelles de dimensionnement à la fatigue s'appuient sur l'utilisation de coefficients dits de "sécurité" dans le but d'assurer l'intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l'ingénieur ont le mérite d'être simples d'application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l'influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d'acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l'analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s'appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d'évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d'évaluations du modèle mécanique. L'approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi.
16

Modèle de Gestion Hiérarchique Distribuée pour la Reconfiguration et la Prise de Décision dans les Équipements de Radio Cognitive

Godard, Loig 18 December 2008 (has links) (PDF)
Ce travail porte sur la mise en oeuvre d'une architecture de gestion pour équipement radio cognitif en vue d'applications dans le domaine des radiocommunications. Ce projet pluridisciplinaire regroupe des domaines de compétence variés tels que : l'électronique, l'informatique et les sciences cognitives. L'architecture retenue porte le nom HDCRAM (Hierarchical and Distributed Cognitive Radio Management). HDCRAM est distribuée de façon hiérarchique au sein de l'équipement sur trois niveaux d'abstraction. Cette distribution hiérarchique permet de prendre en compte l'une des problématiques du domaine qui est l'hétérogénéité des plateformes d'exécution cible. HDCRAM propose une gestion fine tant du point de vue des mécanismes de reconfiguration que de la gestion des prises de décision menant à une reconfiguration de tout ou partie du système. Le cadre applicatif de cette architecture étant un domaine où la part logicielle devient de plus en plus prédominante sur la part matérielle, il est nécessaire de définir une interface commune. Ceci afin de faciliter le portage des logiciels sur un parc d'équipement en constante augmentation et par nature hétérogène. Grâce à une modélisation à haut niveau d'abstraction par l'utilisation du langage de modélisation UML nous avons pu définir HDCRAM de façon totalement indépendante des contraintes matérielles ce qui offre une possibilité étendue en termes de réutilisabilité et de modularité. Le choix de doter cette modélisation d'un métalangage de programmation exécutable tel que Kermeta permet, en plus de la modélisation à haut niveau d'abstraction, une simulation fonctionnelle de HDCRAM via une description comportementale.
17

Assessment by kriging of the reliability of structures subjected to fatigue stress / Evaluation par krigeage de la fiabilité des structures sollicitées en fatigue

Echard, Benjamin 25 September 2012 (has links)
Les méthodes traditionnelles de dimensionnement à la fatigue s’appuient sur l’utilisation de coefficients dits de “sécurité” dans le but d’assurer l’intégrité de la structure en couvrant les incertitudes inhérentes à la fatigue. Ces méthodes de l’ingénieur ont le mérite d’être simples d’application et de donner des solutions heureusement satisfaisantes du point de vue de la sécurité. Toutefois, elles ne permettent pas au concepteur de connaître la véritable marge de sécurité de la structure et l’influence des différents paramètres de conception sur la fiabilité. Les approches probabilistes sont envisagées dans cette thèse afin d’acquérir ces informations essentielles pour un dimensionnement optimal de la structure vis-à-vis de la fatigue. Une approche générale pour l’analyse probabiliste en fatigue est proposée dans ce manuscrit. Elle s’appuie sur la modélisation des incertitudes (chargement, propriétés du matériau, géométrie, courbe de fatigue) et vise à quantifier le niveau de fiabilité de la structure étudiée pour un scénario de défaillance en fatigue. Les méthodes classiques de fiabilité nécessitent un nombre important d’évaluations du modèle mécanique de la structure et ne sont donc pas envisageables lorsque le calcul du modèle est coûteux en temps. Une famille de méthodes appelée AK-RM (Active learning and Kriging-based Reliability Methods) est précisément proposée dans ces travaux de thèse afin de résoudre le problème de fiabilité avec un minimum d’évaluations du modèle mécanique. L’approche générale est appliquée à deux cas-tests fournis par SNECMA dans le cadre du projet ANR APPRoFi. / Traditional procedures for designing structures against fatigue are grounded upon the use of so-called safety factors in an attempt to ensure structural integrity while masking the uncertainties inherent to fatigue. These engineering methods are simple to use and fortunately, they give satisfactory solutions with regard to safety. However, they do not provide the designer with the structure’s safety margin as well as the influence of each design parameter on reliability. Probabilistic approaches are considered in this thesis in order to acquire this information, which is essential for an optimal design against fatigue. A general approach for probabilistic analysis in fatigue is proposed in this manuscript. It relies on the modelling of the uncertainties (load, material properties, geometry, and fatigue curve), and aims at assessing the reliability level of the studied structure in the case of a fatigue failure scenario. Classical reliability methods require a large number of calls to the mechanical model of the structure and are thus not applicable when the model evaluation is time-demanding. A family of methods named AK-RM (Active learning and Kriging-based Reliability methods) is proposed in this research work in order to solve the reliability problem with a minimum number of mechanical model evaluations. The general approach is applied to two case studies submitted by SNECMA in the frame of the ANR project APPRoFi.
18

Alimentation d'un dépôt de code source pour l'analyse détaillée de systèmes de taille industrielle

Bédard, Jean-François January 2002 (has links)
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
19

Fiabilité résiduelle des ouvrages en béton dégradés par réaction alcali-granulat : application au barrage hydroélectrique de Song Loulou / Residual reliability of alkali-aggregate reaction affected concrete structures : application to the song Loulou hydroelectric dam

Ftatsi Mbetmi, Guy-De-Patience 31 August 2018 (has links)
Ce travail de thèse propose une méthodologie multi-échelle basée sur l'utilisation de modèles de substitution fonction de variables aléatoires, pour évaluer la fiabilité résiduelle d'ouvrages en béton atteints de réaction alcali-granulat (RAG), dans l'optique d'une meilleure maintenance. Les modèles de substitution, basés sur des développements en chaos de polynômes des paramètres d'une fonction de forme (sigmoïde dans les cas traités), ont été constitués à plusieurs échelles, afin notamment de réduire les temps de calculs des modèles physiques sous-jacents. A l'échelle microscopique, le modèle de RAG employé est celui développé par Multon, Sellier et Cyr en 2009, comprenant initialement une vingtaine de variables aléatoires potentielles. A l'issue d'une analyse de sensibilité de Morris, le modèle de substitution permet de reproduire la courbe de gonflement dans le temps du volume élémentaire représentatif en fonction de neuf variables aléatoires. L'utilisation du modèle de substitution construit, pour la prédiction des effets mécaniques du gonflement dû à la RAG sur une éprouvette, a nécessité de prendre en compte l'anisotropie de ces effets en améliorant les fonctions poids proposées par Saouma et Perotti en 2006. L'échelle de l'éprouvette étant validée par la confrontation des prédictions aux données expérimentales des travaux de thèse de Multon, une application à l'échelle du barrage de Song Loulou a été entreprise. Le calcul du comportement thermo-chemo-mécanique d'une pile d'évacuateur de crues, dont les résultats en déplacements ont pu être confrontés aux données d'auscultation fournies par l'entreprise AES-SONEL (devenue ENEO), a été réalisé. Des modèles de substitution ont été construits ensuite à l'échelle de la structure afin d'obtenir les déplacements aux points d'intérêt, liés aux états limites de fonctionnement des évacuateurs, et procéder ainsi à l'estimation de la fiabilité résiduelle du barrage. Les calculs d'analyse de sensibilité et la construction des modèles de substitution ont été implémentés en Fortran, Java et OpenTURNS Les calculs sur éprouvette et pile de barrage ont été effectués sous Cast3M. / This work proposes a multi-scale methodology based on the use of surrogate models function of random variables, to evaluate the residual reliability of concrete structures suffering from alkali-aggregate reaction (AAR), for a better maintenance purpose. Surrogate models, based on polynomial chaos expansion of the parameters of a shape function (sigmoid in the studied cases), have been constituted at several scales, in particular in order to reduce computation time of the underlying physical models. At the microscopic scale, the AAR model employed is that developed by Multon, Sellier and Cyr in 2009, initially comprising about twenty potential random variables. At the end of a Morris sensitivity analysis, the surrogate model enables to reproduce the expansion curve over time of the representative elementary volume as a function of nine random variables. The use of the built-in surrogate model in predicting the mechanical effects of AAR expansion on a concrete core required to take into account the anisotropy of these effects by improving the weight functions proposed by Saouma and Perotti in 2006. The core's scale being validated by the comparison of the predictions with the experimental data of Multon's thesis work, an application at the scale of the Song Loulou dam was undertaken. The computation of the thermo-chemo-mechanical behavior of a spillway stack, whose results in displacement could be compared with the auscultation data provided by the company AES-SONEL (now ENEO), was realized. Surrogate models were then constructed at the scale of the structure to obtain displacements at the points of interest, related to the operating limit states of the spillways, and thus to estimate the residual reliability of the dam. The sensitivity analysis computations as well as the construction of the surrogate models were implemented in Fortran, Java and OpenTURNS. Computations on concrete cores and Song Loulou dam spillway were performed under Cast3M.
20

Intégration des systèmes mécatroniques dans les systèmes d'information / Integration of mechatronic systems in information systems

Abid, Houssem 12 January 2015 (has links)
L’innovation industrielle tend vers des produits de plus en plus complexes de type mécatronique qui combine des domaines pluridisciplinaires. Les processus de conception de ces produits fait appel aux compétences d’acteurs issus des différents métiers et la création des différentes facettes des constituants nécessite l’utilisation d’outils spécialisés; pour autant il n’existe pas de véritable intégration globale au sein du système d'information permettant une gestion intégrée des différents savoir-faire et domaines de compétence malgré la capacité de certains systèmes comme le PLM. Ce travail présente une méthode de résolution générique. L'objet du présent document est de définir une approche globale pour l'intégration des données des systèmes mécatroniques dans un système PLM en utilisant une modélisation spécifique basé sur la caractérisation du cycle de vie et l'utilisation de SysML. Les premiers essais d’implémentation au sein du PLM Windchill, nous ont permis de valider qu’il était possible d’intégrer, avec une structure sémantique, des liens entre des objets métiers pluridisciplinaires. / Industrial innovation aims towards more complex Mecatronics products which combine multidisciplinary domains. The design process of these products leans on several multi-business. The creation of components' facets requires the use of specialized tools. However there is no real global integration within the information system allowing an integrated management of various know-how and fields of expertise, in spite of capabilities certain systems as PLM. This work presents a generic resolution method. The object of this paper is to present a global approach for the integration of Mecatronics systems into a PLM system using a specific modeling. The first implementation tests within Windchill PLM system shows that it was possible to integrate with a semantic structure, links between multidisciplinary business objects.

Page generated in 0.0495 seconds