• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 3
  • 2
  • Tagged with
  • 32
  • 32
  • 14
  • 14
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Modélisation et implémentation des patrons de conception

Tagmouti, Yousra January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
2

Contribution méthodologique à la maîtrise conjointe de la qualité d'un produit et de ses processus de production par une modélisation des concepts qualité

Deeb, Salah 06 March 2008 (has links) (PDF)
Depuis plusieurs années, le contexte de mondialisation et l'accroissement de la concurrence ont définis un nouvel ordre économique et industriel pour les entreprises de production de biens. En effet, ces entreprises sont quotidiennement confrontées à la maîtrise et à l'amélioration des performances de l'ensemble de leurs processus afin de garantir leur pérennité et leur compétitivité [Meunier 2003]. Dans cet environnement chaque entreprise se doit ainsi d'optimiser la satisfaction de sa clientèle par une amélioration du triptyque Qualité - Coût - Délai des produits. La qualité a été toujours un objectif important depuis que les hommes fabriquent les objets [Pillet 1993]. Elle est matérialisée par des enchaînements logiques d'activités qui concerne le processus, le produit, le client, ... L'organisation de certaines activités permet ainsi de représenter différents points de vue de la qualité : le management de la qualité, l'amélioration de la qualité, la maîtrise de la qualité, ... <br />La norme ISO 9000 :2000 [Afnor 2000] définit la qualité comme une « aptitude d'un ensemble des caractéristiques intrinsèques à satisfaire des exigences ». Cette qualité est considérée par [Dessinoz 2000] comme un processus d'entreprise intégré avec les autres processus tels que la production et la maintenance. Dans l'ingénierie système, la norme ISO/IEC 15288 classifie le processus de management de la qualité comme un des processus d'entreprise cohabitant avec les processus du projet, les processus contractuels et les processus techniques. L'objectif de ce processus dans l'ingénierie est donc d'assurer que les produits, services et processus du cycle de vie d'un système satisfont à la fois les objectifs qualité de l'entreprise et du client [ISO/IEC15288 2002].<br />Ainsi, au sens de l'Ingénierie Système (IS), le processus qualité est en lien avec plusieurs processus de différents types et n'est donc pas limité à une fonction particulière en entreprise [Lopez 2006] ou n'est pas sous la responsabilité d'un seul département [Gogue 2000]. En ce sens, la qualité se décline ainsi sur les niveaux stratégique, tactique et opérationnel de l'entreprise.<br />D'un point de vue stratégique, la qualité est considérée comme une démarche globale dans l'entreprise devant assurer la satisfaction de l'ensemble de ses partenaires. Ce niveau intègre toutes les activités qualité relatives à l'amélioration de la performance globale, à la certification selon la norme ISO 9000 ainsi qu'au management de la qualité en tant que démarche.<br />Du point de vue tactique, le processus qualité opère à ce niveau plus spécifiquement sur les processus de type techniques tels que la production et la maintenance. Il contient des activités relatives à la maîtrise de la qualité des produits et la qualité de processus de production au sens large. Cette activité doit être coordonnée avec les activités du niveau stratégique. <br />Enfin, le point de vue opérationnel a pour objectif de mettre en place les moyens et les actions pour vérifier que les résultats des processus techniques sont conformes aux exigences spécifiées en terme de qualité, réaliser les contrôles et traiter les non-conformités. Cette activité doit être coordonnée avec les activités du niveau tactique. <br />La collaboration versus intégration entre les niveaux soulève encore de nombreuses problématiques à la fois industrielles et scientifiques à ce jour pour faire du processus qualité, un véritable processus au sens système couvrant l'ensemble du cycle de vie du produit/processus. Par exemple des entreprises comme ALSTOM-Moteurs qui est à l'initiative de ces travaux, ont besoin de méthodologie (de guide) qui formalise et intègre la qualité principalement au niveau tactique (i.e. capacité décisionnelle confiée à des équipes autonomes) en relation avec les deux autres niveaux pour améliorer sa performance globale. L'objectif de cette méthodologie est de maîtriser conjointement la qualité du produit et la qualité de leurs processus de production dans une approche cycle de vie du processus de maîtrise de la qualité (de la conception jusqu'à l'exploitation). Relativement à ces besoins de formalisation et d'intégration, des méthodes, des méthodologies et des approches qualité existent à ce jour qui supportent tout ou partie du processus qualité inhérent à un niveau ou à l'interconnexion entre niveaux. Les méthodes, et les approches les plus couramment utilisées sont QFD, Six Sigma, AMDEC, ... <br />Une des approches significatives par rapport à la problématique d'intégration est le TQM (Total Quality Management) qui se positionne dans les différents niveaux structurels en entreprise [Rodney 2006]. Un des objectifs de cette approche qualité est d'améliorer et de maîtriser la qualité du processus de production pour maîtriser la qualité du produit. [Hellsten 2000] a défini le TQM comme un système de management constitué de trois composants qui sont mutuellement dépendants : « core values », méthodologies et outils/méthodes. Cette approche présente un intérêt particulier puisqu'elle permet d'intégrer, au sein des composantes, différentes méthodes et méthodologies qualité telles que QFD, AMDEC, SPC, ... Cependant, ces méthodes et méthodologies sont souvent « informelles » car décrites sous une base textuelle ou graphique [Dale 1990] [Juan 2004]. Elles ne contiennent donc pas une phase de formalisation des concepts qualité dans leur phase de conceptualisation indispensable pour la maîtrise et l'amélioration de la qualité [Marcotte 1995]. Aussi, les méthodologies applicables au niveau tactique permettent difficilement d'améliorer (maîtriser) simultanément la qualité du produit et la qualité de ses processus de production [Ettlie 1994]. De plus, la plupart de ces méthodologies sont applicables dans la phase de d'exploitation mais peu d'entre elles autre que le QFD [Govers 1996], le sont en conception [McClusky, 2000]. <br />Pour répondre simultanément aux besoins industriels genèse de cette thèse et au manque de formalisation préalablement mentionné, notre contribution porte sur la proposition d'une approche qualité générique permettant de formaliser le processus qualité au niveau tactique en intégration avec les autres niveaux opérationnel et stratégique en entreprise. Notre approche se positionne en cohérence avec une approche TQM dans l'objectif de maîtriser et d'améliorer conjointement la qualité du produit et la qualité de ses processus de production. Cette première formalisation (car ne couvrant pas tous les points de vue de la qualité) doit permettre de modéliser de façon générique le processus qualité de niveau tactique et ses interactions nécessaires pour en réaliser l'intégration à la fois avec les autres niveaux stratégiques et opérationnels mais aussi avec les autres processus tel que le processus maintenance pour assurer la performance globale en entreprise. Cette approche de formalisation s'intègre dans le cadre de modélisation Zachman [Zachman 1987] offrant une cohérence relativement aux différents modèles à réaliser. <br />Par rapport à cette formalisation, l'originalité de notre contribution réside dans une première unification, sous la forme de méta-modèles, des concepts qualité sur la base:<br />• de l'approche processus définit dans la norme ISO 9000 :2000 de « niveau tactique ». L'édition de la nouvelle version ISO 9000 :2005 n'impacte pas notre proposition dans le sens où les changements apportés à l'ancienne version ne concernent pas les concepts qualité modélisés dans notre approche qualité.<br />• de la fonction « management de qualité » telle que prôné par la norme IEC/ISO62264 «niveau management », <br />• de méthodes qualité telle que l'AMDEC, la MSP, l'APR, le Poka-yoké,<br />• de la modélisation d'indicateurs qualité.<br />Cette approche se veut donc exploitable de la conception à l'exploitation du processus de maîtrise de la qualité. Dans la phase de conception, notre contribution doit offrir un guide qui aide l'ingénieur qualité, d'abord pour, développer un modèle spécifique par une phase d'instanciation du méta-modèle support de la méthodologie (en cohérence avec le TQM), ensuite d'exécuter la méthode qualité adéquate au moment opportun, et finalement de calculer des indicateurs qualité (phase d'évaluation). Dans la phase d'exploitation, la connaissance formalisée et structurée dans le modèle spécifique (l'ensemble des instances) est directement transposable dans un formalisme compréhensible par l'opérateur sur site (i.e. pages Web) pour mieux suivre et anticiper les dérives qualité du produit/processus principalement sur les axes surveillance, diagnostic et action. Pour faciliter l'utilisation de notre approche qualité, nous avons proposé une automatisation de cette approche à l'aide l'outil MEGA. <br />Notre contribution est ainsi exposée dans ce manuscrit sous la forme de 4 chapitres complémentaires. Le premier chapitre introduit, dans un premier temps, une définition d'un processus qualité au sein de l'entreprise et des points de vue à ce processus. Certains points de vue sont repris pour introduire la problématique industrielle qui est la genèse de ces travaux de thèse. Ceci nous amène à positionner le processus qualité sur les différents niveaux structurels de l'entreprise en mettant en évidence un certain nombre de verrous scientifiques comme la modélisation et l'intégration du processus qualité dans l'entreprise afin de maîtriser et d'améliorer la qualité du produit/processus. Sur la base de ce positionnement, le deuxième chapitre nous permet de présenter un état de l'art recensant les travaux principaux sur les aspects « modèles, méthodes et méthodologies » liés à la formalisation et à l'intégration du processus qualité pour répondre à l'objectif d'une plus grande maîtrise et amélioration de la qualité conjointe produit/processus. Ce recensement met en évidence de réelles problématiques scientifiques non totalement résolues à ce jour pour satisfaire au besoin de formalisation et d'intégration. Ces manques justifient le contenu du chapitre 3 dédié à la définition de la méthodologie proposée (le guide) et qui se base sur un principe de méta-modélisation de concepts qualité garant de la généricité attendue. La méthodologie, construite sur 3 étapes, se positionne en cohérence avec le TQM et permet de formaliser l'interdépendance entre les trois composantes du TQM. Enfin le chapitre 4 décrit, d'une part, l'automatisation de cette méthodologie à l'aide de l'outil MEGA afin de la rendre accessible à tous ingénieurs qualité, et d'autre part, une faisabilité de cette méthodologie sur un cas d'application manufacturier de type tournage couvrant la phase de conception et d'exploitation. Le passage du méta-modèle au modèle spécifique (phase de conception) du processus de tournage est réalisé par une procédure d'instanciation supportée par l'outil.
3

Architecture pour les systèmes de déploiement logiciel à grande échelle : prise en compte des concepts d'entreprise et de stratégie

Merle, Noelle 01 December 2005 (has links) (PDF)
Le déploiement arrive en fin de cycle de vie du logiciel. Cette étape a pris une grande importance dans les entreprise ayant un grand nombre de machines à gérer : on parle alors de déploiement à grande échelle. Les entreprises souhaitent pouvoir automatiser cette étape, pour éviter d'avoir à répéter les mêmes étapes plusieurs fois. Cependant, elles souhaitent garder un certain contrôle sur les activités de déploiement, en imposant différentes contraintes (même version d'une application sur un groupe de machines, préférence pour des applications avec certaines caractéristiques, ordonnancement prioritaire, ...). Dans notre travail, nous définissons un méta-modèle de déploiement permettant d'automatiser le traitement des données liées au déploiement. Nous définissons aussi des stratégies de déploiement qui permettent aux entreprises de définir leur propres contraintes de déploiement, selon leurs besoins et leurs préférences.
4

Modélisation et implémentation des patrons de conception

Tagmouti, Yousra January 2008 (has links)
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal
5

Contribution à la construction de méta-modèles pour l’optimisation sous contraintes de critères énergétiques : application à la conception des bâtiments / Contribution to the use of surrogate models for constrained optimization of energy criteria : application to building design

Gengembre, Édouard 14 December 2011 (has links)
La recherche de la performance énergétique dans les bâtiments est devenue un objectif sociétal et réglementaire. De nos jours, un bâtiment doit assurer des conditions de confort, tout en limitant son impact énergétique et environnemental. Les demandes de performances sont telles qu’il n’est plus possible d’appliquer des solutions standards à l’ensemble du bâtiment. Un critère énergétique doit donc être pris en compte au plus tôt dans la conception, ce qui exige dès l’esquisse un travail de plus en plus lourd et complexe. Pour faciliter la prise en compte du critère énergétique, nous avons choisi une approche d’optimisation valorisant la mise en œuvre de la simulation énergétique du bâtiment (quelque soit la méthode de simulation choisie) afin de fournir un outil d’aide à la décision au concepteur à partir du métré et de l’esquisse. La thèse consiste au développement d’une méthodologie commençant par le développement d’un algorithme d’optimisation valorisant la construction séquentielle d’un Kriging sur des paramètres globaux du bâtiment qui permet de rendre le temps de calcul nécessaire compatible avec le contexte de conception d’un bâtiment. Le méta-modèle de Kriging construit peut ensuite être valorisé pour restituer les solutions optimales, permettre l’exploration de l’espace de solutions respectant les contraintes, et mettre en valeur la sensibilité énergétique du bâtiment face aux différents paramètres d’entrée. Le concepteur peut alors faire des choix constructifs optimisés, tout en conservant un certain espace de liberté, ou encore réaliser des modifications à postériori. La dernière étape consiste à inverser la relation liant les paramètres globaux choisis à l’ensemble des données élémentaires de l’ouvrage. L’ensemble de la démarche est appliqué au cas d’une cellule monozone de référence. / Contribution to the use of surrogate models for constrained optimization of energy criteria: application to building design
6

Modèles de mémoires d'entreprise avec intégration automatique d'informations / Organizational memories models with automatic integration of informations

Bascans, Jérémy 06 October 2017 (has links)
Aujourd'hui, les entreprises manipulent de gros volumes d'information qui ne cessent d'augmenter, toujours plus complexes et hétérogènes, autant dans leurs contenus que dans leurs structures. Ces informations, vitales pour le fonctionnement de ces entreprises, représentent aussi un capital de connaissances qui est souvent peu exploité. De ce fait, une attention particulière est portée aux systèmes de Mémoire d'Entreprise (ME). Ces mémoires ont pour objectif de capitaliser les informations produites et échangées par tous les acteurs internes et externes (Système d'Information (SI), employés, clients, fournisseurs, etc...) de l'entreprise dans le but de les représenter, de les partager et d'aider à la prise de décision collaborative. Les informations organisées, partagées et réutilisées, deviennent ainsi des connaissances organisationnelles. L'implantation d'une telle mémoire demande une forte implication de tous les acteurs en impactant directement leurs tâches et en nécessitant des modifications de leur SI. Dans ce contexte, l'objectif de cette thèse est de permettre la capitalisation automatique des informations en organisant, représentant et contextualisant automatiquement au mieux les informations, afin qu'elles puissent être partagées puis exploitées tout en limitant au maximum l'effort des acteurs. En plus d'impliquer les acteurs, les recherches actuelles se limitent souvent à des solutions spécifiques aux types d'entreprises et de mémoires. Afin de contribuer à lever ces limitations, nous proposons une approche de " Mémoire d'Entreprise Adaptative avec Intégration Automatique des Informations ", basée sur un réseau hétérogène étendu. Un premier niveau de cette approche propose un méta-modèle de ME corrélé à un processus d'intégration automatique des informations indépendant du type d'entreprise, du métier et ses acteurs. Afin d'aider tout type d'entreprise à construire sa ME à partir du méta- modèle, nous proposons, à un second niveau, un modèle générique et extensible lié à un algorithme d'intégration automatique des informations, nommé MEIAI pour Mémoire d'Entreprise avec Intégration Automatique des Informations. Ce modèle MEIAI a été implémenté et validé dans sa capacité à intégrer automatiquement de nouvelles informations d'une manière pertinente. Parce que Wikipédia est un important vecteur de connaissance basé sur la création collaborative véhiculant des valeurs de partage très fortes, nous avons choisi d'évaluer la capacité de notre prototype à organiser l'information de la même manière que lui. L'évaluation concerne le processus d'appariement automatique d'informations dont l'objectif est d'associer de manière intelligible, dans un cadre général non déterministe, les informations entre elles dans la mémoire. Pour ce faire, nous avons dans un premier temps évalué et comparé notre approche en liant des documents à des sujets d'intérêts de manière similaire à Wikipédia pour comparer les similarités et dissimilarités entre eux. Dans un second temps, nous avons procédé à une étude détaillée des dissimilarités au travers d'une évaluation par l'homme de l'organisation de l'information au sein de notre ME et de son intégration automatique. / Today, companies manipulate large volumes of information that are constantly increasing, always more complex and heterogeneous, in their content and their structures. This information, necessary for these enterprises' operation, represents a knowledge capital often not exploited. As a result, special attention is given to Organizational Memory (OM) systems. The purpose of these memories is to capitalize the information produced and exchanged by the internal and external actors (Information System (IS), employees, customers, suppliers, etc.) of the company with the aim of representing and sharing them while helping collaborative decision-making. Thereby organized, shared and reused information becomes organizational knowledge. The implementation of this memory requires a strong involvement of all stakeholders by directly impacting their tasks and requiring changes to their IS. In this context, this thesis objective is to enable the automatic capitalization of information by automatically organizing, representing and contextualizing the information so that they can be shared and exploited while minimizing the stakeholders' effort. In addition to involving stakeholders, current research is often limited to solutions specific to the companies and memories types. To help overcome these limitations, we propose an " Adaptive Organizational Memory with Automatic Integration of Information process ", based on an extended heterogeneous network. A first level of this approach proposes a meta-model of OM correlated to a process of automatic integration of information independent of the company type, the job and its stakeholders. In order to help any type of company to build its OM from the meta-model, we propose, at a second level, a generic and extensible model linked to an algorithm of automatic integration of the information, named OMAII for Organizational Memory with Automatic Integration of Information process. This OMAII model has been implemented and validated in its ability to automatically integrate new information in a relevant way. Because Wikipedia is an important vector of knowledge based on the collaborative creation based on very strong values of sharing, we chose to evaluate the capacity of our prototype to organize the information in the same way. The evaluation concerns the automatic information matching process of which the purpose is to intelligibly associate the information with each other in the memory in a non-deterministic general framework. To do this, we first evaluated and compared our approach by linking documents to interest subjects in a similar way to Wikipedia to compare similarities and dissimilarities between them. In a second step, we conducted a detailed study of the dissimilarities through a human evaluation of the information organization within our OM and its automatic integration.
7

Recherche de la performance en simulation thermique dynamique : application à la réhabilitation des bâtiments / Performance research with thermal dynamic simulation : application for buildings rehabilitation

Rabouille, Mickael 07 November 2014 (has links)
Le secteur du bâtiment est en évolution et se doit de répondre aux problématiques environnementales actuelles aussi bien dans la construction neuve que dans la réhabilitation. La simulation thermique offre le moyen de répondre à cette problématique, mais se limite à une estimation des performances spécifiques aux paramètres qui ont été définis. Ce travail de thèse propose une méthodologie basée sur les puissances de calcul actuelles pour évaluer le comportement du bâtiment sur différentes plages de variation des entrées. Ces variations permettront, en fonction des propriétés qui leur sont attribuées, de rechercher des solutions de réhabilitation ou d'évaluer l'incertitude sur les sorties du modèle thermique. Afin de réaliser cela, des méthodes d'analyse de sensibilité performantes sont utilisées à travers un outil d'analyse spécifiquement développé pour le logiciel de simulation EnergyPlus. Cet outil permet une évaluation quasi automatique du modèle énergétique de bâtiment via : des techniques d'échantillonnage éprouvées LHS et LP-Tau, des techniques d'analyse performante pour un nombre de simulations réduit RBD-FAST et RBD-SOBOL, une gestion avancée des entrées et sorties permettant une évaluation détaillée du bâtiment, quelle que soit sa géométrie. Les techniques d'analyse de sensibilité sont employées pour proposer une vision précise des principales relations présentes au sein du modèle. Pour répondre à la contrainte du coût de calcul, la recherche de solution est réalisée à travers un méta-modèle issu d'une décomposition en polynôme de chaos. Une interface graphique utilise cette approximation du modèle complexe du bâtiment pour proposer de façon instantanée une vision claire du comportement de chaque entrée sur les sorties, ainsi que leurs tendances et les plages de variation idéales afin de choisir des solutions. Il est possible de coupler la recherche de solution à l'analyse d'incertitude afin de proposer des solutions robustes et identifier les principales raisons d'un écart entre simulation et réalité. La méthodologie des travaux de thèse encourage à l'optimisation de la compréhension du modèle plus qu'à la recherche d'une solution particulière.L'objectif de la démarche est de fournir des outils d'analyse afin d'aider l'expert dans la recherche de solution et ainsi de mettre en place des représentations graphiques qui facilitent la compréhension du système bâtiment, pour un gain en transparence et l'intégration de nombreuses contraintes de projet. / The building sector is evolving and has to meet the current environmental issues in both new construction and rehabilitation. The thermal simulation provides the mean to address this problem, but the estimated performance is limited to a specific set of parameters that have been defined. This thesis proposes a methodology based on the increased computing power to assess the building behaviour on different ranges of the inputs variation. Depending on the properties allocated to them, the changes of the variations will allow to seek solutions to restore or to assess the uncertainty in the outputs of the thermal model. To achieve this, effective sensitivity analysis methods are used across an analysis tool specifically developed for the simulation software EnergyPlus. This tool allows an almost automatic evaluation of the energy model building thanks to the proven sampling techniques such as LHS and LP-Tau; the efficient analysis techniques like RBD-FAST and RBD-SOBOL in order to reduce the number of simulations; an advanced management of the inputs and the outputs for a detailed assessment of the building regardless of its geometry. The sensitivity analysis techniques are used to provide an accurate picture of these key relationships within the model. To meet the constraints of the computational cost, the search for a solution is achieved through a metamodel from a Polynomial Chaos Expansion PCE. A GUI uses the approximation of the complex model of the building to provide instantly a clear vision of the behaviour of each entry on the outputs, their trends and their ideal ranges of variation to choose solutions. It is possible to couple the search for a solution to the uncertainty analysis to provide robust solutions and identify the main reason for the gap between simulation and reality. The methodology of the PhD work promotes the optimization of the model understanding more than looking for a specific solution. The purpose of the approach is to provide analytical tools to assist the expert in the search for a solution and so, develop graphical representations that facilitate the understanding of the building system for a gain in transparency and integration of many design constraints.
8

Suivi en service de la durée de vie des ombilicaux dynamiques pour l’éolien flottant / Fatigue monitoring of dynamic power cables for floating wind turbines

Spraul, Charles 12 April 2018 (has links)
Le travail présenté vise à mettre en place une méthodologie pour le suivi en service de la fatigue mécanique pour l’ombilical dynamique d’un système EMR flottant. L’approche envisagée consiste à simuler à l’aide d’outils numériques la réponse de l’ombilical aux cas de chargement observés sur site. Le post-traitement des résultats de ces simulations devant permettre d’accéder à différentes quantités d’intérêt en tout point du câble. Pour quantifier et réduire l’incertitude sur la réponse calculée de l’ombilical ce dernier doit être instrumenté. Un certain nombre de paramètres du modèle numérique feront alors l’objet d’une calibration régulière pour suivre l’évolution des caractéristiques de l’ombilical susceptibles d’évoluer. Dans ce contexte ce manuscrit présente et compare différentes méthodes pour analyser la sensibilité de la réponse de l’ombilical aux paramètres susceptibles d’être suivis. L’objectif est notamment d’orienter le choix des mesures à mettre en oeuvre. L’analyse en composantes principales permet pour cela d’identifier les principaux modes de variation de la réponse de l’ombilical en réponse aux variations des paramètres étudiés. Différentes approches sont également envisagées pour la calibration des paramètres suivis,avec en particulier le souci de quantifier l’incertitude restante sur le dommage. Les méthodes envisagées sont coûteuses en nombre d’évaluations du modèle numérique et ce dernier est relativement long à évaluer. L’emploi de méta-modèles en substitution des simulations numériques apparait donc nécessaire, et là encore différentes options sont considérées. La méthodologie proposée est appliquée à une configuration simplifiée d’ombilical dans des conditions inspirées du projet FLOATGEN. / The present work introduces a methodology to monitor fatigue damage of the dynamic power cable of a floating wind turbine. The suggested approach consists in using numerical simulations to compute the power cable response at the sea states observed on site. The quantities of interest are then obtained in any location along the cable length through the post-treatment of the simulations results. The cable has to be instrumented to quantify and to reduce the uncertainties on the calculated response of the power cable. Indeed some parameters of the numerical model should be calibrated on a regular basis in order to monitor the evolution of the cable properties that might change over time. In this context, this manuscript describes and compares various approaches to analyze the sensitivity of the power cable response to the variations of the parameters to be monitored. The purpose is to provide guidance in the choice of the instrumentation for the cable. Principal components analysis allows identifying the main modes of power cable response variations when the studied parameters are varied. Various methods are also assessed for the calibration of the monitored cable parameters. Special care is given to the quantification of the remaining uncertainty on the fatigue damage. The considered approaches are expensive to apply as they require a large number of model evaluations and as the numerical simulations durations are quite long. Surrogate models are thus employed to replace the numerical model and again different options are considered. The proposed methodology is applied to a simplified configuration which is inspired by the FLOATGEN project.
9

Contribution de la modélisation informationnelle aux Processus de Conception et Réalisation de Produits Manufacturiers : vers une Ontologie Métier

Lombard, Muriel 09 October 2006 (has links) (PDF)
La conception collaborative s'attache à la mise en commun d'intérêts et d'acteurs divers dans le but d'atteindre un propos commun qui est le développement de produits via le partage d'informations, d'interactions et de connaissances avec un certain niveau de coordination entre ces activités variées. Pour supporter cette coopération, les fonctions, jalonnant le cycle de vie produit, doivent disposer d'une information à la fois complète, précise et mise à jour sur tous les aspects du produit, des moyens et procédés de production et des gammes. Cette information partagée peut être structurée ou non, géographiquement délocalisée, partielle voire incomplète, difficilement localisable ou identifiable, porteuse d'une sémantique différente selon le métier.<br />Mes travaux récents s'articulent essentiellement autour de la modélisation de connaissances multi-points de vue support au processus de conception et réalisation de produit manufacturier.<br />Dans ce contexte, mon projet de recherche, présenté dans mon mémoire d'HDR, vise à mettre en place un cadre de méga-modélisation englobant les concepts des différents modèles et méta-modèles, inhérents aux métiers rencontrés, mais aussi un certain nombre d'autres choses concourant à l'utilisation ad hoc de ce cadre de modélisation.
10

Intégration de modèles de jonctions dissipatives dans la conception vibratoire de structures amorties / Integration of dissipative joints models in the vibratory design of damped structures

Hammami, Chaima 14 October 2014 (has links)
La dissipation dans les systèmes mécaniques joue un rôle important dans la limitation des niveaux de vibrations qui peuvent causer des difficultés allant de l'inconfort jusqu'à la ruine des structures. L'amortissement intrinsèque des matériaux utilisés pour la fabrication de structures aéronautiques étant très faible, les jonctions représentent une des sources principales de dissipation. Dans le cadre du projet FUI MAIAS (Maitrise des Amortissements Induits dans les ASsemblages), les travaux présentés ici portent sur la maximisation de l'amortissement induit. Une grande partie des travaux de littérature s'intéressent à l'étude de jonctions élémentaires. On cherche donc ici à étudier la conception de jonctions dissipatives intégrées dans une structure globale. Pour limiter les applications, on se restreint plus particulièrement aux jonctions boulonnées rencontrées en construction aéronautique et à l'utilisation de matériaux viscoélastiques pour générer la dissipation.Une notion de couplage pour la mesure de la capacité des liaisons à dissiper est introduite pour s'assurer de leurs contributions au comportement vibratoire. En utilisant le couplage en tant que mesure de sensibilité des jonctions aux propriétés des matériaux viscoélastiques, en plus de l'étude de la tenue fonctionnelle d'une liaison boulonnée, une approche de conception de jonction boulonnée dissipative est alors développée. Une étude expérimentale est ensuite effectuée pour la valider. Lors de la compagne d‘essais, des défauts de forme ont été détectés dans la structure. L'influence de ces défauts, susceptibles d'exister dans les structures réelles, sur l'amortissement est alors décrite. L'intégration pour un grand nombre de modèles physiques, détaillés au voisinage des jonctions, dans un modèle d'ensemble est généralement une problématique. Une représentation simplifiée s'avère être alors nécessaire. Une réduction de modèle peut être alors appliquée sur la partie linéaire du système. Cependant, pour les non-linéarités localisées au niveau des jonctions, une construction de méta-modèle caractérisant les efforts transmis dans les liaisons est alors proposée. Différentes stratégies de construction de méta-modèle, reproduisant les déformations et les efforts principaux de liaisons, sont proposées et étudiées en supposant des liaisons à comportement viscoélastique. Un modèle cylindrique à dix jonctions boulonnées, plus représentatif de l'architecture réelle des structures aéronautiques est étudié pour illustrer le cas des liaisons répétées dont le chargement réel de chacune est beaucoup plus complexe que les structures simples couramment étudiées. / Dissipation in mechanical systems plays an important role in limiting vibrationlevels. The present work deals with maximizing damping induced by junctions and treatsjunctions integrated into an overall structure. After introducing the physical models used inrepresenting viscoelastic behavior, a first example introduces the concept of coupling. Coupling,estimated by preliminary calculations of elastic natural frequencies sensitivity, ensures thatjunctions sufficiently contribute to the global behavior to induce damping. To study this couplingas well as obtain accurate damping predictions by complex modes calculation, model reductionmethods, adapted to parameterized problems, are needed and different strategies are detailedand validated. A structure representing aeronautic construction is then used to illustrate theproposed damping design process. The study highlights the functional importance of thecohesive zone under the bolt and the possibility of using the residual flexibility of the joint tointroduce a viscoelastic layer enabling high damping. Experimental modal tests confirm thevalidity of the design and the predicted trends, but also show the influence of manufacturingdefects which limit the induced damping. The manuscript finally addresses the need forrepresentative models of detailed joints in overall models. Although model reduction is possibleand desirable, the construction of meta-models representing the main forces transmitted by thejoints is useful in modeling and necessary for the operation of elementary tests. Generalstrategies for defining principal deformations and loads are introduced and their validity isillustrated.

Page generated in 0.0357 seconds