• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 27
  • 3
  • 2
  • Tagged with
  • 32
  • 32
  • 14
  • 14
  • 8
  • 7
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Représentation de la variabilité des propriétés mécaniques d’un CMO à l’échelle microscopique : Méthodes de construction des distributions statistiques / Representation of CMO mechanical properties variability at the microscopic scale : Building methods of the statistical distributions

Chermaneanu, Raducu 15 February 2012 (has links)
Aujourd’hui, les matériaux composites sont très largement utilisés, notamment dans la réalisation de structures aéronautiques, grâce à leurs nombreux avantages fonctionnels. Leurs caractéristiques mécaniques spécifiques (propriétés/masse volumique) nettement supérieures à d’autres matériaux plus classiques, tels que l’acier ou l’aluminium et la réalisation de formes complexes, font de ces matériaux des candidats très compétitifs dans de nombreux secteurs au-delà de l’aéronautique. Toutefois, ces matériaux présentent à différentes échelles d’observation des sources de variabilité caractéristiques à chacune d’entre elles. Le procédé de fabrication des pièces ainsi que les propriétés des constituants élémentaires en sont les principaux responsables. Trois niveaux (ou échelles) d’observation sont usuellement considérés dans les matériaux composites : l’échelle microscopique (fibres et matrice), l’échelle mésoscopique (pli) et enfin l’échelle macroscopique (stratification de plis). Les sources de variabilité se propagent à travers les échelles et génèrent finalement des comportements mécaniques dispersés à l’échelle de la structure. La prise en considération de cette variabilité s’avère alors pertinente pour le concepteur, désireux d’obtenir un indicateur de la fiabilité du matériau ou de la structure composite qu’il conçoit. Pour cela, il est nécessaire de transférer à moindre coût de calcul cette variabilité dès l’échelle microscopique et jusqu’à l’échelle de la structure. La construction de lois de distribution des propriétés mécaniques équivalentes en fonction de la variabilité présente à chaque échelle est alors indispensable. L’objectif de ce travail de recherche a été d’élaborer des distributions du comportement homogénéisé du matériau à l’échelle des fibres et de la matrice en fonction de la variabilité existante à cette échelle. La réduction du temps de calcul nécessaire à leur obtention a été également visée. À partir d’une observation microscopique réalisée sur une coupe d’un CMO, la variabilité morphologique du milieu hétérogène a été caractérisée et six types différents de motifs d’arrangements de fibres regroupés en cellules ont ainsi été identifiés. Des cellules virtuelles, physiquement raisonnables, ont été générées et proposées pour établir des lois de distribution du comportement équivalent par type de cellule, en fonction des paramètres variables pertinents retenus à cette échelle. En ce qui concerne la réduction du temps de calcul nécessaire à l’élaboration de ces lois de distribution, une démarche reposant sur l’utilisation des réseaux de neurones a été proposée. Cette démarche a été illustrée sur une cellule de type 6 et pour un nombre de 1000 calculs EF de référence, afin d’apprécier la qualité de l’approximation ainsi que la diminution du temps de calcul. La réduction du temps de calcul s’est avérée significative. Le gain du temps a été d’environ 95 %. / Nowadays, composite materials are very widely used, notably in the domain of aeronautical structures, thanks to their numerous functional benefits. Their specific mechanical properties (properties/density) far superior to those of conventional materials, such as steel or aluminum and the realization of complex shapes, make these materials perfect candidates in many areas beyond aviation. However, these materials present at different observation scales sources of variability peculiar to each one. The manufacturing process and the properties of the elementary constituents are in fact the principal cause of these sources of variability. Three levels (or scales) of observation are usually considered regarding composite materials: the microscopic scale (fibers and matrix), the mesoscopic scale (ply) and finally the macroscopic scale (laminate material). The sources of variability propagate trough the scales and finally generate dispersed mechanical behaviors at the structure scale. Taking into consideration these sources is proved to be a relevant work by the designer, which in turn will allow him to calculate an indicator of the composite structure reliability that he is conceiving. To be able to do the latter work, it is necessary to transfer this variability at a lower computational cost from the microscopic level up to the structure scale. The construction of equivalent mechanical properties distributions according to the variability present at each scale is then essential. The objective of this research work was to build statistical distributions of the homogenized behavior of the material at the scale of fibers and matrix, according to the existing variability at this scale. Minimizing the computation time required for obtaining these distributions was another important objective. From a microscopic observation made on a section of a CMO, the morphological variability of the heterogeneous medium has been characterized and six different types of arrangements patterns of fibers grouped into cells have then been identified. Physically reasonable virtual cells have been developed and suggested, in order to build the equivalent behavior distribution by cell type, according to the relevant variables selected at this scale. Now, in order to minimize the computing time required for the creation of these distributions, an approach based on neural networks was proposed. This approach was used for a type 6 cell and for a number of 1000 FE calculations, in order to evaluate the quality of the approximation as well as the reduction of computation time. Hence, the reduction of the computation time was significant, at an approximate rate of 95 %.
22

Concevoir et partager des workflows d’analyse de données : application aux traitements intensifs en bioinformatique / Design and share data analysis workflows : application to bioinformatics intensive treatments

Moreews, François 11 December 2015 (has links)
Dans le cadre d'une démarche d'Open science, nous nous intéressons aux systèmes de gestion de workflows (WfMS) scientifiques et à leurs applications pour l'analyse de données intensive en bioinformatique. Nous partons de l'hypothèse que les WfMS peuvent évoluer pour devenir des plates-formes pivots capables d'accélérer la mise au point et la diffusion de méthodes d'analyses innovantes. Elles pourraient capter et fédérer autour d'une thématique disciplinaire non seulement le public actuel des consommateurs de services mais aussi celui des producteurs de services. Pour cela, nous considérons que ces environnements doivent à la fois être adaptés aux pratiques des scientifiques concepteurs de méthodes et fournir un gain de productivité durant la conception et le traitement. Ces contraintes nous amènent à étudier la capture rapide des workflows, la simplification de l'intégration des tâches techniques, comme le parallélisme nécessaire au haut-débit, et la personnalisation du déploiement. Tout d'abord, nous avons défini un langage graphique DataFlow expressif, adapté à la capture rapide des workflows. Celui-ci est interprétable par un moteur de workflows basé sur un nouveau modèle de calcul doté de performances élevées, obtenues par l'exploitation des multiples niveaux de parallélisme. Nous présentons ensuite une approche de conception orientée modèle qui facilite la génération du parallélisme de données et la production d'implémentations adaptées à différents contextes d'exécution. Nous décrivons notamment l'intégration d'un métamodèle des composants et des plates-formes, employé pour automatiser la configuration des dépendances des workflows. Enfin, dans le cas du modèle Container as a Service (CaaS), nous avons élaboré une spécification de workflows intrinsèquement diffusable et ré-exécutable. L'adoption de ce type de modèle pourrait déboucher sur une accélération des échanges et de la mise à disposition des chaînes de traitements d'analyse de données. / As part of an Open Science initiative, we are particularly interested in the scientific Workflow Management Systems (WfMS) and their applications for intensive data analysis in bioinformatics. We start from the assumption that WfMS can evolve to become efficient hubs able to speed up the development and the dissemination of innovative analysis methods. These software platforms could rally and unite not only the current stakeholders, who are service consumers, but also the service producers, around a disciplinary theme. We therefore consider that these environments must be both adapted to the practices of the scientists who are method designers and also enhanced with increased productivity during design and treatment. These constraints lead us to study the rapid capture of workflows, the simplification of technical tasks integration, like parallelisation and the deployment customization. First, we define an expressive graphic worfklow language, adapted to the quick capture of workflows. This is interpreted by a workflow engine based on a new model of computation with high performances obtained by the use of multiple levels of parallelism. Then, we present a Model-Driven design approach that facilitates the data parallelism generation and the production of suitable implementations for different execution contexts. We describe in particular the integration of a components and platforms meta-model used to automate the configuration of workflows’ dependencies. Finally, in the case of the cloud model Container as a Service (CaaS), we develop a workflow specification intrinsically re-executable and readily disseminatable. The adoption of this kind of model could lead to an acceleration of exchanges and a better availability of data analysis workflows.
23

Parallélisation de simulateur DEVS par métamodélisation et transformation de modèle / DEVS simulator parallelization by metamodeling and model transformation

Togo, Hamidou 23 December 2015 (has links)
Cette thèse propose une approche d’ingénierie consistant à paralléliser des simulateurs DEVS existants, sans être obligé de modifier les algorithmes de l’implémentation initiale, mais en injectant des composants additionnels adaptés au protocole de communication intercomposants en vigueur. Les algorithmes de simulation de ces nouveaux composants appelés « Manteaux », sont définis. Une démarche d’ingénierie permettant de systématiser le passage d’une implémentation à sa contrepartie parallèle et distribuée est ensuite proposée. Cette démarche s’appuie sur les principes de méta modélisation et de transformation de modèles inspirés de l’Ingénierie Dirigée par les Modèles (IDM). Sa généricité en garantit la réutilisabilité avec tout simulateur séquentiel DEVS. / This thesis proposes an engineering approach to parallelize existing DEVS simulators without having to modify the algorithms of the initial implementation, but by injecting additional components suitable for inter-component communication protocol into force. The simulation algorithms of these new components called "Coats" are defined.An engineering approach to systematize the passage from one implementation to its counterpart parallel and distributed is then proposed. This approach is based on metamodeling and models transformation principles inspired of Model Driven Engineering (MDE). Its genericity guarantees the reusability with any sequential DEVS simulator.
24

Faciliter le développement des applications de robotique / Ease the development of robotic applications

Kchir, Selma 26 June 2014 (has links)
L'un des challenges des roboticiens consiste à gérer un grand nombre de variabilités. Ces dernières concernent les concepts liés au matériel et aux logiciels du domaine de la robotique. Par conséquent, le développement des applications de robotique est une tâche complexe. Non seulement, elle requiert la maîtrise des détails de bas niveau du matériel et du logiciel mais aussi le changement du matériel utilisé dans une application entraînerait la réécriture du code de celle-ci. L'utilisation de l'ingénierie dirigée par les modèles dans ce contexte est une voie prometteuse pour (1) gérer les problèmes de dépendance de bas niveau des applications des détails de bas niveau à travers des modèles stables et (2) faciliter le développement des applications à travers une génération automatique de code vers des plateformes cibles. Les langages de modélisation spécifiques aux domaines mettent en oeuvre les techniques de l'ingénierie dirigée par les modèles afin de représenter les concepts du domaine et permettre aux experts de celui-ci de manipuler des concepts qu'ils ont l'habitude d'utiliser. Cependant, ces concepts ne sont pas suffisants pour représenter tous les aspects d'une application car ils très généraux. Il faudrait alors s'appuyer sur une démarche pour extraire des abstractions à partir de cas d'utilisations concrets et ainsi définir des abstractions ayant une sémantique opérationnelle. Le travail de cette thèse s'articule autour de deux axes principaux. Le premier axe concerne la contribution à la conception d'un langage de modélisation spécifique au domaine de la robotique mobile (RobotML). Nous extrayons à partir d'une ontologie du domaine les concepts que les roboticiens ont l'habitude d'utiliser pour la définition de leurs applications. Ces concepts sont ensuite représentés à travers une interface graphique permettant la représentation de modèles afin d'assurer une facilité d'utilisation pour les utilisateurs de RobotML. On offre ainsi la possibilité aux roboticiens de représenter leurs scénarios dans des modèles stables et indépendants des plateformes cibles à travers des concepts qu'ils ont l'habitude de manipuler. Une génération de code automatique à partir de ces modèles est ensuite possible vers une ou plusieurs plateformes cibles. Cette contribution est validée par la mise en oeuvre d'un scénario aérien dans un environnement inconnu proposé par l'ONERA. Le deuxième axe de cette thèse tente de définir une approche pour rendre les algorithmes résistants aux changements des détails de ba niveau. Notre approche prend en entrée la description d'une tâche de robotique et qui produit : un ensemble d'abstractions non algorithmiques représentant des requêtes sur l'environnment y compris le robot ou des actions de haut niveau , un ensemble d'abstractions algorithmiques encapsulant un ensemble d'instructions permettant de réaliser une sous-tâche de la tâche étudiée , algorithme générique configurable défini en fonction de ces abstractions. Ainsi, l'impact du changement du matériel et des stratégies définies dans les sous-tâches n'est pas très important. Il suffit d'adapter l'implantation de ces abstractions sans avoir à modifier l'algorithme générique. Cette approche est validée sur six variantes d'une famille d'algorithmes de navigation appelée Bug. / One of the challenges of robotics is to manage a large number of variability. The latter concerns the concepts related to hardware and software in the field of robotics. Therefore, the development of robotic applications is a complex task. Not only it requires mastery of low-level details of the hardware and software but also if we change the used hardware in an application, this would impact the code. The use of model-driven engineering in this context is a promising way to (1) manage low-level dependency problems through stable models and (2) facilitate the development of applications through automatic code generation to target platforms . Domain Specific Modeling Languages implement the model driven engineering technologies to represent the domain concepts and enable experts to manipulate concepts they are used to use. However, these concepts are not sufficient to represent all aspects of an application because they are very general. We would then use an approach to extract abstractions from concrete use cases and thus define abstractions with an operational semantics. The work of this thesis focuses on two main axes. The first concerns the contribution to the design of a domain specific modeling language for mobile robots (RobotML). We extract from a domain ontology concepts that roboticists have used to use to define their applications. These concepts are then represented through a graphical interface representation model to ensure ease of use for RobotML users. An automatic code generation from these models can then be performed to one or more target platforms. This contribution is enabled by setting implement an air scenario, in an unknown environment, proposed by ONERA. The second focus of this thesis attempts to define an approach to make the algorithms resistant to the change of low-level details. Our approach takes as input a description of a task and produces robotic : a set of non-algorithmic abstractions representing queries on environnment (including robot) or high-level actions, a set of algorithmic abstractions encapsulating a set of instructions to perform a sub-task of the studied task, a generic configurable algorithm defined according to these abstractions. Thus, the impact of changing hardware and strategies defined in the sub-tasks is not very important. Simply adapt the implementation of these abstractions without changing the generic algorithm. This approach is validated on six variants of a navigation algorithms family called Bug.
25

Équation d’état de la matière à densité supranucléaire et application à l’émission thermique des étoiles compactes / Equation of state of matter at supra-nuclear density and application to the thermal emission of neutron stars

Baillot d'Étivaux, Nicolas 04 October 2018 (has links)
Cette thèse porte sur la modélisation théorique de l'équation d’état (EE) décrivant la matière nucléaire présente dans le coeur des étoiles à neutrons (EN), sous l'hypothèse qu'aucune transition de phase ne s'y produise. Nous utilisons un méta-modèle permettant i) d’incorporer directement les connaissances en physique nucléaire sous la forme de paramètres empiriques tels que la densité de saturation nucléaire, l’incompressibilité, l’énergie de symétrie; ii) de reproduire la plupart des modèles nucléoniques existants; et iii) d’explorer les régions inconnues à haute densité de façon la plus large possible. Pour chaque EE, nous déterminons un ensemble de solutions pour la masse et le rayon des EN, et nous effectuons une première sélection des EE compatibles avec la stabilité et la causalité de la matière nucléaire, ainsi que la masse maximale connues des EN. Nous confrontons ensuite ces EE aux observations d’émission thermique dans la gamme des rayons-X pour 7 EN soigneusement choisies. Pour la première fois, la modélisation théorique des EE est directement introduite dans l’analyse des données. Nous utilisons les dernières mesures effectuées par GAIA II pour fixer la distance des EN. Les paramètres du modèle d’émission thermique et de l’EE sont déterminés selon une méthode Bayésienne basée sur un algorithme Monte-Carlo par Chaîne de Markov. Nous déterminons ainsi la température de surface, la masse et le rayon des EN, ainsi que sur la valeur de certains paramètres empiriques tels que la dépendance en densité de l'énergie de symétrie (Lsym), la contribution isovectorielle au module d’incompressibilité (Ksym) ou encore le paramètre de distorsion isoscalaire (Qsat) / This thesis concerns theoretical modeling of the equation of state (EoS) describing nuclear matter in the core of neutron stars (NS), under the hypothesis that no phase transition occurs. We use a meta-model which is able to i) directly incorporate nuclear physics knowledge on the form of empirical parameters such as the nuclear saturation density, the incompressibility or the symmetry energy; ii) reproduce most of the existing models; iii) explore new behaviors at high densities in a very flexible way. For each EoS, we determine a set of solutions for the masses and radii of NS, and we make a first selection of the EoS that are compatible with the stability and causality constraints, as well as the maximum observed mass of NS. Then we confront these EoS to observational data coming from thermal emission in the soft X-ray domain, for 7 NS carefully chosen. For the first time, the theoretical modeling of the EoS is directly implemented in the data analysis. We use the recent measurments of GAIA II to constrain the distance to the NS. The parameters of the modeling of thermal emission as well as the empirical parameters entering in the EoS are determined by Bayesian methods using a Monte-Carlo by Morkov Chain algorithm. Therefore, we determine the surface effective tempreature, the masses and radii of NS, as well as some empirical nuclear parameters such as the density dependance of the symmetry energy (Lsym), the isovector incompressibility (Ksym), or the isoscalar squewness (Qsat)
26

Modélisation du Système Musculosquelettique des Membres Inférieurs : Modèle Biomécanique vs. Méta Modèle

Dao, T.T. 04 December 2009 (has links) (PDF)
La compréhension du fonctionnement du corps humain est un challenge de recherche an de prendre une décision médicale (le diagnostic, le traitement) adéquate dans le cas des pathologies liées au syst ème musculosquelettique. Pour faire face à cette problématique, dans un premier temps, un modèle biomécanique a été développé décrivant la dynamique du mouvement avec prise en considération des caractéristiques géométriques (os et muscles) et mécaniques du système musculo-squelettique. Une étude de sensibilité de ces paramètres géométriques à partir des données de la littérature a montré l'importance de la personnalisation des ces paramètres. En application, un cas d'étude clinique d'un sujet présentant une pathologie (Heine-Medin (polio)) a été étudié. Deux modèles personnalisés (un sujet sain et un sujet pathologique) ont été réalisés. Les résultats obtenus ont montré l'intérêt d'une modélisation personnalisée pour évaluer et concevoir des orthèses personnalisés. Dans un deuxième temps, nous avons proposé une nouvelle classe de modèle - un méta modèle (Système d'Aide à la Décision) - intégrant des résultats du domaine de l'ingénierie des connaissances pour prédire, diagnostiquer, classer et proposer un traitement des pathologies du système musculo-squelettique des membres inférieurs (anomalies rotationnelles (AR), enfants PC (Paralysie Cérébrale), pied bot). La modélisation de ce méta modèle se base sur les modèles mathématiques prédictifs pour prendre une décision médicale (une prédiction, un diagnostic, ou une classi cation). Le but nal est de dégager un résultat cliniquement applicable. Ce système est générique, exible, et extensible et permet donc l'étude et l'analyse de pathologies diverses du système musculosquelettique des membres inférieurs. Enn, une comparaison de ces deux approches de modélisation a été eectuée an d'évaluer leur complémentarité pour une utilisation clinique.
27

Méthodes et applications industrielles en optimisation multi-critère de paramètres de processus et de forme en emboutissage

Oujebbour, Fatima Zahra 12 March 2014 (has links) (PDF)
Face aux exigences concurrentielles et économiques actuelles dans le secteur automobile, l'emboutissage a l'avantage, comme étant un procédé de mise en forme par grande déformation, de produire, en grandes cadences, des pièces de meilleure qualité géométrique par rapport aux autres procédés de fabrication mécanique. Cependant, il présente des difficultés de mise en œuvre, cette dernière s'effectue généralement dans les entreprises par la méthode classique d'essai-erreur, une méthode longue et très coûteuse. Dans la recherche, le recours à la simulation du procédé par la méthode des éléments finis est une alternative. Elle est actuellement une des innovations technologiques qui cherche à réduire le coût de production et de réalisation des outillages et facilite l'analyse et la résolution des problèmes liés au procédé. Dans le cadre de cette thèse, l'objectif est de prédire et de prévenir, particulièrement, le retour élastique et la rupture. Ces deux problèmes sont les plus répandus en emboutissage et présentent une difficulté en optimisation puisqu'ils sont antagonistes. Une pièce mise en forme par emboutissage à l'aide d'un poinçon sous forme de croix a fait l'objet de l'étude. Nous avons envisagé, d'abord, d'analyser la sensibilité des deux phénomènes concernés par rapport à deux paramètres caractéristiques du procédé d'emboutissage (l'épaisseur du flan initial et de la vitesse du poinçon), puis par rapport à quatre (l'épaisseur du flan initial, de la vitesse du poinçon, l'effort du serre flan et le coefficient du frottement) et finalement par rapport à la forme du contour du flan. Le recours à des méta-modèles pour optimiser les deux critères était nécessaire.
28

Méta-modèles réduits et séparés du comportement de balayage d'un moteur Diesel 2-temps pour l'exploration évolutionnaire des espaces de solutions / Reduced and separated meta-models of the scavenging by ports in 2-stroke Diesel engines to use evolutionary algorithms in search space

Cagin, Stéphanie 09 December 2015 (has links)
L’utilisation de techniques numériques lors de la conception d’un produit s’est largement généralisée au cours des 30 dernières années. Pourtant, la lenteur des calculs et la spécialisation des modèles numériques restent problématiques.Nous avons donc choisi de développer des modèles réduits du comportement de balayage sur un moteur Diesel 2-temps à lumières. Ces modèles sont analytiques, génériques, rapides d’utilisation et permettent d’éliminer les problématiques de traitement numérique. Ils sont aussi des instruments performants dans la recherche de solutions de conception. Une modélisation CFD 2D a tout d’abord été développée pour servir de bases de données, avec la définition des paramètres primordiaux à suivre pour quantifier un balayage optimal.Le travail de recherche a dévoilé une méthodologie nouvelle fondée sur un méta-modèle du comportement dit « neuro-séparé » comprenant un modèle neuronal d’état, un modèle neuronal pseudo-dynamique et un modèle à variables séparées. Ensuite, un processus d'aide à la décision exploitant les modèles précédents a été mis en place au travers d’un processus d’optimisation évolutionnaire (fondé sur les algorithmes génétiques) puis de la simulation comportementale rapide des solutions optimales de conception par un krigeage.La démarche de conception multipoints de vue, multi-critères et multi-physiques appliquée au moteur intègre aussi une dimension cognitive : l’exploration évolutionnaire des espaces de solutions a été menée de façon libre et forcée. Afin de valider notre approche, nous avons mis en place des critères de qualification appliqués à chacun de nos modèles, permettant de quantifier les écarts visà-vis de la base initiale CFD qui a fondé nos modèles réduits.Notre démarche a mené à la création d’un outil d’aide à la modélisation et à la décision exploitant les modules Python et Matlab développés. / The use of numerical methods to design a product became more and more commonover the past 30 years. However, numerical models are still specialized and they do not run fastwhich make their use problematic. So some reduced models of scavenging have been developed. These models are analytical andgeneric; they run quickly and avoid the numerical treatment problems. They are also some efficienttools in the search of design solutions.The work carried out has led to a new methodology based on a behavioral meta-model called“neuro-separated” including a neuronal model of state, a pseudo-dynamic neuronal model and amodel with separated variables. Then, a process of decision aids exploiting the models previouslydeveloped in evolutionary algorithms (genetic algorithms) and the fast behavioral simulation of theoptimal design solutions thanks to the kriging approach.This design approach is multi-viewpoints, multi-criteria and multi-physics. It also includes acognitive dimension: both free and controlled evolutionary explorations of solution spaces have beendone. To validate the method, some qualification criteria have been evaluated for each model. Theyallow to understand and to assume the gap between the reduced models and the initial CFD base(where the model are coming from). Our approach has led to the development of a tool of model and decision aids using Python and Matlab software programs.
29

Méthodes et applications industrielles en optimisation multi-critère de paramètres de processus et de forme en emboutissage / Methods and industrial applications in multicriteria optimization of process parameters in sheet metal forming

Oujebbour, Fatima Zahra 12 March 2014 (has links)
Face aux exigences concurrentielles et économiques actuelles dans le secteur automobile, l'emboutissage a l'avantage, comme étant un procédé de mise en forme par grande déformation, de produire, en grandes cadences, des pièces de meilleure qualité géométrique par rapport aux autres procédés de fabrication mécanique. Cependant, il présente des difficultés de mise en œuvre, cette dernière s'effectue généralement dans les entreprises par la méthode classique d'essai-erreur, une méthode longue et très coûteuse. Dans la recherche, le recours à la simulation du procédé par la méthode des éléments finis est une alternative. Elle est actuellement une des innovations technologiques qui cherche à réduire le coût de production et de réalisation des outillages et facilite l'analyse et la résolution des problèmes liés au procédé. Dans le cadre de cette thèse, l'objectif est de prédire et de prévenir, particulièrement, le retour élastique et la rupture. Ces deux problèmes sont les plus répandus en emboutissage et présentent une difficulté en optimisation puisqu'ils sont antagonistes. Une pièce mise en forme par emboutissage à l'aide d'un poinçon sous forme de croix a fait l'objet de l'étude. Nous avons envisagé, d'abord, d'analyser la sensibilité des deux phénomènes concernés par rapport à deux paramètres caractéristiques du procédé d'emboutissage (l'épaisseur du flan initial et de la vitesse du poinçon), puis par rapport à quatre (l'épaisseur du flan initial, de la vitesse du poinçon, l'effort du serre flan et le coefficient du frottement) et finalement par rapport à la forme du contour du flan. Le recours à des méta-modèles pour optimiser les deux critères était nécessaire. / The processing of sheet metal forming is of vital importance to a large range of industries as production of car bodies, cans, appliances, etc. It generates complex and precise parts. Although, it is an involved technology combining elastic-plastic bending and stretch deformation of the workpiece. These deformations can lead to undesirable problems in the desired shape and performance of the stamped. To perform a successful stamping process and avoid shape deviations such as springback and failure defects, process variables should be optimized.In the present work, the objective is the prediction and the prevention of, especially, springback and failure. These two phenomena are the most common problems in stamping process that present much difficulties in optimization since they are two conflicting objectives. The forming test studied in this thesis concern the stamping of an industrial workpiece stamped with a cross punch. To solve this optimization problem, the approach chosen was based on the hybridization of an heuristic and a direct descent method. This hybridization is designed to take advantage from both disciplines, stochastic and deterministic, in order to improve the robustness and the efficiency of the hybrid algorithm. For the multi-objective problem, we adopt methods based on the identification of Pareto front. To have a compromise between the convergence towards the front and the manner in which the solutions are distributed, we choose two appropriate methods. This methods have the capability to capture the Pareto front and have the advantage of generating a set of Pareto-optimal solutions uniformly spaced. The last property can be of important and practical.
30

Proposition d'un cadre méthodologique pour le management intégré des risques et des processus d'entreprise / A Methodological framework for the integrated management of risks and business processes

Sienou, Amadou 26 June 2009 (has links)
L'ingénierie d'entreprise conçoit et met en application des projets d'amélioration de la structure et du fonctionnement des organisations de production de biens ou de services. Elle développe des démarches fondées sur la modélisation, en particulier la modélisation des processus métiers, pour assurer une qualité et une cohérence d'ensemble des projets. Aujourd'hui, la prise en compte du risque en ingénierie d'entreprise fait l'objet de nombreux développements, liés à un environnement perçu comme de plus en plus agressif et imprévisible. Des cadres de référence sont même publiés pour guider les entreprises dans ces nouvelles dimensions du pilotage de l'organisation autour du risque. Notre étude se consacre à la conception des processus métier dirigée par les risques comme une composante à part entière de l'ingénierie d'entreprise. Après avoir fait une synthèse des connaissances sur les univers du risque et des processus, un problème d'intégration de ces connaissances est formulé. Un cadre méthodologique pour le management intégré des risques et des processus est ainsi conçu et décrit. Il repose sur la coordination des cycles de vie de la gestion des risques et de la gestion des processus métier, sur la définition d'un cadre conceptuel unifié permettant d'identifier et de maîtriser les informations échangées entre eux, et enfin sur un langage de modélisation adapté à une description des situations et étendant les capacités d'un outil de modélisation du marché (ARIS Business Architect). Un cas d'études du domaine de la santé vient illustrer le bien fondé de l'application de ce cadre méthodologique sur un cas concret. / Enterprise engineering is concerned with the design of projects which aim to improve the structure and behaviour of organisations producing goods and services. It develops approaches based on modelling techniques, particularly on business process modelling in order to assure the quality and the global consistency of the project portfolio. Nowadays, risk consideration in enterprise engineering is a growing importance since the business environment is becoming more and more competitive and unpredictable. In fact, reference frameworks providing guidance for enterprise risk management are developed to tackle this. Our research focuses on risk driven business process design as an integral part of enterprise engineering. After delivering a synthesis of work related to risks and business processes, a research question concerning the integration of both has been addressed. A framework for the integrated management of risks and business processes is suggested. It is based on three components: a coordination of risk and business process management lifecycles, a unified conceptual framework supporting information exchanges between the coordinated lifecycles, and finally a modelling language adapted to the description of risky situations. The later extends the features of a commercial modelling tool (ARIS Business Architect). A case study from the health sector illustrates the foundation of the methodological framework.

Page generated in 0.031 seconds