• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 21
  • 2
  • 1
  • Tagged with
  • 25
  • 19
  • 14
  • 13
  • 13
  • 10
  • 9
  • 8
  • 7
  • 5
  • 5
  • 5
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Application des méthodes fiabilistes à l'analyse et à la synthèse des tolérances / Application of reliable methods to the analysis and synthesis of tolerances

Beaucaire, Paul 29 November 2012 (has links)
En conception de systèmes mécaniques, la phase de cotation fonctionnelle consiste à affecter des cotes, constituées d’une valeur nominale et d’un intervalle de tolérance, à des dimensions de pièces. En particulier, l’analyse des tolérances consiste à vérifier que les intervalles de tolérance choisis permettent le respect de la fonctionnalité du mécanisme. A l’inverse, la synthèse des tolérances vise à déterminer ces intervalles de tolérance, si possible de manière optimale, permettant le respect des exigences fonctionnelles. Les approches statistiques traditionnelles, bien que très utiles en phase de préconception, ne sont pas capables d’estimer avec précision le risque de non qualité. Cette thèse aborde ces problèmes selon un angle de vue différent, non plus pour garantir le respect d’exigences fonctionnelles, mais pour garantir le Taux de Non-Conformité (TNC) du mécanisme. Il s’agit de la probabilité que l’exigence fonctionnelle ne soit pas respectée. Les méthodes fiabilistes, s’appuyant sur la théorie des probabilités, permettent un calcul précis et efficace de cet indicateur. L’objectif de cette thèse est d’explorer le domaine de l’analyse et de la synthèse des tolérances afin d’identifier et d’exposer les apports des méthodes fiabilistes sur ces problématiques. Dans ces travaux de thèse, différents outils fiabilistes sont mis à disposition permettant l’analyse des tolérances de tous types de mécanismes avec ou sans jeu. La théorie probabiliste permet une modélisation très complète des dimensions des pièces. En particulier, l’approche APTA (Advanced Probability-based Tolerance Analysis of products) est développée afin de prendre en compte l’évolution aléatoire de certains paramètres de modélisation, notamment les décalages de moyenne, responsables de fortes variations du TNC. L’analyse des tolérances étant plus complexe pour les mécanismes avec jeux, une méthodologie spécifique a été développée basée sur une décomposition en situations de points de contacts et l’utilisation d’une méthode fiabiliste système. Différents indices de sensibilité sont aussi proposés afin d’aider à identifier les cotes ayant le plus d’influence sur le TNC d’un mécanisme. Enfin, l’optimisation du coût de production, sous contrainte de TNC, permet une synthèse des tolérances optimale. Les gains potentiels en termes de coût dépassent 50% par rapport aux conceptions initiales tout en maitrisant le niveau de qualité du produit. Les sociétés RADIALL SA et VALEO Système d’Essuyages, concepteurs et fabricants de produits pour l’automobile et l’aéronautique, ont proposé des cas d’études sur lesquels est démontrée la pertinence des travaux effectués. Sur la base de ces travaux, Phimeca Engineering, spécialisée dans l’ingénierie des incertitudes, développe et commercialise un outil informatique professionnel. / To design mechanical systems, functional dimensioning and tolerancing consists in allocating a target value and a tolerance to part dimensions. More precisely, tolerance analysis consists in checking that chosen tolerances allow the mechanism to be functional. In the opposite, the tolerance synthesis goal is to determine those tolerances, optimaly if possible, such as functional requirements are respected. Traditional statistical approaches are very useful in pre-design phases, but are incapable of estimating precisely non-quality risks. This PhD thesis adresses this problem from a different point of view. The objective is no longer to respect functional requirements but to guarantee the Non-Conformity Rate (NCR) of the mechanism. It is the probability that the functional requirement is not respected. Reliability methods, based on probabilistic theory, allow a precise and efficient calculation of the NCR. The main goal of this thesis is to explore tolerance analysis and synthesis domains in order to identify potential contributions of reliability methods to these issues. In this work, different reliability tools are provided enabling tolerance analysis of all kind of mechanisms with or without gaps. The probability theory allows a detailed modeling of parts dimensions. In particular, the APTA (Advanced Probability-based Tolerance Analysis of products) approach is designed to take into account random variations of some parameters such as mean shifts which influence highly the NCR. As tolerance analysis is more complex for mechanisms with gaps, a specific method is designed based on a decomposition of contact points situations and the use of a reliability system method. Several sensitivity indexes are also proposed to identify the leading dimensions on the NCR. The optimization of the production cost, under a NCR constraint, enables an optimal tolerance synthesis. The potential benefits in terms of costs exceed 50% compared to initial designs while keeping under control quality levels of products. Companies RADIALL SA and VALEO Wiping Systems, designers and manufacturers of products for the automotive and aeronautic industries, have provided case studies on which is demonstrated the relevance of the presented work. Based on this work, the company Phimeca Engineering, specialized in uncertainties, is developing and commercializing a professional computer tool.
12

Stratégies de mise en oeuvre des polytopes en analyse de tolérance / STRATEGIES OF POLYTOPES IMPLEMENTATION IN TOLERANCE ANALYSIS

Homri, Lazhar 13 November 2014 (has links)
En analyse de tolérances géométriques, une approche consiste à manipuler des polyèdres de R' issus d’ensembles de contraintes linéaires. La position relative entre deux surfaces quelconques d'un mécanisme est déterminée par des opérations (somme de Minkowski et intersection) sur ces polyèdres. Ces polyèdres ne sont pas bornés selon les déplacements illimités dus aux degrés d’invariance des surfaces et aux degrés de liberté des liaisons.Dans une première partie sont introduits des demi-espaces "bouchons" destinés à limiter ces déplacements afin de transformer les polyèdres en polytopes. Cette méthode implique de maîtriser l’influence des demi-espaces bouchons sur la topologie des polytopes résultants. Ceci est primordial pour garantir la traçabilité de ces demi-espaces dans le processus d’analyse de tolérances.Une seconde partie dresse un inventaire des problématiques de mise en oeuvre numérique des polytopes. L’une d’entre elles repose sur le choix d’une configuration de calcul (point et base d’expression, coefficients d’homogénéisation) pour définir un polytope. Après avoir montré que le changement de configuration de calcul est une transformation affine, plusieurs stratégies de simulations sont déclinées afin d’appréhender les problèmes de précision numérique et de temps de calculs. / In geometric tolerancing analysis area, a classical approach consists in handling polyhedrons coming from sets of linear constraints. The relative position between any two surfaces of a mechanism is determined by operations (Minkowski sum and intersection) on these polyhedrons. The polyhedrons are generally unbounded due to the inclusion of degrees of invariance for surfaces and degrees of freedom for joints defining theoretically unlimited displacements.In a first part are introduced the cap half-spaces to limit these displacements in order to transform the polyhedron into polytopes. This method requires controlling the influence of these additional half-spaces on the topology of calculated polytopes. This is necessary to ensure the traceability of these half-spaces through the tolerancing analysis process.A second part provides an inventory of the issues related to the numerical implementation of polytopes. One of them depends on the choice of a computation configuration (expression point and base, homogenization coefficients) to define a polytope. After proving that the modification of a computation configuration is an affine transformation, several simulation strategies are listed in order to understand the problems of numerical precision and computation time.
13

Déploiement du tolérancement inertiel dans la relation client fournisseur.

Denimal, Dimitri 19 November 2009 (has links) (PDF)
Lors de la phase d'industrialisation, l'allocation des tolérances fait partie des étapes clés qui permettront de produire des assemblages dont les performances sont conformes et homogènes à l'ensemble des exigences fonctionnelles spécifiées par le cahier des charges. Depuis toujours, l'approche traditionnelle des tolérances et de leur allocation sous la forme d'une bilimite présente certaines incohérences. En 2002, Pr M.Pillet a suggéré une solution à ces incohérences, l'inertie. Ce travail de thèse est une continuation à ceux de Pr M Pillet et de PA Adragna. Ce travail s'articule en cinq chapitres. Le premier chapitre revient sur l'apport de l'inertie et introduit les travaux développés dans la thèse. Le second propose une analyse de la performance de la carte de contrôle inertielle avec dérive et formalise les conditions d'utilisation des différentes variantes dans un contexte industriel. Le troisième chapitre aborde l'inertie dans un contexte 3D en comparant les trois définitions de l'inertie 3D proposées dans les travaux antérieurs. Le quatrième développe une nouvelle approche de tolérancement de surface, appelée inertie totale et propose en cohérence avec cette définition un outil permettant de donner les réglages optimums pour minimiser l'inertie totale d'une pièce. Le dernier chapitre conclut par une proposition de tolérancement d'un assemblage de surface par une approche inertielle statistique. Ce dernier suppose une variation rigide des défauts des surfaces, et n'intègre pas la notion de jeu de l'assemblage. Il porte explicitement sur la notion de variance et de covariance liée à la structure du mécanisme et introduit un indicateur de capabilité de dimensions n
14

Polyhedral models reduction in geometric tolerance analysis / Réduction de modèles polyédriques pour l’analyse de tolérances géométriques

Arroyave-Tobón, Santiago 10 November 2017 (has links)
L’analyse de tolérances par des ensembles de contraintes repose sur la détermination de l’accumulation de variations géométriques par des sommes et intersections d’ensembles opérandes 6d. Les degrés de liberté des liaisons et les degrés d’invariance des surfaces génèrent des opérandes non-bornés (polyèdres), posant des problèmes de simulation. En 2014, L. Homria proposé une méthode pour résoudre ce problème, consistant à ajouter des limites artificielles(contraintes bouchon) sur les déplacements non-bornés. Même si cette méthode permet la manipulation d’objets bornés (polytopes), les contraintes bouchon augmentent la complexité des simulations. En réponse à cette difficulté, une méthode dérivée est proposée dans cette thèse.Cette méthode consiste à tracer et simplifier les contraintes bouchon au travers des opérations.Puis une seconde stratégie basée sur la décomposition d’un polyèdre en une somme d’un polytope et de lignes droites (associées aux déplacements non-bornés). Cette stratégie consiste à simuler d’une part les sommes de droites, et d’autre part, à déterminer la somme de polytopes dans un sous-espace de dimension inférieur à 6. Ces trois stratégies sont comparées au travers d’une application industrielle. Cela montre que la traçabilité des contraintes bouchons est un aspect fondamental pour contrôler leur propagation et pour réduire le temps de calcul des simulations. Toutefois, cette méthode exige encore de déterminer les limites des déplacements non-bornés. La deuxième méthode, adaptant systématiquement la dimension de l’espace de calcul, elle permet de diminuer davantage le temps de calcul. Ce travail permet d’envisager la mise en oeuvre de cette méthode selon des formulations statistiques avec la prise en compte des défauts de forme des surfaces. / The cumulative stack-up of geometric variations in mechanical systems can be modelled summing and intersecting sets of constraints. These constraints derive from tolerance zones or from contact restrictions between parts. The degrees of freedom (DOF) of jointsgenerate unbounded sets (i.e. polyhedra) which are difficult to deal with. L. Homri presented in 2014 a solution based on the setting of fictitious limits (called cap constraints) to each DOFto obtain bounded 6D sets (i.e. polytopes). These additional constraints, however, increase the complexity of the models, and therefore, of the computations. In response to this situation,we defined a derived strategy to control the effects of the propagation of the fictitious limits by tracing and simplifying the generated, new cap constraints. We proposed a second strategy based on the decomposition of polyhedra into the sum of a polytope and a set of straight lines.The strategy consists in isolating the straight lines (associated to the DOF) and summing the polytopes in the smallest sub-space. After solving an industrial case, we concluded that tracing caps constraints during the operations allows reducing the models complexity and,consequently, the computational time; however, it still involves working in 6d even in caseswhere this is not necessary. In contrast, the strategy based on the operands decompositionis more efficient due to the dimension reduction. This study allowed us to conclude that the management of mechanisms’ mobility is a crucial aspect in tolerance simulations. The gain on efficiency resulting from the developed strategies opens up the possibility for doing statistical treatment of tolerances and tolerance synthesis.
15

Analyse des tolérances des systèmes complexes – Modélisation des imperfections de fabrication pour une analyse réaliste et robuste du comportement des systèmes / Tolerance analysis of complex mechanisms - Manufacturing imperfections modeling for a realistic and robust geometrical behavior modeling of the mechanisms

Goka, Edoh 12 June 2019 (has links)
L’analyse des tolérances a pour but de vérifier lors de la phase de conception, l’impact des tolérances individuelles sur l’assemblage et la fonctionnalité d’un système mécanique. Les produits fabriqués possèdent différents types de contacts et sont sujets à des imperfections de fabrication qui sont sources de défaillances d’assemblage et fonctionnelle. Les méthodes généralement proposées pour l’analyse des tolérances ne considèrent pas les défauts de forme. L’objectif des travaux de thèse est de proposer une nouvelle procédure d’analyse des tolérances permettant de prendre en compte les défauts de forme et le comportement géométriques des différents types de contacts. Ainsi, dans un premier temps, une méthode de modélisation des défauts de forme est proposée afin de rendre les simulations plus réalistes. Dans un second temps, ces défauts de forme sont intégrés dans la modélisation du comportement géométrique d’un système mécanique hyperstatique, en considérant les différents types de contacts. En effet, le comportement géométrique des différents types de contacts est différent dès que les défauts de forme sont considérés. La simulation de Monte Carlo associée à une technique d’optimisation est la méthode choisie afin de réaliser l’analyse des tolérances. Cependant, cette méthode est très couteuse en temps de calcul. Pour pallier ce problème, une approche utilisant des modèles probabilistes obtenus grâce à l’estimation par noyaux, est proposée. Cette nouvelle approche permet de réduire les temps de calcul de manière significative. / Tolerance analysis aims toward the verification of the impact of individual tolerances on the assembly and functional requirements of a mechanical system. The manufactured products have several types of contacts and their geometry is imperfect, which may lead to non-functioning and non-assembly. Traditional methods for tolerance analysis do not consider the form defects. This thesis aims to propose a new procedure for tolerance analysis which considers the form defects and the different types of contact in its geometrical behavior modeling. A method is firstly proposed to model the form defects to make realistic analysis. Thereafter, form defects are integrated in the geometrical behavior modeling of a mechanical system and by considering also the different types of contacts. Indeed, these different contacts behave differently once the imperfections are considered. The Monte Carlo simulation coupled with an optimization technique is chosen as the method to perform the tolerance analysis. Nonetheless, this method is subject to excessive numerical efforts. To overcome this problem, probabilistic models using the Kernel Density Estimation method are proposed.
16

Introduction de pièces déformables dans l’analyse de tolérances géométriques de mécanismes hyperstatiques / Introduction of flexible parts in tolerance analysis of over-constrained mechanisms

Gouyou, Doriane 04 December 2018 (has links)
Les mécanismes hyperstatiques sont souvent utilisés dans l’industrie pour garantir une bonne tenue mécanique du système et une bonne robustesse aux écarts de fabrication des surfaces. Même si ces assemblages sont très courants, les méthodologies d’analyse de tolérances de ces mécanismes sont difficiles à mettre en oeuvre.En fonction de ses écarts de fabrication, un assemblage hyperstatique peut soit présenter des interférences de montage, soit être assemblé avec jeu. Dans ces travaux de thèse, nous avons appliqué la méthode des polytopes afin de détecter les interférences de montage. Pour un assemblage donné, le polytope résultant du mécanisme est calculé. Si ce polytope est non vide, l’assemblage ne présente pas d’interférence. Si ce polytope est vide, l’assemblage présente des interférences de montage. En fonction du résultat obtenu, deux méthodes d’analyse distinctes sont proposées.Si l’assemblage est réalisable sans interférence le polytope résultant du mécanisme permet de conclure sur sa conformité au regard de l’exigence fonctionnelle. Si l’assemblage présente des interférences de montage, une analyse prenant en compte la raideur des pièces est réalisée. Cette approche est basée sur une réduction de modèle avec des super-éléments. Elle permet de déterminer rapidement l’état d’équilibre du système après assemblage. Un effort de montage est ensuite estimé à partir de ces résultats pour conclure sur la faisabilité de l’assemblage. Si l’assemblage est déclaré réalisable, la propagation des déformations dans les pièces est caractérisée pour vérifier la conformité du système au regard de l’exigence fonctionnelle.La rapidité de mise en oeuvre de ces calculs nous permet de réaliser des analyses de tolérances statistiques par tirage de Monte Carlo pour estimer les probabilités de montage et de respect d’une Condition Fonctionnelle. / Over-constrained mechanisms are often used in industries to ensure a good mechanical strength and a good robustness to manufacturing deviations of parts. The tolerance analysis of such assemblies is difficult to implement.Indeed, depending on the geometrical deviations of parts, over-constrained mechanisms can have assembly interferences. In this work, we used the polytope method to check whether the assembly has interferences or not. For each assembly, the resulting polytope of the mechanism is computed. If it is non empty, the assembly can be performed without interference. If not, there is interferences in the assembly. According to the result, two different methods can be implemented.For an assembly without interference, the resulting polytope enables to check directly its compliance. For an assembly with interferences, a study taking into account the stiffness of the parts is undertaken. This approach uses a model reduction with super elements. It enables to compute quickly the assembly with deformation. Then, an assembly load is computed to conclude on its feasibility. Finally, the spreading of deformation through the parts is calculated to check the compliance of the mechanism.The short computational time enables to perform stochastic tolerance analyses in order to provide the rates of compliant assemblies.
17

Conception Robuste de Mécanismes

Caro, Stéphane 17 December 2004 (has links) (PDF)
Les travaux présentés dans cette thèse portent sur l'étude de la robustesse de la conception de mécanismes. Ses principales contributions résident dans la détermination d'un indice de robustesse, le développement de deux méthodes d'analyse de sensibilité pour les manipulateurs d'architecture parallèle de type Delta-Linéaire, la formulation d'une procédure de synthèse de tolérances et l'étude de la robustesse d'une famille de manipulateurs d'architecture sérielle génériques et non-génériques<br />à trois degrés de liberté. Le mémoire est ainsi divisé en quatre chapitres. Le premier chapitre est consacré à une énumération des propriétés générales des mécanismes étudiés, à une étude bibliographique de la conception robuste et à la formulation d'un problème de conception robuste. Le deuxième chapitre traite de l'analyse de sensibilité de l'Orthoglide, manipulateur d'architecture parallèle de type Delta-Linéaire à trois degrés de liberté de translation. L'étude permet de connaître la sensibilité<br />de la situation de l'effecteur du manipulateur aux variations de ses paramètres géométriques et de repérer les configurations pour lesquelles cette sensibilité est minimale et maximale. Le troisième chapitre présente un indice de robustesse optimal pour<br />les mécanismes étudiés et une procédure de synthèse de tolérances dimensionnelles décomposée en deux étapes séquentielles. Par ailleurs, ils sont illustrés par plusieurs études de cas, notamment un amortisseur et un manipulateur d'architecture parallèle. Finalement, le quatrième chapitre décrit une étude de la robustesse d'une famille de manipulateurs d'architecture sérielle à trois degrés de liberté. Cette étude vise à identifier les corrélations entre les notions de robustesse et de généricité.<br />A cet effet, différentes notions de la robotique sont exploitées, telles que la parcourabilité, la précision et la dextérité d'un manipulateur. Il s'avère que la généricité d'un manipulateur n'a pas d'influence sur ses performances cinématiques, ni sur la sensibilité de la position de son effecteur aux variations de ses paramètres géométriques.
18

L'évaluation expérimentale des innovations variétales. Proposition d'outils d'analyse de l'interaction génotype - milieu adaptés à la diversité des besoins et des contraintes des acteurs de la filière semences.

Lecomte, Christophe 27 October 2005 (has links) (PDF)
Parmi les outils d'aide à l'évaluation expérimentale des innovations variétales mis au point par les techniciens et les chercheurs, un grand nombre n'est pas adopté dans le monde agricole, malgré leur intérêt théorique. Parti de I'hypothèse que ce manque d'appropriation résulte, au moins en partie, d'un manque d'adéquation entre les outils et les besoins réels des acteurs, le travail réalisé associe une analyse de la diversité des usages de l'expérimentation pour l'évaluation variétale et un travail de conception d'un outil d'interprétation des résultats d'essais variétaux. L'ensemble des recherches est conduit sur le cas du blé tendre d'hiver.<br /> Dans un premier temps, des entretiens ont été effectués auprès d'une vingtaine d'acteurs impliqués dans la sélection, le développement des variétés, la multiplication, la distribution et la transformation des produits céréaliers. Ils mettent en évidence une grande diversité d'usages de I'expérimentation variétale. Quatre objectifs sous-tendent ces usages: (1) trier les génotypes, (2) les positionner géographiquement ou sur le marché, (3) acquérir une connaissance sur les génotypes, (4) et communiquer sur eux. Chaque objectif se distingue des autres par un petit nombre de critères de jugement des génotypes. Nous proposons une typologie des usages en 10 types, basée sur ces objectifs et critères, et sur les caractéristiques des réseaux expérimentaux (nombre d'essais et de génotypes, part du partenariat...). Dans chaque type, des différences peuvent être reliées à des logiques internes aux entreprises. Les entretiens mettent également en évidence un hiatus entre les informations recherchées et les informations que les acteurs tirent effectivement des expérimentations. Ce hiatus s'explique par des contraintes organisationnelles dans la mise en oeuvre des réseaux expérimentaux et par des difficultés lors du traitement des données (manque de temps disponible pour traiter les résultats; compétence requise pour I'usage d'outils d'analyse de I'interaction génotype-milieu...). Le besoin qui s'exprime le plus fortement est celui de mieux extraire I'information contenue dans les réseaux expérimentaux. Pour chacun des 10 usages, nous discutons de I'intérêt de 5 types d'outils susceptibles d'améliorer le recueil ou le traitement des données.<br /> Afin de répondre aux souhaits de différents acteurs de valoriser l'information multilocale et d'optimiser les réseaux, un outil d'aide à I'analyse permettant d'interpréter les variations de performances des génotypes à l'échelle d'un réseau est proposé dans un second temps. Cet outil repose sur I'association d'un diagnostic agronomique, basé sur une régression linéaire multiple appliquée à des génotypes révélateurs, et d'une analyse de I'interaction par régression factorielle, appliquée à tous les génotypes. Cette association a pour but d'apporter une validation agronomique des variables explicatives de I'interaction. Selon le génotype révélateur, le diagnostic permet d'expliquer de 70 à 99% des variations de rendement pour des réseaux de 10 à 35 milieux. Chaque site expérimental est ainsi caractérisé par la nature et la contribution des facteurs limitants aux pertes de rendement. Dans I'analyse de I'interaction, les paramètres génotypiques de la régression factorielle permettent d'interpréter les variations de comportement des génotypes en terme de tolérance aux facteurs limitants. Les notes de tolérance apparaissent bien corrélées aux notes déduites des observations pour les facteurs limitants visibles comme les maladies (nous avons obtenu une corrélation de 0.9 pour la rouille brune). Cette méthode permet donc d'évaluer aussi la tolérance des génotypes aux facteurs limitants dont I'effet n'est pas facilement observable (stress hydrique, carences en azote...). En réponse aux besoins exprimés par les acteurs, et pour prendre en compte la diversité des usages de I'expérimentation variétale, nous discutons de la façon de simplifier et d'améliorer la méthode pour analyser les résultats d'essais, et nous évoquons les ajustements des pratiques actuelles d'évaluation qui pourraient être liées à I'adoption de cet outil.
19

Modèles et outils d'analyse des variabilités en phase de conception des produits à denture.

Vincent, Jean-Paul 24 June 2010 (has links) (PDF)
Cette thèse s'inscrit dans la problématique de la maitrise de l'incertain / des variabilités en phase de conception de produit à denture / engrenage. Ces travaux ont porté plus particulièrement sur la maîtrise des variations géométriques et des incertitudes avec comme point central le modèle de spécification et comme objet d'étude les engrenages. En effet, la motivation des travaux, concernant la partie analyse, est la flexibilisation des approches pour supporter différentes représentations des modèles de spécification et la motivation des travaux concernant les incertitudes est la réduction de celles-ci en caractérisant et proposant des modèles de spécification. Concernant l'analyse des tolérances, deux formulations du comportement d'engrènement, deux modélisations discrète ou paramétrique de la géométrie et plusieurs méthodes de résolution ont été proposées et expérimentées. Elles permettent l'analyse de tolérances formulées d'une manière vectorielle, par zone ou hybride, par simulation de Monte Carlo. Concernant les incertitudes, une formalisation des incertitudes de corrélation a été proposée à partir de l'approche Axiomatic Design en définissant cette incertitude comme l'intervalle de confiance des coefficients de sensibilité de la matrice. Ainsi, plusieurs modèles de spécification ont été caractérisés au regard de ces incertitudes et celles de mesure afin d'avoir une vue globale des incertitudes entachant la prise de décision de conformité du produit.
20

Contribution au tolérancement fonctionnel 3D des mécanismes complexes : synthèse des spécifications et analyse de tolérances

Chavanne, Robin 06 July 2011 (has links) (PDF)
L'étude est dédiée à la conception d'un système expert d'aide au tolérancement assurant la gestion multi-utilisateurs, multi-produits et temporelle des tolérances et des dimensions nominales de pièces pour des mécanismes complexes. Ce travail rentre dans le projet "usine numérique" de grandes entreprises et constitue un maillon manquant de cette chaîne numérique. Les travaux de thèse contribuent à la méthode CLIC (Cotation en Localisation avec Influence des Contacts) sur des liaisons complexes en proposant la spécification adéquate et le calcul de chaîne de cotes tridimensionnelle au pire des cas, dans un contexte de pièces non déformables. L'étude a abouti à onze nouvelles propositions de spécification, qui ne sont pas disponibles actuellement dans les normes utilisées par les industriels. La généralisation des conditions de respect d'un état virtuel aux liaisons complexes est un point fort. Un nouveau critère d'association géométrique a été proposé pour des surfaces constituant une liaison hybride ayant un double comportement, à la fois surfacique et avec jeu. Un algorithme de recherche des points de contact a été élaboré afin d'obtenir la résultante tridimensionnelle en fonction des tolérances et des paramètres nominaux des pièces, en vue d'effectuer la synthèse des tolérances. D'autres algorithmes utilisent une formulation analytique pour d'déterminer la situation au pire des cas. Ces algorithmes sont le fruit de la résolution du problème par la méthode des droites d'analyses.

Page generated in 0.0689 seconds