• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 6
  • 1
  • Tagged with
  • 7
  • 7
  • 7
  • 7
  • 5
  • 5
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Contexte augmenté basé sur les prédictions pour une réutilisation efficace des connaissances métier en conception : application à la conception proactive pour l'assemblage / Augmented context based on prediction for efficient knowledge reuse of business knowledge in design

Marconnet, Bertrand 24 November 2017 (has links)
Les travaux sur le contexte augmenté en conception produit, permet de sensibiliser les concepteurs sur leur choix en conception pour l'assemblage. L'approche présentée conclura sur la méthode pour développer un démonstrateur informatique, basé sur des cas d’études de conception mécanique. L’objectif de celui-ci est de capturer l’intention de conception, afin de proposer une aide utile aux acteurs métier, comme un support de conception, dans la prise de décisions, la vérification/validation, et la structuration de données. / Works on the design context augmentation in product design, makes it possible to make awareness designers on their choice in the design for assembly. The presented approach will conclude on the method to develop a informatic system, based on case studies of mechanical design. The purpose of the project is to capture the design intent, in order to provide useful assistance to stakeholders, such as design support, decision making, verification/validation, and data structuring.
2

Conception intégrée et gestion d'informations techniques: application à l'ingénierie du produit et de sa séquence d'assemblage

Demoly, Frédéric 16 July 2010 (has links) (PDF)
Dans le contexte concurrentiel actuel, les entreprises issues des secteurs automobile et aéronautique doivent impérativement mettre en place, de manière efficace, des stratégies d'ingénierie intégrée et de gestion de cycle de vie des produits, ceci afin de maintenir leurs facteurs de compétitivité, tels que la productivité, l'efficacité et la flexibilité, en particulier en phase de début de cycle de vie des produits (développement et industrialisation). Dans ce contexte, une condition industrielle nécessaire est requit pour l'intégration des contraintes liées aux différentes phases du cycle de vie du produit au sein du processus de développement avec le support de systèmes permettant la gestion des données-informations-connaissances. Dès lors, il est important d'apporter, le plus tôt possible, une aide à la décision en ingénierie, afin de fournir un produit se prêtant aux problématiques liées aux phases de son cycle de vie. Ce travail de thèse s'inscrit dans les domaines de la conception intégrée et de la gestion des informations techniques, plus particulièrement centrée sur le produit et sa séquence d'assemblage. Celui-ci a consisté à la mise en place d'un modèle multi-vues baptisé MUlti-Vues Orienté Assemblage (MUVOA) visant à cartographier les concepts dans les domaines du produit et du processus d'assemblage pour la définition, la propagation et la traçabilité des informations du couple produit-process. Un ensemble de vues interdépendantes (fonctionnelle, comportementale, structurelle, géométrique, technologique et contextuelle) a été défini en fonction des profils (rôle, préoccupation, termes métier, processus métier, etc.) des acteurs métier impliqués dans les questions de conception orientée assemblage, à savoir l'architecte produit, le gammiste, le concepteur et l'expert process. Sur la base de ce modèle MUVOA, un cadre méthodologique baptisé Proactive ASsembly Oriented DEsign (PASODE) a été proposé, ceci afin de définir une séquence d'assemblage optimale dans les phases préliminaires du processus de développement, et de l'utiliser pour définir un contexte d'assemblage à base de squelettes dans la vue géométrique produit. De ce fait, le cadre méthodologique PASODE proposé regroupe trois approches, telles que : l'approche basée sur l'algorithme ASDA (Assembly Sequence Definition Algorithm) dédiée à la définition/planification de séquences d'assemblage en phases préliminaires du processus de développement des produits, l'approche SKL-ACD (SKeLeton-based Assembly Context Definition) dédiée la définition d'un contexte d'assemblage à base de squelettes géométriques, et l'approche PRM (Product Relationships Management) dédiée à la gestion des relations du produit à différents niveaux d'abstraction en contexte PLM. Le modèle MUVOA ainsi que le cadre méthodologique PASODE ont été mis œuvre dans un outil informatique appelé PEGASUS, situé à l'interface des systèmes PLM (Product Lifecycle Management) associés à la gestion des informations techniques du couple produit-process, tels que les systèmes PDM (Product Data Management), MPM (Manufacturing Process Management) et CAO (Conception Assistée par Ordinateur). Cette implémentation informatique, basée sur la méthode Modèle Vue - VueModèle et le langage C#, nous a permis de réaliser trois expérimentations industrielles, afin d'illustrer et de valider les trois approches du cadre méthodologique. Parmi les cas d'applications, nous avons introduit un cas de conception d'un combiné Catalyseur – Filtre à Particules en collaboration avec l'entreprise Faurecia Technologies de Contrôle des Emissions (ECT), la conception de la partie structurelle d'un avion de type A320 en collaboration avec l'entreprise EADS Innovation Works, et un dernier cas avec l'entreprise MABI sur la conception d'un marteau burineur pneumatique.
3

Intégration des systèmes mécatroniques dans les systèmes d'information / Integration of mechatronic systems in information systems

Abid, Houssem 12 January 2015 (has links)
L’innovation industrielle tend vers des produits de plus en plus complexes de type mécatronique qui combine des domaines pluridisciplinaires. Les processus de conception de ces produits fait appel aux compétences d’acteurs issus des différents métiers et la création des différentes facettes des constituants nécessite l’utilisation d’outils spécialisés; pour autant il n’existe pas de véritable intégration globale au sein du système d'information permettant une gestion intégrée des différents savoir-faire et domaines de compétence malgré la capacité de certains systèmes comme le PLM. Ce travail présente une méthode de résolution générique. L'objet du présent document est de définir une approche globale pour l'intégration des données des systèmes mécatroniques dans un système PLM en utilisant une modélisation spécifique basé sur la caractérisation du cycle de vie et l'utilisation de SysML. Les premiers essais d’implémentation au sein du PLM Windchill, nous ont permis de valider qu’il était possible d’intégrer, avec une structure sémantique, des liens entre des objets métiers pluridisciplinaires. / Industrial innovation aims towards more complex Mecatronics products which combine multidisciplinary domains. The design process of these products leans on several multi-business. The creation of components' facets requires the use of specialized tools. However there is no real global integration within the information system allowing an integrated management of various know-how and fields of expertise, in spite of capabilities certain systems as PLM. This work presents a generic resolution method. The object of this paper is to present a global approach for the integration of Mecatronics systems into a PLM system using a specific modeling. The first implementation tests within Windchill PLM system shows that it was possible to integrate with a semantic structure, links between multidisciplinary business objects.
4

Gestion de l'information embarquée dans des matériaux communicants à l'aide de protocoles de réseaux de capteurs sans fil / Data management in communicating materials through wireless sensor networks protocols

Mekki, Kaïs 02 June 2016 (has links)
La thèse aborde le problème de la dissémination des informations liées au produit tout au long de son cycle de vie, par l’exploitation du concept de matière communicante. L’objectif général est de stocker dans la matière communicante ses caractéristiques initiales mais aussi l’évolution de ses propriétés durant son usage, en évitant de les perdre lors par exemple d’une transformation ou d’une destruction d’une partie du matériau. Dans le cadre de cette thèse, ce principe est appliqué dans le domaine des préfabriqués en béton, où des nœuds de réseaux de capteurs sans fil sont intégrés dans le béton. Ces nœuds sont alors utilisés pour stocker des informations relatives au cycle de vie du préfabriqué et à sa surveillance sur la phase d’usage. Un nouveau protocole de communication, nommé USEE, a été proposé et permet de diffuser uniformément les informations dans la matière en considérant qu’elles n’ont pas toutes la même importance. Le protocole USEE évite notamment la saturation rapide des mémoires des nœuds de façon à pouvoir stocker un maximum d’informations différentes. Ensuite, un protocole de lecture, intitulé RaWPG, a été développé. Il est adapté à la récupération d’informations uniformément réparties et consomme peu d’énergie. Ces deux protocoles ont été implémentés dans le simulateur réseau Castalia/OMNeT++ et ont permis de montrer leur intérêt par rapport au contexte applicatif mais aussi par rapport à d’autres protocoles similaires de la littérature / A new Internet of Things area is coming with communicating materials, which are able to provide diverse functionalities to users all along the product lifecycle. As example, it can track its own evolution which leads to gather helpful information. This new paradigm is fulfilled via the integration of specific electronic components into the product material. In this thesis, ultra-small wireless sensor nodes are used for concrete precast field. Indeed, storage of lifecycle information and data dissemination in communicating materials are very important issues. Therefore, this thesis provides a new protocol (USEE) for storing data by a systematic dissemination through the integrated sensor nodes. It guarantees that information could be retrieved in each piece of the concrete by intelligently managing data replication among each neighborhood of the sensor network. The protocol considers in the same set uniformity storage in the whole network, the data importance level, and the resource constraints of sensor nodes. Then, another new data retrieval protocol (RaWPG) is developed to extract the stored information. Castalia/OMNeT++ simulator is used to evaluate the performances of the proposed protocols
5

Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique

Shahzad, Muhammad Kashif 05 October 2012 (has links) (PDF)
La " conception pour la fabrication " ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour " dynamique " des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes.
6

Multi-utilisation de données complexes et hétérogènes : application au domaine du PLM pour l’imagerie biomédicale / Multi-use of complex and heterogenous data : application in the domain of PLM for biomedical imaging

Pham, Cong Cuong 15 June 2017 (has links)
L’émergence des technologies de l’information et de la communication (TIC) au début des années 1990, notamment internet, a permis de produire facilement des données et de les diffuser au reste du monde. L’essor des bases de données, le développement des outils applicatifs et la réduction des coûts de stockage ont conduit à l’augmentation quasi exponentielle des quantités de données au sein de l’entreprise. Plus les données sont volumineuses, plus la quantité d’interrelations entre données augmente. Le grand nombre de corrélations (visibles ou cachées) entre données rend les données plus entrelacées et complexes. Les données sont aussi plus hétérogènes, car elles peuvent venir de plusieurs sources et exister dans de nombreux formats (texte, image, audio, vidéo, etc.) ou à différents degrés de structuration (structurées, semi-structurées, non-structurées). Les systèmes d’information des entreprises actuelles contiennent des données qui sont plus massives, complexes et hétérogènes. L’augmentation de la complexité, la globalisation et le travail collaboratif font qu’un projet industriel (conception de produit) demande la participation et la collaboration d’acteurs qui viennent de plusieurs domaines et de lieux de travail. Afin d’assurer la qualité des données, d’éviter les redondances et les dysfonctionnements des flux de données, tous les acteurs doivent travailler sur un référentiel commun partagé. Dans cet environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute de nouvelles données et informations techniques. Les données peuvent soit avoir des dénominations différentes, soit ne pas avoir des provenances vérifiables. Par conséquent, ces données sont difficilement interprétées et accessibles aux autres acteurs. Elles restent inexploitées ou non exploitées au maximum afin de pouvoir les partager et/ou les réutiliser. L’accès aux données (ou la recherche de données), par définition est le processus d’extraction des informations à partir d’une base de données en utilisant des requêtes, pour répondre à une question spécifique. L’extraction des informations est une fonction indispensable pour tout système d’information. Cependant, cette dernière n’est jamais facile car elle représente toujours un goulot majeur d’étranglement pour toutes les organisations (Soylu et al. 2013). Dans l’environnement de données complexes, hétérogènes et de multi-utilisation de données, fournir à tous les utilisateurs un accès facile et simple aux données devient plus difficile pour deux raisons : - Le manque de compétences techniques. Pour formuler informatiquement une requête complexe (les requêtes conjonctives), l’utilisateur doit connaitre la structuration de données, c’est-à-dire la façon dont les données sont organisées et stockées dans la base de données. Quand les données sont volumineuses et complexes, ce n’est pas facile d’avoir une compréhension approfondie sur toutes les dépendances et interrelations entre données, même pour les techniciens du système d’information. De plus, cette compréhension n’est pas forcément liée au savoir et savoir-faire du domaine et il est donc, très rare que les utilisateurs finaux possèdent les compétences suffisantes. - Différents points de vue des utilisateurs. Dans l’environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute des nouvelles données et informations techniques. Les données peuvent être nommées de manières très différentes et les provenances de données ne sont pas suffisamment fournies. / The emergence of Information and Comunication Technologies (ICT) in the early 1990s, especially the Internet, made it easy to produce data and disseminate it to the rest of the world. The strength of new Database Management System (DBMS) and the reduction of storage costs have led to an exponential increase of volume data within entreprise information system. The large number of correlations (visible or hidden) between data makes them more intertwined and complex. The data are also heterogeneous, as they can come from many sources and exist in many formats (text, image, audio, video, etc.) or at different levels of structuring (structured, semi-structured, unstructured). All companies now have to face with data sources that are more and more massive, complex and heterogeneous.technical information. The data may either have different denominations or may not have verifiable provenances. Consequently, these data are difficult to interpret and accessible by other actors. They remain unexploited or not maximally exploited for the purpose of sharing and reuse. Data access (or data querying), by definition, is the process of extracting information from a database using queries to answer a specific question. Extracting information is an indispensable function for any information system. However, the latter is never easy but it always represents a major bottleneck for all organizations (Soylu et al. 2013). In the environment of multiuse of complex and heterogeneous, providing all users with easy and simple access to data becomes more difficult for two reasons : - Lack of technical skills : In order to correctly formulate a query a user must know the structure of data, ie how the data is organized and stored in the database. When data is large and complex, it is not easy to have a thorough understanding of all the dependencies and interrelationships between data, even for information system technicians. Moreover, this understanding is not necessarily linked to the domain competences and it is therefore very rare that end users have sufficient theses such skills. - Different user perspectives : In the multi-use environment, each user introduces their own point of view when adding new data and technical information. Data can be namedin very different ways and data provenances are not sufficiently recorded. Consequently, they become difficultly interpretable and accessible by other actors since they do not have sufficient understanding of data semantics. The thesis work presented in this manuscript aims to improve the multi-use of complex and heterogeneous data by expert usiness actors by providing them with a semantic and visual access to the data. We find that, although the initial design of the databases has taken into account the logic of the domain (using the entity-association model for example), it is common practice to modify this design in order to adapt specific techniques needs. As a result, the final design is often a form that diverges from the original conceptual structure and there is a clear distinction between the technical knowledge needed to extract data and the knowledge that the expert actors have to interpret, process and produce data (Soylu et al. 2013). Based on bibliographical studies about data management tools, knowledge representation, visualization techniques and Semantic Web technologies (Berners-Lee et al. 2001), etc., in order to provide an easy data access to different expert actors, we propose to use a comprehensive and declarative representation of the data that is semantic, conceptual and integrates domain knowledge closeed to expert actors.
7

Exploitation dynamique des données de production pour améliorer les méthodes DFM dans l'industrie Microélectronique / Towards production data mining to improve DFM methods in Microelectronics industry

Shahzad, Muhammad Kashif 05 October 2012 (has links)
La « conception pour la fabrication » ou DFM (Design for Manufacturing) est une méthode maintenant classique pour assurer lors de la conception des produits simultanément la faisabilité, la qualité et le rendement de la production. Dans l'industrie microélectronique, le Design Rule Manual (DRM) a bien fonctionné jusqu'à la technologie 250nm avec la prise en compte des variations systématiques dans les règles et/ou des modèles basés sur l'analyse des causes profondes, mais au-delà de cette technologie, des limites ont été atteintes en raison de l'incapacité à sasir les corrélations entre variations spatiales. D'autre part, l'évolution rapide des produits et des technologies contraint à une mise à jour « dynamique » des DRM en fonction des améliorations trouvées dans les fabs. Dans ce contexte les contributions de thèse sont (i) une définition interdisciplinaire des AMDEC et analyse de risques pour contribuer aux défis du DFM dynamique, (ii) un modèle MAM (mapping and alignment model) de localisation spatiale pour les données de tests, (iii) un référentiel de données basé sur une ontologie ROMMII (referential ontology Meta model for information integration) pour effectuer le mapping entre des données hétérogènes issues de sources variées et (iv) un modèle SPM (spatial positioning model) qui vise à intégrer les facteurs spatiaux dans les méthodes DFM de la microélectronique, pour effectuer une analyse précise et la modélisation des variations spatiales basées sur l'exploitation dynamique des données de fabrication avec des volumétries importantes. / The DFM (design for manufacturing) methods are used during technology alignment and adoption processes in the semiconductor industry (SI) for manufacturability and yield assessments. These methods have worked well till 250nm technology for the transformation of systematic variations into rules and/or models based on the single-source data analyses, but beyond this technology they have turned into ineffective R&D efforts. The reason for this is our inability to capture newly emerging spatial variations. It has led an exponential increase in technology lead times and costs that must be addressed; hence, objectively in this thesis we are focused on identifying and removing causes associated with the DFM ineffectiveness. The fabless, foundry and traditional integrated device manufacturer (IDM) business models are first analyzed to see coherence against a recent shift in business objectives from time-to-market (T2M) and time-to-volume towards (T2V) towards ramp-up rate. The increasing technology lead times and costs are identified as a big challenge in achieving quick ramp-up rates; hence, an extended IDM (e-IDM) business model is proposed to support quick ramp-up rates which is based on improving the DFM ineffectiveness followed by its smooth integration. We have found (i) single-source analyses and (ii) inability to exploit huge manufacturing data volumes as core limiting factors (failure modes) towards DFM ineffectiveness during technology alignment and adoption efforts within an IDM. The causes for single-source root cause analysis are identified as the (i) varying metrology reference frames and (ii) test structures orientations that require wafer rotation prior to the measurements, resulting in varying metrology coordinates (die/site level mismatches). A generic coordinates mapping and alignment model (MAM) is proposed to remove these die/site level mismatches, however to accurately capture the emerging spatial variations, we have proposed a spatial positioning model (SPM) to perform multi-source parametric correlation based on the shortest distance between respective test structures used to measure the parameters. The (i) unstructured model evolution, (ii) ontology issues and (iii) missing links among production databases are found as causes towards our inability to exploit huge manufacturing data volumes. The ROMMII (referential ontology Meta model for information integration) framework is then proposed to remove these issues and enable the dynamic and efficient multi-source root cause analyses. An interdisciplinary failure mode effect analysis (i-FMEA) methodology is also proposed to find cyclic failure modes and causes across the business functions which require generic solutions rather than operational fixes for improvement. The proposed e-IDM, MAM, SPM, and ROMMII framework results in accurate analysis and modeling of emerging spatial variations based on dynamic exploitation of the huge manufacturing data volumes.

Page generated in 0.1509 seconds