• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 36
  • 26
  • 14
  • 10
  • 9
  • 8
  • 7
  • 6
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 123
  • 58
  • 50
  • 47
  • 36
  • 22
  • 19
  • 18
  • 17
  • 17
  • 16
  • 16
  • 15
  • 15
  • 14
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
71

Multi-utilisation de données complexes et hétérogènes : application au domaine du PLM pour l’imagerie biomédicale / Multi-use of complex and heterogenous data : application in the domain of PLM for biomedical imaging

Pham, Cong Cuong 15 June 2017 (has links)
L’émergence des technologies de l’information et de la communication (TIC) au début des années 1990, notamment internet, a permis de produire facilement des données et de les diffuser au reste du monde. L’essor des bases de données, le développement des outils applicatifs et la réduction des coûts de stockage ont conduit à l’augmentation quasi exponentielle des quantités de données au sein de l’entreprise. Plus les données sont volumineuses, plus la quantité d’interrelations entre données augmente. Le grand nombre de corrélations (visibles ou cachées) entre données rend les données plus entrelacées et complexes. Les données sont aussi plus hétérogènes, car elles peuvent venir de plusieurs sources et exister dans de nombreux formats (texte, image, audio, vidéo, etc.) ou à différents degrés de structuration (structurées, semi-structurées, non-structurées). Les systèmes d’information des entreprises actuelles contiennent des données qui sont plus massives, complexes et hétérogènes. L’augmentation de la complexité, la globalisation et le travail collaboratif font qu’un projet industriel (conception de produit) demande la participation et la collaboration d’acteurs qui viennent de plusieurs domaines et de lieux de travail. Afin d’assurer la qualité des données, d’éviter les redondances et les dysfonctionnements des flux de données, tous les acteurs doivent travailler sur un référentiel commun partagé. Dans cet environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute de nouvelles données et informations techniques. Les données peuvent soit avoir des dénominations différentes, soit ne pas avoir des provenances vérifiables. Par conséquent, ces données sont difficilement interprétées et accessibles aux autres acteurs. Elles restent inexploitées ou non exploitées au maximum afin de pouvoir les partager et/ou les réutiliser. L’accès aux données (ou la recherche de données), par définition est le processus d’extraction des informations à partir d’une base de données en utilisant des requêtes, pour répondre à une question spécifique. L’extraction des informations est une fonction indispensable pour tout système d’information. Cependant, cette dernière n’est jamais facile car elle représente toujours un goulot majeur d’étranglement pour toutes les organisations (Soylu et al. 2013). Dans l’environnement de données complexes, hétérogènes et de multi-utilisation de données, fournir à tous les utilisateurs un accès facile et simple aux données devient plus difficile pour deux raisons : - Le manque de compétences techniques. Pour formuler informatiquement une requête complexe (les requêtes conjonctives), l’utilisateur doit connaitre la structuration de données, c’est-à-dire la façon dont les données sont organisées et stockées dans la base de données. Quand les données sont volumineuses et complexes, ce n’est pas facile d’avoir une compréhension approfondie sur toutes les dépendances et interrelations entre données, même pour les techniciens du système d’information. De plus, cette compréhension n’est pas forcément liée au savoir et savoir-faire du domaine et il est donc, très rare que les utilisateurs finaux possèdent les compétences suffisantes. - Différents points de vue des utilisateurs. Dans l’environnement de multi-utilisation de données, chaque utilisateur introduit son propre point de vue quand il ajoute des nouvelles données et informations techniques. Les données peuvent être nommées de manières très différentes et les provenances de données ne sont pas suffisamment fournies. / The emergence of Information and Comunication Technologies (ICT) in the early 1990s, especially the Internet, made it easy to produce data and disseminate it to the rest of the world. The strength of new Database Management System (DBMS) and the reduction of storage costs have led to an exponential increase of volume data within entreprise information system. The large number of correlations (visible or hidden) between data makes them more intertwined and complex. The data are also heterogeneous, as they can come from many sources and exist in many formats (text, image, audio, video, etc.) or at different levels of structuring (structured, semi-structured, unstructured). All companies now have to face with data sources that are more and more massive, complex and heterogeneous.technical information. The data may either have different denominations or may not have verifiable provenances. Consequently, these data are difficult to interpret and accessible by other actors. They remain unexploited or not maximally exploited for the purpose of sharing and reuse. Data access (or data querying), by definition, is the process of extracting information from a database using queries to answer a specific question. Extracting information is an indispensable function for any information system. However, the latter is never easy but it always represents a major bottleneck for all organizations (Soylu et al. 2013). In the environment of multiuse of complex and heterogeneous, providing all users with easy and simple access to data becomes more difficult for two reasons : - Lack of technical skills : In order to correctly formulate a query a user must know the structure of data, ie how the data is organized and stored in the database. When data is large and complex, it is not easy to have a thorough understanding of all the dependencies and interrelationships between data, even for information system technicians. Moreover, this understanding is not necessarily linked to the domain competences and it is therefore very rare that end users have sufficient theses such skills. - Different user perspectives : In the multi-use environment, each user introduces their own point of view when adding new data and technical information. Data can be namedin very different ways and data provenances are not sufficiently recorded. Consequently, they become difficultly interpretable and accessible by other actors since they do not have sufficient understanding of data semantics. The thesis work presented in this manuscript aims to improve the multi-use of complex and heterogeneous data by expert usiness actors by providing them with a semantic and visual access to the data. We find that, although the initial design of the databases has taken into account the logic of the domain (using the entity-association model for example), it is common practice to modify this design in order to adapt specific techniques needs. As a result, the final design is often a form that diverges from the original conceptual structure and there is a clear distinction between the technical knowledge needed to extract data and the knowledge that the expert actors have to interpret, process and produce data (Soylu et al. 2013). Based on bibliographical studies about data management tools, knowledge representation, visualization techniques and Semantic Web technologies (Berners-Lee et al. 2001), etc., in order to provide an easy data access to different expert actors, we propose to use a comprehensive and declarative representation of the data that is semantic, conceptual and integrates domain knowledge closeed to expert actors.
72

Návrh robotické buňky pro obsluhu vstřikolisů / Design of a Robotic Cell for Injection Molding Machines Operations

Franc, Vladimír January 2019 (has links)
The aim of this thesis is to design a robotic cell for automated injection molding operation. At the beginning of this paper, the input parameters and the assignment are analyzed. This is then followed up by the layout of the workplace, design of its equipment, selection of robots and the design of their end effectors and peripherals with regard to the specified boundary conditions and operator’s safety. The output of this work is a 3D cell model and its simulation model in PLM software Siemens Process Simulate, which verifies the production cycle time.
73

New approach in prediction of soil liquefaction

Daftari, Abbas 23 November 2015 (has links)
Liquefaction is the phenomena when there is loss of strength in saturated and cohesion-less soils because of increased pore water pressures and hence reduced effective stresses due to dynamic loading. It is a phenomenon in which the strength and stiffness of a soil is reduced by earthquake shaking or other rapid loading. In this study, after the short review of liquefaction definition, the models of prediction and estimation of liquefaction were considered. Application of numerical modelling with two major software (FLAC & PLAXIS) for the Wildlife site liquefaction, under superstition earthquake in 1987 were compared and analysed. Third step was started with introduction of Fuzzy logic and neural network as two common intelligent mathematical methods. These two patterns for prediction of soil liquefaction were combined. The “Neural network- Fuzzy logic-Liquefaction- Prediction” (NFLP) was applied for liquefaction prediction in Wildlife site. The results show the powerful prediction of liquefaction happening with high degree of accuracy in this case.
74

Deliberate and Emergent Strategies for Digital Twin Utilization : A PLM-Principal’s Perspective

Wågberg, Felix January 2019 (has links)
The industry has during the past decades been changing towardsdigitalization at a rapid pace, adapting new frameworks and digitalsolutions, with the thrive to improve efficiency, and output quality.This thesis covers how a hyped industry concept, digital twin, incontext of smart manufacturing, could be applied in this changingclimate. Focus is put on what strategies a Product LifecycleManagement (PLM) principal could adapt when approaching theutilization of digital twins, in a customer setting. The research project, using a qualitative exploration format,incorporated a thorough review of journal articles and standards,interconnected with conducted interviews with industry experts, inorder to develop two strategies on how to approach the conceptof digital twins. The two-part strategies were formed on the basis of Mintzberg(1978) emergent and deliberate strategies. The former, consisted ofIDEF0 function modeling diagramming, where a digital twin businessprocess was portrayed, based on the literature review and interviewdata. The latter, approached the digital twin application challenge ina theoretical manner, based on the concept’s high risk anduncertainty, incorporating organizational structure theory andinnovation theory. The two strategies showed two different pathsto approach the digital twin phenomena and how to, boththeoretically and practically, adapt digital twins in a customer setting.
75

Modelling health care expenditure : a new microsimulation approach to simulating the distributional impact of the Pharmaceutical Benefits Scheme

Schofield, Deborah, n/a January 1999 (has links)
In this thesis, a microsimulation model was developed using methods which were intended to overcome the main criticism of earlier models developed in Australia - that their estimation of the distribution of health benefits1 across income groups was not accurate. To determine whether the new model � called the Person Level Model of Pharmaceutical Benefits (PLM-PB) � was more accurate, two typical means-based models were also built to replicate the most commonly used methods in Australia. A comparison of the results of the three models revealed that while they produced comparable results at the aggregate when compared with administrative data, the PLM-PB was much more accurate in capturing distributional differences by beneficiary and medication type. The PLM-PB also indicated that, as anticipated, PBS benefits were more pro-poor than earlier means-based models had suggested. The PLM-PB had another important advantage in that the method also captured the variation in the use of medication and thus the subsidy received within sub-populations. As the PLM-PB was found to be more accurate than the means-based model, a multivariate analysis of the distribution of PBS subsidy across a number of socio-economic groups was undertaken as an example application of the model. It was found that health status (defined by number of recent illnesses) and concession card type were most important in explaining the amount of PBS subsidy received. This indicates that the distribution of PBS expenditure meets the policy objectives of assisting those most in need, whether need is defined as poor health or low income. 1 Benefits refer to expenditure as transfers from government to individuals rather than the general health benefits of using medication.
76

Modular Fixture Design for BIW Lines Using Process Simulate

Keyvani, Ali January 2009 (has links)
<p>The unchangeable need of securing and locating parts during different manufacturing processes turned the fixtures to key elements in many part production industries. The iterations between design engineers and manufacturing planners because of late collision detection of the part/fixtures with robots cost a lot of time and money. The lead-time can be reduced by developing tools and/or methods for early verification of the fixtures during the simultaneous engineering phase. Different aspects of fixture designing, modeling and simulating is investigated as a base step to recognize the best practice work to do fixture planning in Process Simulate integrated PLM environment. The aim of the project is to use Process Simulate to design and validate modular fixtures at the same time and in a single environment. It also aims to investigate the possibility of adding kinematics, sensors, and actuating signals to the fixtures and utilize them to model the fixture behavior in a larger simulation study. The project narrows down its focus on the fixtures designed for robotic applications specifically in Automotive Body in White lines without losing generality. The document type stated at the title page and in the header of this page is master thesis work.</p>
77

Modular Fixture Design for BIW Lines Using Process Simulate

Keyvani, Ali January 2009 (has links)
The unchangeable need of securing and locating parts during different manufacturing processes turned the fixtures to key elements in many part production industries. The iterations between design engineers and manufacturing planners because of late collision detection of the part/fixtures with robots cost a lot of time and money. The lead-time can be reduced by developing tools and/or methods for early verification of the fixtures during the simultaneous engineering phase. Different aspects of fixture designing, modeling and simulating is investigated as a base step to recognize the best practice work to do fixture planning in Process Simulate integrated PLM environment. The aim of the project is to use Process Simulate to design and validate modular fixtures at the same time and in a single environment. It also aims to investigate the possibility of adding kinematics, sensors, and actuating signals to the fixtures and utilize them to model the fixture behavior in a larger simulation study. The project narrows down its focus on the fixtures designed for robotic applications specifically in Automotive Body in White lines without losing generality. The document type stated at the title page and in the header of this page is master thesis work.
78

Programme in Menschengestalt: digitale Menschmodelle für CAx- und PLM-Systeme

Mühlstedt, Jens, Kaußler, Hans, Spanner-Ulmer, Birgit 03 August 2009 (has links) (PDF)
Digitale Menschmodelle sind wichtige Werkzeuge der Produkt- und Prozessentwicklung. In diesem Beitrag wird der Stand der Technik der Modelle, die in CAx- oder PLM-Systemen eingesetzt werden, dargelegt. Wichtige Eigenschaften der einzelnen Modelle sowie eine zusammenfassende Einschätzung der Vor- und Nachteile werden vorgestellt. / Digital human models are important tools for product and process design. This paper describes state of the art models used within CAx- or PLM-Systems.
79

Contribution à une modélisation ontologique des informations tout au long du cycle de vie du produit

Fortineau, Virginie 18 November 2013 (has links) (PDF)
Les travaux de recherche de cette thèse portent sur la modélisation sémantique des informations industrielles, dans une approche og cycle de vie fg , de gestion des informations. Dans ce type d'approche, lever le verrou lié à l'interopérabilité des modèles d'information est une condition sine qua non à un échange d'information sans perte de flux sémantique. Jusqu'alors, des méthodes d'unification étaient envisagées, reposant sur l'utilisation mutuelle de modèles standards, tels que la norme STEP par exemple. Cependant, l'unification fait face à des limites en termes d'expressivité des modèles, de rigidité, et de perte de sémantique. Afin de lever ces limites, les paradigmes de modélisation évoluent et se tournent vers les ontologies d'inférence, outils du web sémantique.Dans cette thèse, nous proposons un cadre de modélisation sémantique général et une méthodologie de mise en place de ce cadre, qui reposent sur l'utilisation d'ontologies d'inférence. L'application du cadre de modélisation à un cas d'étude industriel, issu de l'ingénierie nucléaire (plus particulièrement l'expression et l'exécution des règles métier), permet alors d'évaluer les apports et limites des ontologies en tant que paradigme de modélisation. Les limites les plus importantes que nous identifions sur l'Open World Assumption, le manque de langage de règles performant et le manque d'outils d'implémentation robustes pour des applications à large échelle. Le développement d'un démonstrateur pour le cas d'étude industriel permet finalement de tendre vers une solution mixte, où les ontologies sont utilisées localement, afin d'en exploiter les divers avantages de manière optimale.
80

Produit " actif " tout au long de son cycle de vie

Sallez, Yves 04 December 2012 (has links) (PDF)
Les évolutions scientifiques survenues ces deux dernières décennies en productique ont eu vocation à conférer plus d'automatisation aux équipements, à définir de nouvelles architectures de commande et pilotage des moyens de production permettant une plus grande flexibilité, reconfigurabilité et réactivité du système. Les initiatives de recherches internationales IMS (Intelligent Manufacturing Systems), HMS (Holonic Manufacturing Systems) ont notamment permis de proposer de nouveaux concepts et architectures s'appuyant sur la décentralisation et la distribution des fonctions dites " intelligentes " de conduite des moyens et ressources. Une nouvelle approche de conduite centrée sur le produit a également vu le jour via les travaux sur le concept d'" intelligent product ". Dans ce nouveau paradigme de " Système contrôlé par le Produit ", il s'agit de conférer au produit un rôle actif et participatif dans les décisions et les flux d'informations engendrés tout au long de son cycle de vie. Dans ce contexte, nos travaux ont permis d'expliciter la notion d'activité associée à un produit tout au long de son cycle de vie. A cet effet, nous avons mis en évidence l'apport de cette activité associée au produit en matière d'amélioration de performances tant pour le produit que pour les différents systèmes de soutien traversés. Selon une approche de type Closed-loop Product Life Management, l'enrichissement de la qualité des flux d'informations entre les différentes étapes du cycle de vie, a également été souligné. Afin de supporter ce concept d'activité, un modèle générique a été proposé. Le paradigme holonique nous a notamment permis de caractériser l'activité d'un produit " actif " constitué lui-même de sous-systèmes " actifs ". L'aspect interactionnel au sein d'un collectif de produits " actifs " a également été pris en compte au niveau du modèle. Nous avons également mis l'accent sur des implémentations réelles des concepts, que ce soit dans un contexte de fabrication flexible via la cellule de l'AIP de Valenciennes ou dans un contexte de maintenance prédictive via le projet industriel SURFER. Dans ce cadre, notre choix d'une implémentation " embarquée " de l'activité, nous démarque de la plupart des travaux réalisés au sein de la communauté française et constitue une réelle spécificité. Nos perspectives de Recherche s'articulent autour du concept d'auto-organisation qui s'avère fondamental pour le développement de systèmes intelligents. Elles visent de nombreux domaines applicatifs (systèmes de production, chaînes logistiques, systèmes de transport, systèmes hospitaliers, bâtiments intelligents...).

Page generated in 0.0157 seconds