• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 189
  • 32
  • 30
  • 22
  • 16
  • 10
  • 9
  • 6
  • 4
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • Tagged with
  • 387
  • 387
  • 97
  • 92
  • 59
  • 55
  • 50
  • 45
  • 36
  • 34
  • 33
  • 33
  • 31
  • 29
  • 27
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
251

Fallbeispiele zum Reverse Engineering im Passagierflugzeugentwurf

Cheema, John Singh January 2019 (has links) (PDF)
Zweck - In dieser Bachelorarbeit werden die öffentlich nicht zugänglichen Technologieparameter von Passagierflugzeugen näherungsweise bestimmt. Das sind maximaler Auftriebsbeiwert bei Start und Landung, maximale Gleitzahl und spezifischer Kraftstoffverbrauch im Reiseflug. Folgende Flugzeuge werden paarweise untersucht und verglichen: A340-300 und IL-96-300, Boeing 727-200 Advanced und TU-154M, Fokker 100 und MD-82, A319-100 und An-72. --- Methodik - Die Berechnung erfolgt mit dem Excel-basierten Werkzeug "Passenger Jet Reverse Engineering" (PJRE). Grundlage der Berechnung ist die aus dem Flugzeugentwurf bekannte Dimensionierung mit dem Entwurfsdiagramm. Für die ausgewählten Passagierflugzeuge werden die erforderlichen Eingangsparameter recherchiert. Die zunächst unbekannten Technologieparameter werden dann mit PRJE sowohl ermittelt als auch verifiziert. --- Ergebnisse - Die Ergebnisse aus dem Reverse Engineering stimmen recht gut überein mit den Werten aus der Verifikation. Lediglich die Werte der maximalen Gleitzahl im Reiseflug sind berechnet aus der Verifikation oft deutlich höher als berechnet aus dem Reverse Engineering. Der spezifische Kraftstoffverbrauch im Reiseflug hat sich über die Jahrzehnte der Flugzeugentwicklung stark verringert. --- Bedeutung für die Praxis - Durch die Konkurrenzsituation der Flugzeughersteller können viele Flugzeugparameter nicht öffentlich zur Verfügung gestellt werden. Die Anwendung von PJRE zeigt, wie diese Parameter trotzdem näherungsweise ermittelt werden können. --- Soziale Bedeutung - Eine detaillierte Diskussion über Flugkosten, Ticketpreise und die Umweltverträglichkeit des Flugverkehrs setzt detaillierte Kenntnisse über die Flugzeuge voraus. Durch ein Reverse Engineering können Verbraucher diese Diskussion mit der Industrie auf Augenhöhe führen. --- Originalität / Wert - Nach der Entwicklung von PJRE wird die Methode hier zum ersten Mal angewandt.
252

Rechnergestützte Planung und Rekonstruktion für individuelle Langzeit-Knochenimplantate am Beispiel des Unterkiefers

Sembdner, Philipp 25 January 2017 (has links)
Die vorliegende Arbeit befasst sich mit der Entwicklung und Umsetzung von Methoden und Werkzeugen zur Bereitstellung von Modellen und Randbedingungen für die Konstruktion individueller Langzeit-Knochenimplantate (Konstruktionsvorbereitung). Grundlage dabei ist, dass die Planung aus medizinischer Sicht z.B. durch einen Chirurgen und die Konstruktion unter technischen Aspekten z.B. durch einen Konstrukteur getrennt erfolgt. Hierfür wird ein erarbeitetes Planungskonzept vorgestellt, welches sowohl die geplanten geometrischen Merkmale, als auch weiterführende Metadaten beinhaltet (Randbedingungen). Die Übergabe dieser Planungsdaten an die Konstruktion erfolgt über eine dafür entworfene Formatbeschreibung im Kontext der Schnittstelle zwischen Mediziner und Ingenieur. Weiterführend wird die Notwendigkeit von speziellen Funktionen für die Konstruktion von individuellen Implantaten in der Arbeitsumgebung des Konstrukteurs (z.B. Modelliersystem – CAD) am Beispiel der konturlinienbasierten Modellrekonstruktion erörtert. Die gesamtheitliche Basis bildet eine durchgängig digitale Prozesskette zur Datenaufbereitung, Konstruktion und Fertigung. Die Anwendbarkeit der Methoden und zweier umgesetzter Demonstratoren wurde innerhalb eines interdisziplinär angelegten Projektes am realen Patientenfall bestätigt.
253

Developing green design guidelines: a formal method and case study

Telenko, Cassandra 24 August 2010 (has links)
This thesis describes and demonstrates a method for consolidating, developing, and using green design guidelines for the innovation of greener products. Life cycle analysis (LCA) is one well-accepted tool for quantifying the environmental impacts of a product so designers can identify areas for redesign effort. However, LCA is a retrospective design tool that requires detailed design information that isn’t known until designs are near completion. Alternatively, green design guidelines provide proven techniques for designing greener products. They can be used during the early stages of design, when many decisions fundamental to innovation and environmental impact are made and before LCA is viable. This thesis extends the work already done in green design guidelines, by updating the current knowledge base and introducing a method for extending the set of existing guidelines to encompass new and emerging areas of sustainability. While guidelines have been created from prior experience in design for environment and life cycle analysis, they have not been maintained as a shared and coordinated repertoire of green design solutions. Instead, sets of guidelines are scattered throughout the literature, contain overlaps, operate at different levels of abstraction, and have varying levels of completeness. For example, some areas of green design guidelines, such as design for disassembly, are well established, while other areas of green design guidelines, such as minimizing energy consumption during use, are still being explored. Additionally, while numerous examples of green design guidelines exist, many of the guidelines have no documented validation of their life cycle impacts. The work for this thesis began with the compilation of a dynamic knowledge base of green design guidelines. This set of guidelines is a consolidation and updating of the green design guidelines already available in literature and can be used as a starting poinrt for future improvements and extensions as the field develops. A standard method was then proposed and tested for creating guidelines in currently undeveloped areas of green design, particularly energy consumption during the operation of a product. The method employs reverse engineering techniques and life cycle analysis to identify green requirements and develop corresponding, new green design guidelines. A case study of electric kettles demonstrated the usefulness of the method by yielding four new guidelines and four, corresponding, energy saving re-designs. For this example, the redesigns showed that guidelines can reduce energy consumption, but may incur tradeoffs with other life cycle stages. Calculation of tradeoffs revealed a range of net life cycle impact values that were caused by increased manufacturing demands and variability in consumer use habits. In addition to redesign in the kettle study, the four new guidelines were tested for usefulness in new product design by use of focus groups. Two groups were tasked with designing a new energy efficient toaster concept. Only one group was given the four green design guidelines that were uncovered using the proposed method. The design group using the new green design guidelines produced more viable and practical green features than the design group that did not have the guidelines as a design tool. These preliminary results suggest that the proposed method is useful for creating new guidelines that are beneficial to design teams tackling novel design problems that differ from the original case study. Further work is needed to establish the statistical significance of these results. / text
254

Development and Analysis of Integrated Circuit Topology Element Recognition System / Integrinių grandynų topologijos elementų atpažinimo sistemos sukūrimas ir tyrimas

Masalskis, Giedrius 25 January 2011 (has links)
Integrated circuit (IC) layer topology analysis methods are the main research topic of this doctoral thesis. Multiple methods are presented for IC layer feature analysis along with a software system where they are implemented and tested. Each of different IC layers has distinct features therefore it is very difficult to use universal algorithm for their analysis. A specialized software system was developed to test various analysis algorithms. The system and its architecture is a part of this thesis. Main tasks solved during research of this these were: finding or developing of optimal methods suitable for IC layer structure recognition, software system design and implementation, experimental testing of implemented methods accuracy and efficiency. Thesis consists of introduction, four chapters and the chapter of conclusions. In the introduction scientific novelty of the work is described as well as the aims and tasks of the work are formulated and the author’s publications and structure of the thesis are presented. The first chapter is dedicated to literature review. It covers existing IC layer structure analysis systems and algorithms which are used for this task. Generic image processing and analysis algorithms and methods are also covered as they are used as part of methodology developed in this thesis. The second chapter details different types of IC layers and their properties. Image processing and analysis methods suitable for each of these layer types are... [to full text] / Disertacijoje nagrinėjama integrinių grandynų (IG) topologijos elementų atpažinimo sistemos metodai ir algoritmai, jų taikymas bei pačios sistemos architektūra. Integrinių schemų projektavimo ir gamybos pramonėje problema yra automatinis kiekvieno technologinio lusto sluoksnio vaizdinės informacijos apdorojimas ir analizė, tiksliai išskiriant gamybos proceso metu suformuotas struktūras, tam kad šių duomenų pagalba galima būtų atlikti gamybos proceso tikslumo patikrinimą. Šio disertacijos darbo tyrimų objektas yra puslaidininkinių integrinių schemų sluoksniuose suformuoti elementai. Kiekvieno iš skirtingų sluoksnių struktūros pasižymi skirtingomis savybėmis, todėl labai sunku sukurti universalius analizės metodus. Dėl šios priežasties buvo sukurta speciali programinės įrangos (PĮ) sistema. PĮ architektūra yra disertacijos tyrimų objektas. Pagrindiniai disertacijoje sprendžiami uždaviniai: IG elementų struktūrų atpažinimo metodų pritaikymas ir kūrimas, PĮ sistemos projektavimas ir įgyvendinimas, eksperimentinis įdiegtų metodų efektyvumo ir tikslumo tyrimas. Disertaciją sudaro įvadas, keturi skyriai ir rezultatų apibendrinimas. Įvade nagrinėjamas problemos aktualumas, formuluojamas darbo tikslas bei uždaviniai, aprašomas mokslinis darbo naujumas, pristatomi autoriaus pranešimai ir publikacijos, disertacijos struktūra. Pirmasis skyrius skirtas analitinei literatūros apžvalgai. Jame nagrinėjamos žinomos IG topologijos elementų atpažinimo sistemos ir jose naudojami metodai... [toliau žr. visą tekstą]
255

Scalable (re)design frameworks for optimal, distributed control in power networks

Zhang, Xuan January 2015 (has links)
In this thesis, we develop scalable frameworks to (re)design a class of large-scale network systems with built-in control mechanisms, including electric power systems and the Internet, in order to improve their economic efficiency and performance while guaranteeing their stability and robustness. After a detailed introduction relating to power system control and optimization, as well as network congestion control, we turn our attention to merging primary and secondary frequency control for the power grid. We present modifications in the conventional generation control using a consensus design approach while considering the participation of controllable loads. The optimality, stability and delay robustness of the redesigned system are studied. Moreover, we extend the proposed control scheme to (i) networks with more complexity and (ii) the case where controllable loads are involved in the optimization. As a result, our controllers can balance power flow and drive the system to an economically optimal operating point in the steady state. We then study a real-time control framework that merges primary, secondary and tertiary frequency control in power systems. In particular, we consider a transmission level network with tree topology. A distributed dynamic feedback controller is designed via a primal-dual decomposition approach and the stability of the overall system is studied. In addition, we introduce extra dynamics to improve system performance and emphasize the trade-off when choosing the gains of the extra dynamics. As a result, the proposed controller can balance supply and demand in the presence of disturbances, and achieve optimal power flow in the steady state. Furthermore, after introducing the extra dynamics, the transient performance of the system significantly improves. A redesign framework for network congestion control is developed next. Motivated by the augmented Lagrangian method, we introduce extra terms to the Lagrangian, which is used to redesign the primal-dual, primal and dual algorithms. We investigate how the gains resulting from the extra dynamics influence the stability and robustness of the system. Moreover, we show that the overall system can achieve added robustness to communication delays by appropriately tuning these gains. Also, the meaning of these extra dynamics is investigated and a distributed proportional-integral-derivative controller for solving network congestion control problems is further developed. Finally, we concentrate on a reverse- and forward-engineering framework for distributed control of a class of linear network systems to achieve optimal steady-state performance. As a typical illustration, we use the proposed framework to solve the real-time economic dispatch problem in the power grid. On the other hand, we provide a general procedure to modify control schemes for a special class of dynamic systems. In order to investigate how general the reverse- and forward-engineering framework is, we develop necessary and sufficient conditions under which an linear time-invariant system can be reverse-engineered as a gradient algorithm to solve an optimization problem. These conditions are characterized using properties of system matrices and relevant linear matrix inequalities. We conclude this thesis with an account for future research.
256

A model-based approach for extracting business rules out of legacy information systems / Une approche dirigée par les modéles pour l’extraction de règles métier à partir des systèmes d’informations hérités

Cosentino, Valerio 18 December 2013 (has links)
Le monde des affaires d’aujourd’hui est très dynamique, donc les organisations doivent rapidement adapter leurs politiques commerciales afin de suivre les évolutions du marché. Ces ajustements doivent être propagés à la logique métier présente dans les systèmes d’informations des organisations, qui sont souvent des applications héritées non conçues pour représenter et opérationnaliser la logique métier indépendamment des aspects techniques du langage de programmation utilisé. Par conséquent, la logique métier intégrée au sein du système doit être identifiée et comprise avant d’être modifiée. Malheureusement, ces activités ralentissent la mise à jour du système vers de nouvelles exigences établies dans les politiques de l’organisation et menacent la cohérence des activités commerciales de celle-ci. Afin de simplifier ces activités, nous offrons une approche basée sur les modèles pour extraire et représenter la logique métier, exprimée comme un ensemble de règles de gestion, à partir des parties comportementales et structurelles des systèmes d’information. Nous mettons en œuvre cette approche pour les systèmes écrits en Java et COBOL ainsi que pour les systèmes de gestion de bases de données relationnelles. L’approche proposée est basée sur l’Ingénierie Dirigée par les Modèles, qui fournit une solution générique et modulaire adaptable à différents langages en offrant une représentation abstraite et homogène du système. / Today’s business world is very dynamic and organizations have to quickly adjust their internal policies to follow the market changes. Such adjustments must be propagated to the business logic embedded in the organization’s information systems, that are often legacy applications not designed to represent and operationalize the business logic independently from the technical aspects of the programming language employed. Consequently, the business logic buried in the system must be discovered and understood before being modified. Unfortunately, such activities slow down the modification of the system to new requirements settled in the organization policies and threaten the consistency and coherency of the organization business. In order to simplify these activities, we provide amodel-based approach to extract and represent the business logic, expressed as a set of business rules, from the behavioral and structural parts of information systems. We implement such approach for Java, COBOL and relational database management systems. The proposed approach is based on Model Driven Engineering,that provides a generic and modular solution adaptable to different languages by offering an abstract and homogeneous representation of the system.
257

Automatic reconstruction and analysis of security policies from deployed security components / Analyse et reconstruction automatique de politiques de sécurité de composants de sécurité déployés

Martinez, Salvador 30 June 2014 (has links)
La sécurité est une préoccupation essentielle pour tout système d’information. Propriétés de sécurité telles que la confidentialité, l’intégrité et la disponibilité doivent être appliquées afin de rendre les systèmes sures. Dans les environnements complexes, où les systèmes d’information sont composés par un certain nombre de sous-systèmes hétérogènes, chaque sous-système joue un rôle clé dans la sécurité globale du système. Dans le cas spécifique du contrôle d’accès, politiques de contrôle d’accès peuvent être trouvées dans différents composants (bases de données, réseaux, etc.), ces derniers étant sensés travailler ensemble. Néanmoins , puisque la plupart de ces politiques ont été mises en œuvre manuellement et / ou évolué séparément ils deviennent facilement incompatibles. Dans ce contexte, la découverte et compréhension des politiques de sécurité appliquées par le système d’information devient une nécessité critique. Le principal défi à résoudre est de combler le fossé entre les caractéristiques de sécurité dépendant du fournisseur et une représentation de plus haut niveau que exprime ces politiques d’une manière faisant abstraction des spécificités de composants concrètes, et donc, plus facile à comprendre et à raisonner avec. Cette représentation de haut niveau nous permettrait également de mettre en œuvre tous les opérations de évolution / refactoring / manipulation sur les politiques de sécurité d’une manière réutilisable. Dans ce travail, nous proposons un tel mécanisme de rétro-ingénierie et d’intégration des politiques de contrôle d’accès. Nous comptons sur les technologies de l’ingénierie dirigée par les modèles pour atteindre cet objectif . / Security is a critical concern for any information system. Security properties such as confidentiality, integrity and availability need to be enforced in order to make systems safe. In complex environments, where information systems are composed by a number of heterogeneous subsystems, each subsystem plays a key role in the global system security. For the specific case of access-control, access-control policies may be found in several components (databases, networksand applications) all, supposedly, working together. Nevertheless since most times these policies have been manually implemented and/or evolved separately they easily become inconsistent. In this context, discovering and understanding which security policies are actually being enforced by the information system comes out as a critical necessity. The main challenge to solve is bridging the gap between the vendor-dependent security features and a higher-level representation that express these policies in a way that abstracts from the specificities of concrete system components, and thus, it´s easier to understand and reason with. This high-level representation would also allow us to implement all evolution/refactoring/manipulation operations on the security policies in a reusable way. In this work we propose such a reverse engineering and integration mechanism for access-control policies. We rely on model-driven technologies to achieve this goal.
258

Analýza služeb informačního portálu / Internet Services Portal Analysis

Burian, Petr January 2009 (has links)
Fast development of services in the area of internet technology requires continuous research and development of software products, including information portals. Absence of documentation often limits the development of software products and increases the costs of maintenance of the product. It is essential to maintain or prepare, in case it is absent, quality documentation of the software in use to continue in portal's controlled development. Subject of this work is the analysis of services of internet information portal focused on tourism, specifically camping. The goal of the paper is to focus in detail on all services offered at the portal and subsequently analyse their benefits for the portal's users. We introduce basic terminology of internet portals. We introduce rules of usability and accessibility of web pages and their application for portal services. We describe the method of reverse engineering, that I use for update of the documentation of the services. The analysis is split in two phases. In the first phase, each service is described in detail and service's representation at higher abstraction level is created via reverse engineering. In the second phase we carry out and review questionnaire research. The research focuses on usage of the services by a group of potential customers. Based on the research carried out we conclude on recommendations about changes in further operation of the system.
259

Formal Approaches for Automatic Deobfuscation and Reverse-engineering of Protected Codes / Approches formelles de désobfuscation automatique et de rétro-ingénierie de codes protégés

David, Robin 06 January 2017 (has links)
L’analyse de codes malveillants est un domaine de recherche en pleine expansion de par la criticité des infrastructures touchées et les coûts impliqués de plus en plus élevés. Ces logiciels utilisent fréquemment différentes techniques d’évasion visant à limiter la détection et ralentir les analyses. Parmi celles-ci, l’obfuscation permet de cacher le comportement réel d’un programme. Cette thèse étudie l’utilité de l’Exécution Symbolique Dynamique (DSE) pour la rétro-ingénierie. Tout d’abord, nous proposons deux variantes du DSE plus adaptées aux codes protégés. La première est une redéfinition générique de la phase de calcul de prédicat de chemin basée sur une manipulation flexible des concrétisations et symbolisations tandis que la deuxième se base sur un algorithme d’exécution symbolique arrière borné. Ensuite, nous proposons différentes combinaisons avec d’autres techniques d’analyse statique afin de tirer le meilleur profit de ces algorithmes. Enfin tous ces algorithmes ont été implémentés dans différents outils, Binsec/se, Pinsec et Idasec, puis testés sur différents codes malveillants et packers. Ils ont permis de détecter et contourner avec succès les obfuscations ciblées dans des cas d’utilisations réels tel que X-Tunnel du groupe APT28/Sednit. / Malware analysis is a growing research field due to the criticity and variety of assets targeted as well as the increasing implied costs. These softwares frequently use evasion tricks aiming at hindering detection and analysis techniques. Among these, obfuscation intent to hide the program behavior. This thesis studies the potential of Dynamic Symbolic Execution (DSE) for reverse-engineering. First, we propose two variants of DSE algorithms adapted and designed to fit on protected codes. The first is a flexible definition of the DSE path predicate computation based on concretization and symbolization. The second is based on the definition of a backward-bounded symbolic execution algorithm. Then, we show how to combine these techniques with static analysis in order to get the best of them. Finally, these algorithms have been implemented in different tools Binsec/se, Pinsec and Idasec interacting alltogether and tested on several malicious codes and commercial packers. Especially, they have been successfully used to circumvent and remove the obfuscation targeted in real-world malwares like X-Tunnel from the famous APT28/Sednit group.
260

L'analyse formelle de concepts : un cadre structurel pour l'étude de la variabilité de familles de logiciels / Formal concept analysis : a structural framework to study variability in software families

Carbonnel, Jessie 29 October 2018 (has links)
Des familles de logiciels similaires proviennent fréquemment de pratiques de réutilisation de clones de logiciels existants, qui sont ensuite enrichis ou dépouillés de fonctionnalités pour suivre de nouvelles exigences. Avec le temps, ces variantes se multiplient et se complexifient, et il devient difficile de les maintenir, de les faire évoluer. L’ingénierie des lignes de produits logiciels regroupe un ensemble de méthodes visant à faciliter le développement et la gestion de telles collections de logiciels similaires. Documenter la variabilité est le point central de ce paradigme ; on la représente à travers des modèles de variabilité, qui servent de supports à la grande majorité des processus propres à l’ingénierie des lignes de produits. La migration complète ou partielle de ces familles de logiciels vers des approches de type lignes de produits permet la simplification de leur exploitation. La rétro-ingénierie, la modélisation et la gestion de la variabilité sont reconnues comme une phase cruciale et ardue de cette migration. Par conséquent, de nombreuses approches ont été proposées pour étudier des descriptions de familles de logiciels dans ce but. Plusieurs d’entre elles s’appuient sur l’analyse formelle de concepts, un cadre mathématique de groupement hiérarchique qui organise un ensemble d’objets et leurs descriptions dans une structure canonique mettant naturellement en évidence leurs aspects communs et variables.Dans ce manuscrit, nous défendons l'idée que l’analyse formelle de concepts, plus qu’un outil, offre un véritable cadre structurel et réutilisable à l’étude de la variabilité des familles de produits.Dans un premier temps, nous établissons un panorama des informations sur la variabilité qui sont mises en évidence grâce à ce formalisme, et discutons de son spectre d’applicabilité. Nous étudions les points communs entre les structures conceptuelles produites par l’analyse formelle de concepts et les modèles de variabilité. Dans un second temps, nous illustrons l’utilisation originale de ces structures conceptuelles comme support à des opérations de conception et de recherche d’informations. Enfin, nous élargissons notre champ d’étude aux informations plus complexes définies par des modèles de variabilité qui ont été étendus pour en améliorer l’expressivité, et dont la rétro-ingénierie est encore peu étudiée à ce jour. Nous montrons comment certaines propriétés de l’analyse formelle de concepts permettent de généraliser son utilisation à des descriptions de variantes plus complexes, et étudions son application pour la manipulation d’attributs multivalués et de cardinalités, en complément des caractéristiques booléennes traditionnelles. Nous évaluons notre approche sur des données issues de dépôts tels que SPLOT, fork-insight et de matrices de comparaison de produits de wikipedia. / Software families often rise from reuse practices as cloning existing software products which are then enhanced or pruned to fulfill new requirements. With time, these variants grow in number and in complexity, and become more and more complex to maintain. Software product line engineering gathers a set of methods that aims at facilitating the management and development of such collections of existing variants. Documenting variability is the central point of this paradigm; This variability is represented in variability models that support a large part of software product line engineering processes.The partial or complete migration from software families to a product line approach eases their exploitation.Reverse-engineering, modeling and managing variability are known as crucial tasks of the migration: therefore, numerous methods have been proposed to study descriptions of software families for this goal.Some of them are based on formal concept analysis, a mathematical framework for hierarchical clustering which organises set of objects and their descriptions in canonical structures highlighting naturally their commonalities and variability.In this thesis, we defend that formal concept analysis, more than a tool, is a relevant structural, reusable and extensible framework to study variability of software families.First, we propose an overview of variability information which is highlighted thanks to this framework, and we discuss its scope of applicability.We study the common points between the conceptual structures of formal concept analysis and variability models.Then, we show how to use these conceptual structures to support research and modeling operations.Finally, we broaden the scope of this study to take into account more complex information about extended variability.We evaluate our method on data taken from the SPLOT repository, fork-insight and product comparison matrices from wikipedia.

Page generated in 0.0479 seconds