• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 7
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Návrh a implementace QA procesů uživatelských rozhraní IS / Design and Implementation of QA Processes for Information System's UI

Tábi, Matej January 2016 (has links)
The diploma thesis focuses on current problems of UI testing within modern methods of design and implementation of information systems. It includes review of available technologies and pratices to solving these problems. There is analysis of selected company, Quality Assurance processes is designed to fit in the company culture. These processes are implemented into concrete project and also set indicators, which will be monitored and evaluated in future progress of the company.
2

An object-oriented approach to the translation between MOF Metaschemas

Raventós Pagès, Ruth 27 February 2009 (has links)
Since the 1960s, many formal languages have been developed in order to allow software engineers to specify conceptual models and to design software artifacts. A few of these languages, such as the Unified Modeling Language (UML), have become widely used standards. They employ notations and concepts that are not readily understood by "domain experts," who understand the actual problem domain and are responsible for finding solutions to problems.The Object Management Group (OMG) developed the Semantics of Business Vocabulary and Rules (SBVR) specification as a first step towards providing a language to support the specification of "business vocabularies and rules." The function of SBVR is to capture business concepts and business rules in languages that are close enough to ordinary language, so that business experts can read and write them, and formal enough to capture the intended semantics and present them in a form that is suitable for engineering the automation of the rules.The ultimate goal of business rules approaches is to build software systems directly from vocabularies and rules. One way of reaching this goal, within the context of model-driven architecture (MDA), is to transform SBVR models into UML models. OMG also notes the need for a reverse engineering transformation between UML schemas and SBVR vocabularies and rules in order to validate UML schemas. This thesis proposes an automatic approach to translation between UML schemas and SBVR vocabularies and rules, and vice versa. It consists of the application of a new generic schema translation approach to the particular case of UML and SBVR.The main contribution of the generic approach is the extensive use of object-oriented concepts in the definition of translation mappings, particularly the use of operations (and their refinements) and invariants, both formalized in the Object Constraint Language (OCL). Translation mappings can be used to check that two schemas are translations of each other, and to translate one into the other, in either direction. Translation mappings are declaratively defined by means of preconditions, postconditions and invariants, and they can be implemented in any suitable language. The approach leverages the object-oriented constructs embedded in Meta Object Facility (MOF) metaschemas to achieve the goals of object-oriented software development in the schema translation problem.The generic schema translation approach and its application to UML schemas and SBVR vocabularies and rules is fully implemented in the UML-based Specification Environment (USE) tool and validated by a case study based on the conceptual schema of the Digital Bibliography & Library Project (DBLP) system.
3

Μεθοδολογίες σχεδίασης υψηλής απόδοσης για ενσωματωμένες πλατφόρμες / High-performance design methodologies

Γαλάνης, Μιχαήλ 06 November 2007 (has links)
Στην παρούσα διδακτορική διατριβή προτείνονται μεθοδολογίες σχεδίασης εφαρμογών σε ενσωματωμένες πλατφόρμες ειδικού σκοπού για την βελτίωση της απόδοσης εφαρμογών που εκτελούνται σε αυτές. Τα θεωρούμενα συστήματα στοχεύουν σε αριθμητικά απαιτητικές εφαρμογές, όπως είναι εφαρμογές Ψηφιακής Επεξεργασίας Σήματος και πολυμέσων. Οι περιγραφές των εφαρμογών γίνεται σε γλώσσα υψηλού επιπέδου γεγονός που διευκολύνει την υλοποίηση των εφαρμογών στις θεωρούμενες επεξεργαστικές πλατφόρμες. Οι μεθοδολογίες έχουν αυτοματοποιηθεί, με την χρήση πρωτότυπων και εμπορικά διαθέσιμων εργαλείων, για την αποτελεσματική και γρήγορη αποτίμηση των λύσεων σχεδίασης και απεικόνισης. Αρχικά, προτείνεται μια μέθοδος για την αποτελεσματική υλοποίηση εφαρμογών Ψηφιακής Επεξεργασίας Σήματος σε ένα σύστημα μικροεπεξεργαστή που περιέχει σαν επιταχυντή κρίσιμων τμημάτων ένα ευέλικτο χειριστή δεδομένων (data-path). Η υπεροχή του προτεινόμενου data-path σε σχέση με υπάρχοντες χειριστές δεδομένων δείχνεται για ένα σύνολο χαρακτηριστικών αριθμητικών υπολογιστικών πυρήνων (kernels). Παρουσιάζεται μια αυτοματοποιημένη μέθοδος σύνθεσης πυρήνων για το χειριστή δεδομένων. Αυτή η διαδικασία σύνθεσης ενσωματώνεται σε ένα γενικό περιβάλλον σχεδίασης εφαρμογών για το θεωρούμενο σύστημα που έχει σαν στόχο την βελτίωση της απόδοσης και την μείωση κατανάλωση ενέργειας. Στην συνέχεια, παρουσιάζεται ένα περιβάλλον λογισμικού που υλοποιεί μια φορμαλισμένη μεθοδολογία για τον διαχωρισμό εφαρμογών Ψηφιακής Επεξεργασίας Σήματος μεταξύ επαναπροσδιοριζόμενων τμημάτων μικτής υφής για πρώτη φορά στην βιβλιογραφία. Κρίσιμα τμήματα επιταχύνονται στο επαναπροσδιοριζόμενο υλικό χονδροειδούς υφής για να ικανοποιηθούν οι χρονικοί περιορισμοί του κώδικα της εφαρμογής που απεικονίζεται στην επαναπροσδιοριζόμενη λογική του συστήματος. Η επαναπροσδιοριζόμενη λογική λεπτής υφής υλοποιείται από ένα ενσωματωμένο Field Programmable Gate Array (FPGA), ενώ η επαναπροσδιοριζόμενη λογική χονδροειδούς υφής από ένα δικό μας αναπτυγμένο χειριστή +δεδομένων υψηλής απόδοσης. Η αποτελεσματικότητα του πρωτότυπου λογισμικού επιβεβαιώνεται χρησιμοποιώντας ρεαλιστικές εφαρμογές. Αναλυτικά πειράματα δείχνουν σημαντικές βελτιώσεις στην απόδοση, ενώ καθορισμένοι χρονικοί περιορισμοί ικανοποιούνται για όλες τις δοκιμασμένες εφαρμογές. Παρουσιάζεται η ενσωμάτωση ενός προτεινόμενου ευέλικτου προτύπου Επαναπροσδιοριζόμενης Αρχιτεκτονικής Πίνακα (ΕΑΠ) χονδροειδούς υφής σε δύο διαφορετικά συστήματα σε ολοκληρωμένα κυκλώματα. Για την αποτελεσματική εκτέλεση υπολογιστικά απαιτητικών τμημάτων στην ΕΑΠ αναπτύχθηκε μια πρωτότυπη αυτοματοποιημένη διαδικασία απεικόνισης, που βασίζεται σε έναν νέο αλγόριθμο διοχέτευσης βρόχου. Η αποτελεσματικότητα της ΕΑΠ και της αντίστοιχης διαδικασίας απεικόνισης διαπιστώνονται με εκτέλεση ρεαλιστικών εφαρμογών. Στο πρώτο σύστημα η ΕΑΠ μαζί με ένα FPGA σχηματίζουν την επαναπροσδιοριζόμενη λογική μιας υβριδικής πλατφόρμας. Στο δεύτερο σύστημα σε ολοκληρωμένο κύκλωμα, η ΕΑΠ συνδέεται άμεσα με έναν μικροεπεξεργαστή γενικού σκοπού ενεργώντας σαν συνεπεξεργαστής για την εκτέλεση κρίσιμων βρόχων. Πρωτότυπα αυτοματοποιημένα περιβάλλοντα σχεδίασης προτείνονται για την αποτελεσματική και εύκολη υλοποίηση ολόκληρων εφαρμογών στα συστήματα. Τέλος, προτείνεται μια πρωτότυπη μεθοδολογία διαχωρισμού υλικού/λογισμικού για την βελτίωση της απόδοσης ρεαλιστικών εφαρμογών σε ένα ενσωματωμένο σύστημα σε ολοκληρωμένο κύκλωμα που αποτελείται από έναν προγραμματιζόμενο μικροεπεξεργαστή και FPGA επαναπροσδιοριζόμενη λογική. Η μεθοδολογία έχει αυτοματοποιηθεί σε μεγάλο βαθμό με την χρήση ακαδημαϊκών και εμπορικών εργαλείων. Το FPGA ενεργεί σαν επιταχυντής κρίσιμων τμημάτων κώδικα βελτιώνοντας την απόδοση των εφαρμογών κοντά σε θεωρητικά μέγιστα όρια επιταχύνσεων. Αναλυτικά πειράματα με διαφορετικού τύπου μικροεπεξεργαστές και FPGA δείχνουν την αποτελεσματικότητα της μεθοδολογίας. / In this Ph.D. dissertation, design methodologies for embedded platforms with the aim of improving the performance of realistic applications executed on them are proposed. The considered system platforms target on arithmetic intensive applications, as in the case of Digital Signal Processing and multimedia applications. The applications are coded in a high-level language, fact that eases the implementation of applications in the considered processing platforms. The methodologies have been automated, with the usage of prototype and commercial tools, for the efficient and rapid evaluation of the design and mapping solutions. Initially, a method is proposed for the effective implementation of Digital Signal Processing applications on a microprocessor system that includes as an accelerator of critical application parts a flexible data-path. The effectiveness of the proposed data-path relative to existing ones is illustrated for a set of characteristic arithmetic intensive kernels. An automated synthesis methodology for kernels is presented. This synthesis method is incorporated on a design flow for the considered system that aims in improving application performance and reducing energy consumption. Afterwards, a software framework that implements a formalized methodology for partitioning Digital Signal Processing and multimedia applications between mixed granularity reconfigurable hardware parts is presented. Critical application parts are accelerated on the coarse-grained reconfigurable hardware for satisfying timing constraints of application code mapped on the reconfigurable logic of the platform. The fine-grained reconfigurable hardware is implemented by an embedded Field Programmable Gate Array (FPGA), whereas the coarse-grained reconfigurable logic by an our-developed high-performance reconfigurable data-path. The efficiency of the prototype software is justified using realistic applications. Analytical experiments illustrate that important performance improvements are achieved, while the targeted timing constraints are satisfied for all the tested applications. The incorporation of a proposed flexible template of a Coarse Grained Reconfigurable Array (CGRA) in two different system on chip is presented. For the efficient execution of computational intensive parts on the CGRA an automated mapping process, that it is based on a software loop pipelining algorithm, is developed. The efficiency of the CGRA and of its respective mapping procedure are realized with the execution of real-life applications. In the first system, the CGRA together with an FPGA form the reconfigurable logic of a hybrid platform. In the second system on chip, the CGRA is directly attached to a general purposed microprocessor acting as a co-processor for the execution of critical loops. Automated design frameworks are proposed for the efficient and straightforward implementation of complete applications on the systems. Finally, a hardware/software partitioning methodology is proposed for the performance improvements of realistic applications in an embedded system on chip that it is composed by a programmable microprocessor and an FPGA reconfigurable hardware. The methodology has been automated in a large extend with the usage of academic and commercial tools. The FPGA acts as an accelerator for critical code segments improving by this way the performance of applications close to maximum theoretical bounds. Extensive experiments with different types of microprocessors and FPGAs show the effectiveness of the methodology.
4

Service Desk z pohledu statistiky / Statistical view on Service Desk

Kabátková, Jana January 2009 (has links)
The thesis is divided into three parts. In the first part we describe the theoretical basis for what we explain and analyze in practice in other parts of this thesis. In this section, we can find all stages of the service life cycle according to ITIL methodology (IT Infrastructure Library), which serves to all organizations involved in managing IT services. We focus mainly on the current version of ITIL V3, which is grouped in five books and gradually through the entire service life cycle. Whereas it is not used only one standard in practice, there are also described other methodologies which are often used. In the second part there is shown the practice of service delivery in IT area for company Pražská energetika a.s. There are mapped individual processes, roles and functions of one of the stages -- Service Operations. The primary goal of this section is a detailed description of the Service Desk function, where we compare theory with practice. In the last, third part we analyze obtained data, for the purpose to evaluate function of Service Desk. One of the objective of this analysis is a data prediction, which we will achieve by using time series. The results of this analysis will be provided to the company management.
5

Definició d'una metodologia experimental per a l'estudi de resultats en sistemes d'aprenentatge artificial

Martorell Rodon, Josep Maria 23 November 2007 (has links)
El treball presentat s'emmarca dins del camp d'actuació propi del Grup de Recerca en Sistemes Intel·ligents: l'aprenentatge artificial. Les grans àrees són la computació evolutiva i el raonament basat en casos, tot dirigint la recerca a problemes de classificació, diagnosi i predicció. En tots aquests camps són objecte d'estudi grans conjunts de dades, pels quals es treballen diferents tècniques que en permeten l'extracció de coneixement i l'aplicació als problemes citats. Els grans avenços en aquestes àrees (sovint en forma de nous algorismes) conviuen amb treballs molt parcials sobre les metodologies adequades per a l'avaluació d'aquestes noves propostes. En front d'aquesta situació, la tesi que aquí es presenta proposa un nou marc general per a l'avaluació del comportament d'un conjunt d'M algorismes que, per tal de ser analitzats, són assajats sobre N problemes de prova. La tesi sosté que l'anàlisi habitual que es fa d'aquests resultats és clarament insuficient, i que degut a això les conclusions que s'exposen en els treballs publicats són sovint parcials, i en alguns casos fins i tot errònies.El treball s'inicia amb un estudi introductori sobre les mesures que permeten expressar la bondat d'un algorisme, a través de l'assaig sobre una col·lecció de problemes de prova. En aquest punt, es demostra la necessitat d'un estudi previ de les propietats inherents d'aquests problemes (a partir, per exemple, de les mètriques de complexitat) si es vol assegurar la fiabilitat de les conclusions que s'obtindran.A continuació, es defineix el marc d'aplicació de tot un conjunt de tècniques d'inferència estadística per les quals, essent aquestes prou ben conegudes, s'analitzen els factors a tenir en compte en la determinació del seu domini d'ús. La tesi proposa un protocol general per a l'estudi, des d'un punt de vista estadístic, del comportament d'un conjunt d'algorismes, incloent uns nous models gràfics que en faciliten l'anàlisi, i l'estudi detallat de les propietats inherents als problemes de prova utilitzats. Aquest protocol determina el domini d'ús de les metodologies per a la comparació dels resultats obtinguts en cada problema. La tesi demostra, a més, com aquest domini està directament relacionat amb la capacitat d'aquesta metodologia per a determinar diferències significatives, i també amb la seva replicabilitat.Finalment, es proposen un conjunt de casos sobre resultats ja publicats amb anterioritat, fruit de nous algorismes desenvolupats pel nostre Grup de Recerca, molt en especial en l'aplicació del raonament basat en casos. En tots ells es mostra la correcta aplicació de les metodologies desenvolupades en els capítols anteriors, i es destaquen els errors comesos habitualment, que duen a conclusions no fiables. / El trabajo presentado se enmarca dentro del campo de actuación propio del Grupo de Investigación en Sistemas Inteligentes: el aprendizaje artificial. Las grandes áreas son la computación evolutiva y el razonamiento basado en casos, dirigiendo la investigación a problemas de clasificación, diagnóstico y predicción. En todos estos campos son objeto de estudio grandes conjuntos de datos, para los cuales se trabajan diferentes técnicas que permiten la extracción de conocimiento y la aplicación a los citados problemas. Los grandes avances en estas áreas (muchas veces en forma de nuevos algoritmos) conviven con trabajos muy parciales sobre las metodologías adecuadas para la evaluación de estas nuevas propuestas.Frente a esta situación, la tesis que aquí se presenta propone un nuevo marco general para la evaluación del comportamiento de un conjunto de M algoritmos que, para poder ser analizados, son ensayados sobre N problemas de prueba. La tesis sostiene que el análisis habitual que se hace de estos resultados es claramente insuficiente, i que debido a esto las conclusiones que se exponen en los trabajos publicados son muchas veces parciales, y en algunos casos hasta erróneas.El trabajo se inicia con un estudio introductoria sobre las medidas que permiten expresar la bondad de un algoritmo, a través del ensayo sobre una colección de problemas de prueba. En este punto, se demuestra la necesidad de un estudio previo de las propiedades inherentes de estos problemas (a partir, por ejemplo, de las métricas de complejidad) si se quiere asegurar la fiabilidad de las conclusiones que se obtendrán.A continuación, se define el marco de aplicación de todo un conjunto de técnicas de inferencia estadística para las cuales, siendo éstas bien conocidas, se analizan los factores a tener en cuenta en la determinación de su dominio de uso. La tesis propone un protocolo general para el estudio, desde un punto de vista estadístico, del comportamiento de un conjunto de algoritmos, incluyendo unos nuevos modelos gráficos que facilitan su análisis, y el estudio detallado de las propiedades inherentes a los problemas de prueba utilizados.Este protocolo determina el dominio de uso de las metodologías para la comparación de resultados obtenidos en cada problema. La tesis demuestra, además, como este dominio está directamente relacionado con la capacidad de esta metodología para determinar diferencias significativas, y también con su replicabilidad.Finalmente, se proponen un conjunto de casos sobre resultados ya publicados con anterioridad, fruto de nuevos algoritmos desarrollados por nuestro Grupo de Investigación, muy en especial en la aplicación del razonamiento basado en casos. En todos ellos se muestra la correcta aplicación de las metodologías desarrolladas en los capítulos anteriores, y se destacan los errores cometidos habitualmente, que llevan a conclusiones no fiables. / The present work is all part of the work field of the Research Group in Intelligent Systems: the machine learning. The main areas are the evolutive computation and the case based reasoning, the investigation being focused on the classification, diagnosis and prediction issues. In all of these fields, great groups of data are studied, for which different techniques are applied, enabling the knowledge extraction and the application of the aforementioned problems. The big breakthroughs in these areas (many times in ways of algorithms) coexist with very partial works on suitable methodologies for the evaluation of these new proposals. Before this situation, the thesis herein presented proposes a new general approach for the assessment of a set of M algorithms behaviour which, in order to be analysed, are tested over N datasets. The thesis maintains that the analysis made for these results is clearly insufficient and consequently the conclusions put forward in the works published are very often partial and in some cases even erroneous.This work begins with an introductory study on the measures allowing to express the performance of an algorithm, through the test over a collection of datasets. At this point it is evidenced that a prior study of the inherent properties of these problems (for instance, based on complexity metrics) is needed, in order to assure the reliability of the conclusions that will be drawn. Next, the scope of application of a whole set of well known techniques of statistical inference is defined, for which the factors to be taken into account in the determination of their application analysed. The thesis proposes a general protocol for the study, from a statistical point of view, of the behaviour of a set of algorithms, including new graphic patterns which facilitate its analysis, as well as the detailed study of the inherent properties of the test problems used.This protocol determines the application domains of the methodologies for the comparison of the results obtained in each problem. The thesis demonstrates furthermore how this domain is directly related to the capability of this methodology to determine significant differences, as well as to its replicability.Finally, a set of cases on results already published are proposed, resulting from new algorithms developed by our Research Group, very specially in the application of the case-based reasoning. In all these cases the application of the methodologies developed in the previous chapters is proved to be correct, and the errors incurred in repeatedly, leading to unreliable conclusions, are highlighted.
6

Development and validation of the HarsMeth NP methodology for the assessment of chemical reaction hazards.

Sales Saborit, Jaime 20 December 2007 (has links)
L'objectiu d'aquest treball es centra en el desenvolupament, comprovació i millora d'una metodologia per l'assessorament del perill tèrmic de les reaccions químiques, orientada especialment a les petites i mitjanes empreses. La metodologia està basada en un sistema de llistes de comprovació per identificar els perills, així com en altres eines senzilles d'entendre per a personal no expert en seguretat. Els orígens del desenvolupament de la metodologia es basen en dos eines existents, HarsMeth i Check Cards for Runaway. S'han pres diferents enfocaments per tal d'aconseguir una metodologia d'assessorament fiable. En primer lloc s'ha verificat l'eficàcia d'ambdues metodologies en diferents empreses dedicades al desenvolupament de productes de química fina, per determinar els punts forts i els punts febles de cada una de elles, i per aprofitar els avantatges identificats per tal de crear una unica metodologia anomenada HarsMeth version 2. A continuació, s'ha provat aquesta versió exhaustivament en dos empreses químiques per tal de millorarla, detectant fallades i allargant les llistes de comprovació amb la finalitat de cobrir el màxim número possible de qüestions per l'assessorament. Altres activitats s'han centrat en el desenvolupament d'eines per a la determinació teòrica de entalpies de reacció i per la identificació de perills tèrmics en equips de procés. La versió final de la metodologia que s'ha desenvolupat, anomenada HarsMeth New Process, està estructurada per tal de realitzar l'assessorament seguint els passos lògics en el desenvolupament d'un procés químic, començant per el disseny de la reacció química en el laboratori, seguit per l'anàlisi de la estabilitat i compatibilitat dels reactius, l'anàlisi de la perillositat de la reacció, l'escalat del procés, i la determinació de les mesures de seguretat necessàries per implementar el procés a escala industrial en funció dels perills identificats anteriorment. Un altre estratègia seguida per millorar la metodologia ha estat analitzar els accidents químics inclosos en la base de dades MARS amb la finalitat de determinar lliçons per aprendre dels accidents, així com per identificar quins aspectes de la metodologia haurien ajudat a prevenir els accidents, i a posar de relleu quins aspectes de la seguretat quimica s'han de tenir especialment en compte a les indústries de procés. / El objetivo de este trabajo se centra en el desarrollo, comprobación y mejora de una metodología para el asesoramiento del peligro térmico de las reacciones químicas, orientada especialmente a las pequeñas y medianas empresas. La metodología está basada en un sistema de listas de comprobación para identificar los peligros, así como en otras herramientas fáciles de entender para personal no experto en seguridad. Los orígenes del desarrollo de la metodología se basan en dos herramientas existentes, HarsMeth y Check Cards for Runaway. Se han seguido diferentes enfoques para llegar a una metodología de asesoramiento fiable. En primer lugar se ha verificado la eficacia de ambas metodologías en diferentes empresas dedicadas al desarrollo de productos de química fina, para determinar las fuerzas y debilidades de cada una de ellas, y para aprovechar las ventajas identificadas para crear una única metodología llamada HarsMeth version 2. A continuación, se ha probado esta versión exhaustivamente en dos empresas químicas para mejorarla, detectando fallos y expandiendo las listas de comprobación con el fin de cubrir el máximo número de cuestiones posibles en el asesoramiento. Otras actividades se han centrado en el desarrollo de herramientas para la determinación teórica de entalpías de reacción y para la identificación de peligros térmicos en equipos de proceso. La versión final de la metodología que se ha desarrollado, llamada HarsMeth New Process, está estructurada para realizar el asesoramiento siguiendo los pasos lógicos del desarrollo de un proceso químico, empezando por el diseño de la reacción química en el laboratorio, siguiendo con el análisis de la estabilidad y compatibilidad de los reactivos, el análisis de la peligrosidad de la reacción, el escalado del proceso y la determinación de medidas de seguridad necesarias para implementar el proceso a escala industrial en función de los peligros identificados anteriormente. Otra estrategia seguida para mejorar la metodología ha sido analizar los accidentes químicos incluidos en la base de datos MARS con el fin de determinar lecciones a aprender de los accidentes, así como identificar qué aspectos cubiertos por la metodología podrían haber ayudado a prevenir los accidentes, y a enfatizar qué aspectos de la seguridad química deben tener especialmente presentes las industrias de proceso. / The aim of this work is focused on the development, testing and improvement of a methodology for the assessment of thermal hazards of chemical reactions, mainly oriented to be used at small and medium enterprises. The methodology consists on a checklist based system to identify thermal hazards, including tools easy to be followed by non experts in the field of safety. The origins of the development are two already existing tools known as HarsMeth and Check Cards for Runaway. Different approaches have been followed in order to come up with a reliable assessment tool. In the first place, the two mentioned methodologies were tested at different companies working on fine chemical production, which gave the possibility to determine strengths and weaknesses for both methodologies, and to profit from the identified strengths to combine them to create one single tool called HarsMeth version 2. Later, this version was thoroughly tested at two different companies to improve it, by detecting flaws and expanding the checklists in order to cover as many issues as possible in the assessment. Further work performed aimed at the development of tools for the theoretical estimation of reaction enthalpies and for the identification of thermal hazards in process equipment. A final version of the methodology was produced, called HarsMeth New Process, structured to perform the hazard assessment at every step followed in the development of a chemical process, starting from the design of the chemical reaction at the laboratory, followed by the study of stability and compatibility of the reactants involved, the bench scale analysis of the synthesis path chosen, the scale up of the process and the determination of the necessary safety measures for the implementation of the process at industrial scale in accordance with the hazards identified. Another strategy followed in order to improve the methodology has been to analyse the chemical accidents reported to the MARS database in order to establish lessons learned from such accidents, and to identify what topics of the methodology could have helped to prevent the accidents and to emphasize what aspects of chemical safety need to be taken into account by the process industries.
7

Metodología de los mapas de concordancia para la estratificación de variables cuantitativas: aplicación a la asignatura de Medidas Electrónicas

Badia Folguera, David 06 November 2012 (has links)
Es desenvolupa una metodologia que combina algoritmes exploratoris i iteratius que pren com a base el concepte de concordança del coeficient de correlació W de Kendall. A partir de conjunts complexos d'ítems i les seves puntuacions (activitats d'avaluació, problemes, pràctiques, indicadors de rendiment, mesuraments i, en general, qualsevol variable quantitativa) s'aconsegueixen identificar conjunts concordants, és a dir, estructures explicatives de la dificultat del conjunt de ítems. La lectura d'aquests conjunts es pot fer de dues maneres gràcies a la informació que proporcionen els algoritmes creats: a) Transversal, de manera que els conjunts concordants formen el "esquelet de dificultat" del problema i són, per tant, referències per estudiar la resta de puntuacions en altres ítems. b) Longitudinal, mitjançant l'estudi del que anomenem Mapes de Concordança, els quals mostren l'evolució dels conjunts concordants en anar incorporant elements en cada iteració, i detectant per tant els ítems discordants respecte a conjunts estables donats. L'aplicació d'aquesta metodologia és molt àmplia, i és susceptible de ser posada en pràctica en qualsevol camp de les ciències on es realitzin mesures i es vulgui observar les variacions creuades entre individus. En aquesta investigació s'aplica a l'assignatura de Laboratori de mesures electròniques. Els resultats aporten llum a la manera de millorar les pràctiques existents i de construir-ne de noves en el futur. / Se desarrolla una metodología que combina algoritmos exploratorios e iterativos que toma como base el concepto de concordancia del coeficiente de correlación W de Kendall. A partir de conjuntos complejos de ítems y sus puntuaciones (actividades de evaluación, problemas, prácticas, indicadores de rendimiento, mediciones y, en general, cualquier variable cuantitativa) se consiguen identificar conjuntos concordantes, es decir, estructuras explicativas de la dificultad del conjunto de ítems. La lectura de estos conjuntos puede hacerse de dos maneras gracias a la información que proporcionan los algoritmos creados: a) Transversal, de manera que los conjuntos concordantes forman el “esqueleto de dificultad” del problema y son, por tanto, referencias para estudiar el resto de puntuaciones en otros ítems. b) Longitudinal, mediante el estudio de lo que denominamos Mapas de Concordancia, los cuales muestran la evolución de los conjuntos concordantes al ir incorporando ítems en cada iteración, y detectando por tanto los ítems discordantes respecto a conjuntos estables dados. La aplicación de dicha metodología es muy amplia, siendo susceptible de ser puesta en práctica en cualquier campo de las ciencias donde se realicen mediciones y se quiera observar las variaciones cruzadas entre individuos. En la presente investigación se aplica a la asignatura de Laboratorio de medidas electrónicas. Los resultados arrojan luz sobre la manera de mejorar las prácticas existentes y de construir otras nuevas en el futuro. / We have developed a new methodology that combines both exploratory and iterative algorithms which is based on the concept of concordance of the correlation coefficient W of Kendall. Starting from complex sets of items and their scores (assessment activities, problems, practices, performance indicators, measurements and, in general, any quantitative variable) it is possible to identify consistent sets, i.e., structures that explain the difficulty of the set of items. Reading these sets can be done in two different ways thanks to the information provided by the algorithms created: a) Transversal, so that the concordant sets form the "backbone difficulty" of the problem and, therefore, they become references to study the remaining scores on other items. b) Longitudinal, by studying what we call concordance maps, which show the evolution of the consistent sets when new items are incorporated after each iteration and thus detecting the discordant items with regard to given stable sets. The application of this methodology is very broad, being useful in any field of science where measurements are carried out and you may want to see cross-variations among individuals. In this research it has been applied to the subject Electronic Measurements Laboratory. The results point to different ways to improve the existing practices and create new ones in the future.

Page generated in 0.0657 seconds