• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 30
  • 5
  • Tagged with
  • 67
  • 41
  • 41
  • 37
  • 27
  • 24
  • 23
  • 20
  • 17
  • 17
  • 16
  • 15
  • 14
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Performance Prediction and Evaluation Tools

Girona Turell, Sergi 24 July 2003 (has links)
La predicció és un concepte de recerca molt interessant. No es només predir el resultat futur, sinó que també cal predir el resultat conegut, a vegades anomenat validació. L'aplicació de tècniques de predicció sobre el comportament de sistemes és sempre molt útil perquè ens ajuda a comprendre el funcionament del elements que estem analitzant.Aquest treball va començar tot analitzant la influència de l'execució concurrent de diverses aplicacions de pas de missatges. Així, l'objectiu original era trobar i proposar uns algorismes de planificació de processos que obtinguessin un throughput màxim, equitatiu, i amb un rendiment adecuat del sistema.Per a poder avaluar adecuadament aquestes polítiques de planificació, varem trobar que ens calien eines d'analisi. Dimemas i Paraver són les eines de l'entorn que anomenem DiP. Tot i que aqueste eines varem estar dissenyades fa més de deu anys, són vàlides i ampliables.Dimemas es l'eina de predicció de rendiment. Tot fent ús de models senzills, pot predir el temps d'execució de les aplicacions de pas de missatges, fent servir un conjunt de paràmetres que modelitzen el funcionament del sistema. No és només una eina que prediu el temps d'execució, sinó que s'ha demostrat molt útil per entendre la influència dels diferents paràmetres del sistema en el temps de resposta de les aplicacionsL'eina d'anàlisi de l'entorn DiP s'anomena Paraver. Permet analitzar simultàniament moltes aplicacions i el sistema des de diferent punts de vista: analitzant els missatges, les contencions a la xarxa de comunicació, la planificació del processador.Promenvir/ST-ORM és l'eina d'anàlisi estocàstic. Inclou utilitats que permeten analitzar la influència de qualsevol paràmetre del sistema, així com sintonitzar els paràmetres de simulació, per aconseguir que les prediccions s'aproximin a la realitat.La qualitat i categoria de les decisions que varem prendre fa anys queda demostrada per la mètode de com cal utilitzar conjuntament totes les eines, i perquè són eines què es corresponen a l'estat de l'art actual.Aquest treball inclou la descripció de les diferents eines, des de el punt de vista de disseny fins la seva utilització (en cert grau), la validació de Dimemas, el disseny conceptual de Promenvir, la presentació del mètode que cal emprar amb aquestes eines (incloent anàlisi d'aplicacions individuals fins a anàlisis més complex), i alguns dels nostres primers anàlisi sobre polítiques de planificació de processador. / Prediction is an interesting research topic. It is not only to predict the future result, but also to predict the past, often called validation. Applying prediction techniques to observed system behavior has always been extremely useful to understand the internals of the elements under analysis.We have started this work to analyze the influence of several message passing application when running in parallel. The original objective was to find and propose a process scheduling algorithm that maximizes the system throughput, fair, proper system utilization.In order to evaluate properly the different schedulers, it is necessary to use some tools. Dimemas and Paraver, conform the core of DiP environment. These tools has been designed ten years ago, but still valid and extensible.Dimemas is a performance prediction tool. Using a single models, it capable to predict execution time for message passing applications, considering few system parameters for the system. It is useful not only to predict the result of an execution, but to understand the influence of the system parameters in the execution time of the application.Paraver is the analysis tool of DiP environment. It allows the analysis of applications and system from several points of view: analyzing messages, contention in the interconnection network, processor scheduling.Promenvir/ST-ORM is a stochastic analysis tool. It incorporates facilities to analyze the influence of any parameter in the system, as well as to tune the simulation parameters, so the prediction is close to reality. The methodology on how to use these tools as a group to analyze the whole environment, and the fact that all those tools are State of the Art, demonstrates the quality of the decisions we made some years ago.This work includes description of the different tools, from its internal design to some external utilization, the validation of Dimemas, the concept design of Promenvir, the architecture for Promenvir, the presentation of the methodology used with these tools (for simple application analysis to complex system analysis), and some of our first analyses on processor scheduling policies.
32

Aportaciò a la detecció de simetries en imatges amb projecció ortogràfica

Marès Martí, Pere 11 June 2002 (has links)
El mètode de detecció de simetria local de reflexió que es presenta, pretén ser una aportació més a la recerca en visió per computador i la robòtica. Com és sabut haches camps d'aplicació impliquen considerar el temps de processament com un paràmetre bàsic. Així doncs, en aquesta tesi no ens conformem en obtenir un algorisme eficient de detecció de simetria si no que es planteja millorar el temps de processame nt a partir de l'obtenció de metodologies i algorismes que tinguin la qualitat de permetre una fácil implantació del processament en paral· lel així com de la implementació de processadors específics.El mètode de detecció de simetria es basa en les contribucions a la simetria de les parelles de segments rectilinis de la imatge. Aquesta aproximació permet una reducció considerable de la complexitat, de la mateixa manera que altres autors utilitzen reduccions basades en diferents agrupacions de punts de contorn, com ara segments d'arcs, b-splines etc. El mètode, així concebut, serà aplicable en imatges on les línies rectes siguin predominats com és el cas de construccions artificials i entorns estructurats.Tot i que l'anterior restricció és important, és adequada per al tipus d'aplicacions que hem exposat anteriorment i ens permet obtenir un mètode de detecció contributiu, a partir de l'acumulació de contribucions locals a la simetria de les parelles de segments rectilinis de la imatge. Es tracta doncs d'un mètode basat en un anàlisi local que mostra els avantatges d'aquesta aproximació mentre que pel fet de tractar-se d'un mètode contributiu millora els dos principals inconvenients de l'aproximació local, és a dir, la sensibilitat al soroll i la inestabilitat, la qual cosa representa una aportació a la superació del dilema "anàlisi local versus anàlisi global".El mètode es composa de quatre etapes:- Obtenció de la llista de segments rectilinis de la imatge- Obtenció dels segments de contribució a la simetria- Càlcul del mapa d'acumulació dels segments de contribució- Extracció d'eixos locals de simetriaUna característica que distingeix el mètode és que proporciona l'abast de la simetria, és a dir, la llargada dels eixos de simetria, precisant-ne els punts inicial i final. Per altra banda la característica contributiva del mètode proposat, ha permès detectar els eixos de simetria local amb una ponderació associada segons la seva importància. D'aquesta forma s'evita el processat d'alt nivell posterior per tal de determinar els eixos més significatius, necessari en la majoria de mètodes basat en l'aproximació local. Respecta la millora del temps de processat i donada la complexitat i extensió del problema de la detecció de simetria, s'ha fet un primer esforç en una de les etapes del mètode de més cost de computació. Concretament s'ha accelerat un procés que forma part del càlcul del mapa d'acumulació esmentat anteriorment, consistent en l'obtenció dels píxels que aproximen, en el pla discret, un segment rectilini especificat per els seus punts inicial i finals. Aquesta millora s'ha obtingut mitjançant un algorisme paral· lel que presenta com avantatges més rellevants: la simplicitat, eficiència i que permet un directa implementació d'un processador dedicat. Per l'altra banda, amb el mateix objectiu de millorar el temps de processament i en base a l'algorisme anterior, s'ha dissenyat un processador paral· lel dedicat que té la capacitat d'obtenir i emmagatzemar simultàniament, en una matriu de registres, el conjunt de píxels que aproximen, en el pla discret, un segment rectilini caracteritzat per els seus punts inicial i final. Una característica molt remarcable del processador és que obté i registra els píxels anteriors en un únic període de rellotge.Finalment per tal de conèixer el paràmetres referents a la seva viabilitat i prestacions, s'ha obtingut, mitjançant la simulació, una versió reduïda amb tecnologia d'alta escala d'integració VLSI en un únic circuit. El disseny obtingut ha mostrat la capacitat de processar17,2 Mega Segments/seg, en el pitjor del casos, mentre que en les condicions més favorables es capaç de processar 57,3 Mega segments/segon. / The method of reflection local symmetry detection presented aims to be a new approach to the research in vision computer and robotics. As we know them, these fields of application imply to consider the processing time as a basic parameter. In this way, in this thesis we shall obtain an efficient algorithm for symmetry detection and, moreover, we will try to improve the processing time with methodologies and algorithms that will be able to embed easily in parallel architectures and the implementation of specific processors.The symmetry detection method is based in symmetry contributions from the straight segments in the image. This approximation permits a considerable reduction in the complexity in the same way that other authors use reductions based in different grouping of contour points, such as arcs, b-splines, etc. The method conceived like this will be applicable in images where straight lines are predominant like in the case of artificial buildings and structured environments.Although the above restriction is important, it is suitable for all kinds of applications that we have exposed previously and it allows us to obtain a contributive detection method from the accumulation of local contribution of symmetry in pairs of straight segments in the image. Thus, it is a method based in the local analysis that shows the advantages of this approach while it improves the two main disadvantages of local approximation because it is a contributive method. These drawbacks are the sensibility to noise and instability which represent a novel approach to the overcoming of the "local analysis versus global analysis" dilemma.Four steps compose the method: - To obtain the straight segments list in the image- To obtain the symmetry contribution segments- To calculate an accumulation map of contribution segments- To extract the local symmetry axes.A distinctive feature is that the method yields the symmetry range, that is, the length of symmetry axes, with precise position of initial and final points.On the other hand, the contributive feature of the proposed method has allowed us to detect the local symmetry axes with an associated weight to their importance. That avoids the posterior high level processing in order to determine the more significative axes needed in most of the approaches based in local approximation. With respect to the improvement of processing time, and given the complexity and extension of the symmetry detection problem, an initial effort has been made in one of the stages of higher computational cost in the method. Specifically, a process in the calculation of the accumulation map has been accelerated, consistently in the achieving of pixels that form, in the discrete plane, a straight segment specified for its initial and final points. This improvement has been obtained with a parallel algorithm that presents more relevant advantages: simplicity, efficiency and it allows a direct implementation with a dedicated processor.Furthermore, with the same objective of processing time improvement and in basis to the above algorithm, a dedicated parallel processor has been designed with the capability to obtain and store simultaneously, in an array of registers, the set of pixels that approximate, in the discrete plane, a straight segment characterised by its initial and final points. A very remarkable feature of the processor is to obtain and store those pixels in a unique clock period.Finally, in order to know the parameters concerning its viability and performance, a simulated reduced version with VLSI (very large scale integration) technology in a unique circuit has been achieved. The obtained design has shown the capability of processing 17.2 million segments per second in the worst case, while in the most favourable conditions it is able to process up to 57.3 million segments per second.
33

Global illumination techniques for the computation of hight quality images in general environments

Pérez Cazorla, Frederic 26 May 2003 (has links)
The objective of this thesis is the development of algorithms for the simulation of the light transport in general environments to render high quality still images. To this end, first we have analyzed the existing methods able to render participating media, more concretely those that account for multiple scattering within the media. Next, we have devised a couple of two pass methods for the computation of those images. For the first step we have proposed algorithms to cope with the scenes we want to deal with. The second step uses the coarse solution of the first step to obtain the final rendered image.The structure of the dissertation is briefly presented below.In the first chapter the motivation of the thesis and its objectives are discussed. It also summarizes the contributions of the thesis and its organization.In the second chapter the principles of global illumination for general environments are reviewed, with the most important equations---the rendering equation and the transport equation---whose solution constitutes the global illumination problem. In order to solve the global illumination problem, a certain number of multi-pass methods exist. Their objective is to be able to skip restrictions on the number of types of light paths that could be dealt with a single technique, or increase efficiency and/or accuracy. We have opted to follow this philosophy, and a pair of two pass methods have been developed for general environments.The third chapter includes the study of the methods that perform the single scattering approximation, and also the study of the ones that take into account multiple scattering.The fourth chapter is devoted to our first pass method, which computes a rough estimate of the global illumination. Knowing the benefits of hierarchical approaches, two concrete algorithms based on hierarchies have been extended to be more generic: Hierarchical Radiosity with Clustering and Hierarchical Monte Carlo Radiosity.Our second pass is considered in the next chapter. Using the coarse solution obtained by the first pass, our second pass computes a high quality solution from a given viewpoint. Radiances and source radiances are estimated using Monte Carlo processes in the context of path tracing acceleration and also for final gather. Probability density functions (PDFs) are created at ray intersection points. For such a task, we initially used constant basis functions for the directional domain. After realizing of their limitations we proposed the Link Probabilities (LPs), which are objects with adaptive PDFs in the links-space.In order to take advantage of the effort invested for the construction of the LPs, we have devised two closely related progressive sampling strategies. In the second pass, instead of sampling each pixel individually, only a subset of samples is progressively estimated across the image plane. Our algorithms are inspired by the work of Michael D. McCool on anisotropic diffusion using conductance maps.The final chapter presents the conclusions of the thesis. Also possible lines of further research are suggested. / El objetivo de esta tesis es el desarrollo de algoritmos para la simulación del transporte de la luz en los entornos genéricos para generar imágenes de la alta calidad. Con este fin, primero hemos analizado los métodos existentes capaces de visualizar medios participativos, más concretamente los que tienen en cuenta la dispersión múltiple en los medios. Después, hemos ideado un par de métodos de dos pasos para el cómputo de esas imágenes. Para el primer paso hemos propuesto algoritmos que hacen frente a las escenas que deseamos tratar. El segundo paso utiliza la solución aproximada del primer paso para obtener la imagen final. La estructura de la disertación se presenta brevemente en lo que sigue.En el primer capítulo se discuten la motivación de la tesis y sus objetivos. También se resumen las contribuciones de la tesis y su organización. En el segundo capítulo se repasan los principios de la iluminación global para los ambientes genéricos, con las ecuaciones-más importantes (la ecuación de rendering y la ecuación de transporte) cuya solución constituye el problema global de iluminación. Para solucionar el problema global de iluminación, cierto número de métodos de múltiples pasos existen. Su objetivo es poder eliminar restricciones en el número de tipos de caminos de luz que se podrían tratar con una sola técnica, o aumentar su eficacia y/o exactitud. Hemos optado seguir esta filosofía, desarrollando un par de métodos de dos pasos para entornos genéricos.El tercer capítulo incluye el estudio de los métodos que utilizan la aproximación de dispersión simple, y también el estudio de los que consideran la dispersión múltiple.El cuarto capítulo está dedicado a nuestro método de primer paso, que computa un cálculo aproximado de la iluminación global. Conociendo las ventajas de los métodos jerárquicos, dos algoritmos concretos basados en jerarquías se han ampliado para ser más genéricos: radiosidad jerárquica con clustering y radiosidad jerárquica usando Monte Carlo. Nuestro segundo paso se considera en el capítulo siguiente. Usando la solución aproximada obtenida por el primer paso, el segundo paso computa una solución de la alta calidad para un punto de vista dado. Se estiman las radiancias usando procesos de Monte Carlo en el contexto de la aceleración de trazadores de rayos y también para final gather. Las funciones de densidad de probabilidad (PDFs) se crean en los puntos de interacción de los rayos. Para tal tarea, utilizamos inicialmente funciones constantes como base para el dominio direccional. Después de comprender sus limitaciones, propusimos establecer probabilidades directamente sobre los enlaces (link probabilities, o LPs), usando objetos con PDFs adaptativos en el espacio de los enlaces.Para aprovechar el esfuerzo invertido en la construcción de los LPs, hemos ideado dos estrategias de muestreo progresivas. En el segundo paso, en vez de muestrear cada pixel individualmente, solamente se estima progresivamente un subconjunto de muestras a través del plano de imagen. Nuestros algoritmos han sido inspirados en el trabajo de Michael D. McCool en la difusión anisotrópica usando mapas de conductancia.El capítulo final presenta las conclusiones de la tesis, y también sugiere las líneas posibles de investigación futura.
34

A Hybrid Environment for Syntax-Semantic Tagging

Padró, Lluís 06 February 1998 (has links)
The thesis describes the application of the relaxation labelling algorithm to NLP disambiguation. Language is modelled through context constraint inspired on Constraint Grammars. The constraints enable the use of a real value statind "compatibility". The technique is applied to POS tagging, Shallow Parsing and Word Sense Disambigation. Experiments and results are reported. The proposed approach enables the use of multi-feature constraint models, the simultaneous resolution of several NL disambiguation tasks, and the collaboration of linguistic and statistical models. / La tesi descriu l'aplicació de l'algorisme d'etiquetat per relaxacio (relaxation labelling) a la desambiguació del llenguatge natural. La llengua es modela mitjançant restriccions de context inspirades en les Constraint Grammars. Les restriccions permeten l'ús d'un valor real que n'expressa la "compatibilitat". La tècnica s'aplica a la desambiguació morfosintàctica (POS tagging), a l'anàlisi sintàctica superficial (Shallow Parsing) i a la desambiguació semàntica (Word Sense Disambigation), i se'n presenten experiments i resultats. L'enfoc proposat permet la utilització de models de restriccions amb trets múltiples, la resolució simultània de diverses tasques de desambiguació del llenguatge natural, i la col·laboració de models linguístics i estadístics.
35

Learning with Feed-forward Neural Networks: Three Schemes to Deal with the Bias/Variance Trade-off

Romero Merino, Enrique 30 November 2004 (has links)
In terms of the Bias/Variance decomposition, very flexible (i.e., complex) Supervised Machine Learning systems may lead to unbiased estimators but with high variance. A rigid model, in contrast, may lead to small variance but high bias. There is a trade-off between the bias and variance contributions to the error, where the optimal performance is achieved.In this work we present three schemes related to the control of the Bias/Variance decomposition for Feed-forward Neural Networks (FNNs) with the (sometimes modified) quadratic loss function:1. An algorithm for sequential approximation with FNNs, named Sequential Approximation with Optimal Coefficients and Interacting Frequencies (SAOCIF). Most of the sequential approximations proposed in the literature select the new frequencies (the non-linear weights) guided by the approximation of the residue of the partial approximation. We propose a sequential algorithm where the new frequency is selected taking into account its interactions with the previously selected ones. The interactions are discovered by means of their optimal coefficients (the linear weights). A number of heuristics can be used to select the new frequencies. The aim is that the same level of approximation may be achieved with less hidden units than if we only try to match the residue as best as possible. In terms of the Bias/Variance decomposition, it will be possible to obtain simpler models with the same bias. The idea behind SAOCIF can be extended to approximation in Hilbert spaces, maintaining orthogonal-like properties. In this case, the importance of the interacting frequencies lies in the expectation of increasing the rate of approximation. Experimental results show that the idea of interacting frequencies allows to construct better approximations than matching the residue.2. A study and comparison of different criteria to perform Feature Selection (FS) with Multi-Layer Perceptrons (MLPs) and the Sequential Backward Selection (SBS) procedure within the wrapper approach. FS procedures control the Bias/Variance decomposition by means of the input dimension, establishing a clear connection with the curse of dimensionality. Several critical decision points are studied and compared. First, the stopping criterion. Second, the data set where the value of the loss function is measured. Finally, we also compare two ways of computing the saliency (i.e., the relative importance) of a feature: either first train a network and then remove temporarily every feature or train a different network with every feature temporarily removed. The experiments are performed for linear and non-linear models. Experimental results suggest that the increase in the computational cost associated with retraining a different network with every feature temporarily removed previous to computing the saliency can be rewarded with a significant performance improvement, specially if non-linear models are used. Although this idea could be thought as very intuitive, it has been hardly used in practice. Regarding the data set where the value of the loss function is measured, it seems clear that the SBS procedure for MLPs takes profit from measuring the loss function in a validation set. A somewhat non-intuitive conclusion is drawn looking at the stopping criterion, where it can be seen that forcing overtraining may be as useful as early stopping.3. A modification of the quadratic loss function for classification problems, inspired in Support Vector Machines (SVMs) and the AdaBoost algorithm, named Weighted Quadratic Loss (WQL) function. The modification consists in weighting the contribution of every example to the total error. In the linearly separable case, the solution of the hard margin SVM also minimizes the proposed loss function. The hardness of the resulting solution can be controlled, as in SVMs, so that this scheme may also be used for the non-linearly separable case. The error weighting proposed in WQL forces the training procedure to pay more attention to the points with a smaller margin. Therefore, variance tries to be controlled by not attempting to overfit the points that are already well classified. The model shares several properties with the SVMs framework, with some additional advantages. On the one hand, the final solution is neither restricted to have an architecture with so many hidden units as points (or support vectors) in the data set nor to use kernel functions. The frequencies are not restricted to be a subset of the data set. On the other hand, it allows to deal with multiclass and multilabel problems in a natural way. Experimental results are shown confirming these claims.A wide experimental work has been done with the proposed schemes, including artificial data sets, well-known benchmark data sets and two real-world problems from the Natural Language Processing domain. In addition to widely used activation functions, such as the hyperbolic tangent or the Gaussian function, other activation functions have been tested. In particular, sinusoidal MLPs showed a very good behavior. The experimental results can be considered as very satisfactory. The schemes presented in this work have been found to be very competitive when compared to other existing schemes described in the literature. In addition, they can be combined among them, since they deal with complementary aspects of the whole learning process.
36

Diseño conceptual de productos asistido por ordenador : Un estudio analítico sobre aplicaciones y definición de la estructura básica de un nuevo programa

Chaur Bernal, Jairo 03 June 2005 (has links)
El tema de la investigación es «la creatividad en la fase conceptual del diseño de productos» y se orienta a la aplicación del ordenador como herramienta de asistencia al ingeniero de diseño. De las tres fases del proceso de diseño de productos (definición del problema, generación de conceptos y desarrollo de la mejor alternativa), es en la segunda, conocida como «síntesis», donde se da la máxima expresión de creatividad. La hipótesis de partida afirma la posibilidad de asistir al ingeniero de diseño en esa etapa, mediante el uso de «software creativo» (que implementa técnicas, metodologías y herramientas de creatividad). El objetivo principal de esta tesis es obtener la estructura de tal tipo de software, partiendo de la identificación de características adecuadas, mediante un estudio experimental detallado, previa definición de un modelo objetivo de valoración. Diseño se entiende aquí como el conjunto de actividades que conduce al desarrollo de una idea de producto. Mientras que la creatividad técnica es aquella que produce dos resultados complementarios: novedad y utilidad. La revisión de las tendencias que siguen los productores de software CAD/CAM/CAE, indican que la fase del análisis, que caracteriza al diseño de detalle, sigue siendo privilegiada con respecto a la fase de diseño conceptual. Del software creativo genérico ofrecido actualmente, se hace una selección de cuatro programas representativos que desarrollan metodologías como las de brainstorming, sinéctica, mapas mentales y TRIZ. Los modelos de medición de la creatividad se aplican a la persona, el proceso o el producto. Se seleccionó el test CREA para el primer caso. Para los otros, se realizó una adaptación de la propuesta de Shah (2003), que, junto con aportes propios, condujo a la definición del modelo de valoración de la creatividad de ideas generadas durante el proceso de diseño, con cuatro índices: flexibilidad, fluidez, elaboración y originalidad. Tal modelo facilitó la comparación gráfica y cuantitativa de las variables: tiempos por actividad y por módulo de software, cantidad total, flujo y origen de ideas, índices de creatividad y trayectoria creativa. El factor de diseño experimental fue el tipo de software, con cinco niveles: cuatro programas y un testigo. Se realizaron cuatro repeticiones y el método utilizado fue el estudio de protocolo modificado para obtener la información de cuatro fuentes: vídeo, dibujos, archivo generado y secuencia de uso del software.Los resultados obtenidos y su respectivo análisis permitieron identificar características relevantes de cada programa, herramientas efectivas y configuraciones más aceptadas por los diseñadores. En general, se puede afirmar que el software creativo sí propicia la generación de ideas mediante asociaciones, transformaciones o exploraciones. Con la identificación de estas características, se desarrolló la propuesta de estructura del nuevo software, presentada en forma de maqueta. Se sustenta, en el modelo FBS (Function-Behaviour-Structure) para construir el proceso evolutivo del diseño, centrado en la «función» con sus tres roles: modelación de requerimientos, articulación entre estos y el objeto, e instrumento de evaluación del valor del objeto. Se tiene en cuenta la forma de representación del modelo de evolución funcional de Takeda (1996), con un cuerpo de función, modificadores funcionales y estructuras de solución; y el estímulo al desarrollo cíclico de etapas divergentes y convergentes (Liu et. al., 2003). La propuesta articula dos tipos de herramientas. En el primero se incluye las técnicas de creatividad identificadas como las más eficientes. En el segundo están las bases de datos que sirven de extensión a la memoria del diseñador, de manera que disponga siempre de fuentes adecuadas para traducir o procesar las ideas generadas con las técnicas de creatividad, convirtiéndolas en ideas útiles para solucionar el problema de diseño. / The subject of this investigation is the creativity in the conceptual phase of the product design and it is oriented to the application of the computer as aid tool to design engineers. The three phases of the product design process are: problem definition, concepts generation, and development of the best alternative. It is in the second of them, known as "synthesis", where the highest creativity expression occurs. The main hypothesis is the affirmation of the possibility of aiding the design engineers in conceptual stage by the use of "creative software" (that implements technical, methodologies and tools of creativity). The aim of this thesis is to obtain the structure of such software by means of the definition of an objective evaluation model and then, by a detailed experimental study. Design is understood as the set of activities that leads to the development of a product idea. Whereas the technical creativity produces two complementary results: newness and utility. The tendencies that follow by the CAD/CAM/CAE producers, indicates that the phase of the analysis (that characterizes to the detail design), continues being privileged with respect to the conceptual design phase. Four representative programs were selected of the actual generic creative software; they develop techniques as brainstorming, synectis, mind maps and TRIZ. The evaluation of creativity can be approached from three different points of view: the qualification of the individual (the psychological viewpoint), the process of product design (the process viewpoint) and the product designed (the product viewpoint).The "CREA" test was selected for the individual creativity evaluation. For the others viewpoints, an adaptation of the proposals of Shah & Vargas (2003) was made, that lead to the definition of the evaluation model for creativity of ideas generated during the design process, with four indices: flexibility, fluidity, elaboration and originality. Such model facilitated the graphical and quantitative comparison of variables: times by activity and software module; total amount, flow and origin of ideas; indices of creativity and creative trajectory. The factor of experimental design was the type of software, with five levels: four programs and a witness. Four repetitions were made and the used method was the study of protocol, modified to obtain the data of four sources: video, drawings, generated file and sequence of use of software. The results and their respective analysis allowed to identify the best characteristics of each program, effective tools and configurations more accepted by the designers. In general, it is possible to be affirmed that creative software is useful for generation of ideas by means of associations, transformations or explorations. With the identification of these characteristics, the mock-up of the new software structure is presented. It is sustained, in the FBS model (Function-Behaviour-Structure), to construct the evolutionary process of the design, where the function plays its three roles: modelling of requirements, fit between these and the object, and instrument for object evaluation. The representation form of the Takeda's (1996) functional evolution was considered, with a function body, functional modifiers and structures of solution; and the stimulus to the cyclical development of divergent and convergent stages (Liu et al., 2003). The proposal articulates two types of tools. In first one includes the most efficient techniques of creativity identified in the experimental study. In the second, there are the data bases, useful as extension to the designer memory, so that he or she, always has suitable sources to translate or to process the ideas generated with the creativity techniques, turning them useful ideas to solve the design problem.
37

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).
38

Estimation of the Transport Demand for Real-Time Aplications

Casas Vilaró, Jordi 15 March 1998 (has links)
La implementació dels sistemes de transport intel·ligent (ITS) ha possibilitat disposar de gran quantitat de dades de trànsit en temps real, utilitzant les actuals infrastructures en la xarxa viària que ens permeten recollir informació on-line. Mesures de flux de trànsit, velocitats o ocupació proporcionats pels detectors son un exemple. Com utilitzar les dades de trànsit en temps real, així com les dades històriques, per realitzar una predicció a curt termini és encara un problema obert als investigadors. El problema de la predicció del trànsit a curt termini és determinar l'evolució del flux del trànsit o, de forma equivalent, l'estat de la xarxa. La possibilitat de realitzar una predicció dinàmica de l'estat de la xarxa és essencial per la gestió del trànsit i centres d'informació de trànsit, permetent l'aplicació de polítiques de control o gestió per prevenir les congestions, i evitar el problemes que es deriven quan aquesta congestió ja és present.Els sistemes avançats de gestió de trànsit (ATMS) i sistemes avançats d'informació de trànsit (ATIS) han de considerar en temps real períodes de temps on ni la demanda ni el flux de trànsit son constants ni homogenis. La demanda i el flux tenen un comportament dinàmic, és a dir, son dependents del temps. El concepte de gestió de trànsit, com es defineix en Barceló (1991), té un sentit més ampli que el clàssic concepte de control de trànsit, ja que realitza accions sobre el temps, incloent el control sobre l'espai, com per exemple la redistribució dels fluxos amb accions de "rerouting" proposant rutes alternatives. Com a conseqüència la gestió de trànsit requereix una modelització dinàmica que representi la variació del flux a través del temps. Totes les propostes de sistemes avançats de trànsit i sistemes de control basats en les tecnologies telemàtiques estan d'acord amb la importància de la predicció a curt termini de l'evolució del flux de trànsit, que és equivalent a tenir una predicció a curt termini de l'estat de la xarxa viària per gestionar correctament el trànsit, disseminació de la informació als usuaris, etc. Algunes arquitectures de sistemes han estat proposades i avaluades en projectes Europeus en els darrers anys. Malauradament els resultats obtinguts en aquests projectes no es poden extrapolar o aplicar a estructures urbanes complexes. Altres propostes més adequades a estructures més complexes han estat desenvolupades, com per exemple les referenciades en Cascetta (1993) i Barceló (1997), però aquests models no son massa apropiats en aplicacions totalment dinàmiques i això ens ha portat a explorar altres direccions per cercar un model de predicció adequat. Davant les prometedores capacitats de les xarxes neuronals com a eines útils en la predicció, (Baldi i Hornik, 1995), vàrem decidir explorar aquesta alternativa. Aquest plantejament, basat en l'obtenció de dades de detecció reals combinat amb les matrius OD històriques, determina la predicció a curt termini de la matriu OD, definida per períodes. Aquesta matriu obtinguda com a resultat, pot ser utilitzada com a dada d'entrada en el simulador microscòpic de trànsit i obtenir l'evolució dels fluxos de trànsit, i com a conseqüència, la predicció de l'estat de la xarxa.Considerant aquesta visió dinàmica de la demanda, podem considerar cada element de la matriu O/D com una sèrie temporal, i per tant la predicció d'una matriu OD consisteix en realitzar la predicció de cada component de la matriu, és a dir, la predicció simultània de diverses sèries temporals multivariants. Solucions a aquest problema basades en mètodes de predicció clàssics, com per exemple Box-Jenkins o filtres de Kalman, han estat proposat per diversos autors (Davis, 1993; Davis et al., 1994; Van der Ziipp i Hamerslag, 1996), i aquestes propostes donen bons resultats en infrastructures lineals, com podria ser el cas d'autopistes, però en el cas de xarxes amb una estructura més complexa, com podria ser un xarxa urbana, no està clar si proporcionen resultats acceptables, encara que en alguns del més prometedors casos, (Davis,1994), la càrrega computacional necessària posa en dubte el seu ús en aplicacions en temps real de xarxes d'una mida considerable, fent necessari la cerca d'altres mètodes.Les xarxes neuronals apareixen com a candidates naturals per un model de predicció, amb el valor afegit de la seva estructura fàcilment paral·lelitzable que en el cas d'un sistema en temps real és una característica a tenir en compte. Una altra raó per pensar en la utilització de les xarxes neuronals son els resultats reportats per en Chakraborty (1992) en l'anàlisi de sèries temporals multivariant utilitzant xarxes neuronals, o d'en Weigend (1992) en l'avaluació de les capacitats predictives comparades amb altres models clàssics.La predicció dinàmica de l'estat de la xarxa en termes de predicció de la matriu OD utilitzant Xarxes Neuronals té un inconvenient: la quantitat de dades necessàries per un correcte aprenentatge. El treball de recerca realitzat en aquesta tesis proposa solventar aquest desavantatge particionant la xarxa neuronal amb grups de parells OD "independents" segons la identificació de camins més utilitzats.La predicció a curt termini desemboca d'aquesta forma cap al crític problema de l'Assignació Dinàmica de Trànsit (DTA), que en aquesta tesis és resolta amb una heurística basada en la microsimulació. El treball de recerca planteja un dels aspectes més crítics de la simulació dinàmica de xarxes viàries, anomenat heurística d'assignació dinàmica, amb la consideració dels models de selecció de rutes, i la metodologia de la validació, un aspecte important per determinar el grau de validació i significació dels resultats de simulació. Aquest treball està estructurat en dues parts, la primera ens dóna una visió global de com les principals funcionalitats han estat implementades en el simulador microscòpic AIMSUN, (AIMSUN 2002), i una segona part dedicada a parlar en detall de la heurística dissenyada i determinar una guia en la calibració/validació dels seus paràmetres. Un cop el model de simulació està validat i calibrat, llavors és utilitzat per realitzar el DTA on els seus resultats ens permeten identificar els camins més utilitzats per llavors determinar la partició dels parells OD i així la definició de les xarxes neuronals per la realitzar la predicció. / The implementation of Intelligent Transport Systems (ITS) has made vast quantities of real-time traffic data available, by making use of current road network infrastructure that enables information to be gathered on-line. Detectors that measure traffic flow, speed and occupancy are an example. How to use real-time traffic data, as well as historical data, to provide short-term traffic prediction, remains an open problem for researchers. The problem of short-term traffic prediction involves determining the evolution of traffic flows or, equivalently, of the network state. The ability to predict the network state dynamically is essential in traffic management and for traffic information centres particularly, since it enables them to apply traffic control and traffic management policies to prevent traffic congestion rather than dealing with traffic problems after congestion has already occurred. Advanced traffic management systems (ATMS) and advanced traffic information systems (ATIS) must consider, in real time, short time intervals in which neither demand nor flows are constant and homogenous. Demand and flow behave dynamically, that is, they are both time-dependent. The concept of traffic management, as defined by Barceló (1991), is broader than the classic concept of traffic control, because it takes action over time, including control over space, such as, for instance, redistributing flows by rerouting, that is, by proposing alternatives routes. Therefore, traffic management applications require dynamic modelling that shows flow variation over time.All proposals for advanced traffic management and control systems that are based on telematic technologies agree on the importance of short-term prediction of traffic flow evolution, which is equivalent to the short-term prediction of the network state, for correct decision-making in traffic management, information dissemination to users, etc. Several system architectures have been proposed and evaluated in European projects in recent years. Although the achievements of these projects cannot be applied or extrapolated to complex urban structures, other models that are more suited to complex networks have been developed, by Cascetta (1993) and Barceló (1997), for example. Unfortunately, these models do not appear to be appropriate for full dynamic applications, and so we had to look elsewhere in our search for a suitable prediction model. The promising features of neural networks, which make them suitable for use as predictive tools (Baldi and Hornik, 1995), encouraged us to explore this approach. The approach, which is based on real-time detector measurements combined with historical OD matrices, involves determining a short-term forecast of a sliced OD matrix. The forecast OD matrix could be used as input for a microscopic traffic simulator such as AIMSUN; thus the evolution of traffic flows and, as a consequence, the forecast network state could be obtained.According to this dynamic vision of demand, we can consider each of the OD matrix's components as a time series. Therefore, forecasting an OD matrix consists in performing the forecast for each component in the matrix, that is, in simultaneously forecasting many multivariate time series. Solutions to this problem that are based on classic forecasting methods, such as Box-Jenkins or Kalman filtering, have been proposed by several authors (Davis, 1993; Davis et al., 1994; Van der Ziipp and Hamerslag, 1996). The approaches proposed provide relatively good results for linear infrastructures, such as motorways, although it remains unclear whether they would provide reliable results in the case of more complex networks, such as urban networks. In some of the most promising cases (Davis, 1994), however, the computational task required practically invalidates their use in real-time applications in large-scale networks and makes it advisable to look for other methods. Neural networks appear to be natural candidates for forecasting models, particularly if their easily parallelisable structure is taken into account, and high computational speed is required to achieve a system's objectives. Further reasons to consider a neural network approach are the results reported by Chakraborty (1992) for multivariate time series analysis using neural networks and by Weigend (1992) in his evaluation of their predictive capabilities compared to other classic models.The dynamic prediction of the network state in terms of the OD matrix by means of neural networks has one main drawback: the amount of data required for the proper training of the neural network. This thesis proposes solving this handicap by partitioning the neural network in terms of clusters of independent or almost independent OD pairs. This technique allows an original neural network of a large size to be split into a set of smaller neural networks that are easier to train. Before the clustering problem can be solved, however, the paths that are most likely to be used between each OD pair must be identified.Short-term forecasting leads, in this way, to the critical problem of dynamic traffic assignment, which is solved in this thesis by a microsimulation-based heuristic. In the thesis, some of the most critical aspects of the dynamic simulation of road networks are discussed, namely heuristic dynamic assignment, implied route choice models and the validation methodology, a key issue in determining the degree of validity and significance of the simulation results. The work is divided into two parts: the first provides an overview of how the main features of microscopic simulation were implemented in the microscopic simulator AIMSUN (AIMSUN 2002) and the second is a detailed discussion of heuristic dynamic assignment and sets guidelines for calibrating and validating dynamic traffic assignment parameters. The calibrated and validated simulation model is then used to conduct a dynamic traffic assignment, whose output identifies the paths that are most likely to be used, which will be clustered in subsets that connect the OD pairs and will define the neural networks for the forecast.
39

Metodología para el diseño conceptual de almacenes de datos

Zepeda Sánchez, Leopoldo Zenaido 04 July 2008 (has links)
A partir de la introducción del modelo de datos multidimensional como formalismo de modelado para Almacenes de Datos (ADs), se han realizado distintas propuestas metodológicas para capturar la estructura del AD a nivel conceptual. Las soluciones propuestas parten de diferentes aspectos de diseño: los requisitos de usuario, el análisis del esquema de la base de datos operacional o una combinación de ambos (técnicas mixtas). Model Driven Architecture (MDA) es un nuevo estándar para el desarrollo de sistemas dirigido por modelos. MDA propone tres puntos de vista: Computation Independent Model (CIM), Platform Independent Model (PIM) and Platform Specific Model (PSM). Esta tesis, se enmarca en el área del diseño de ADs con MDA (una metodología para el diseño conceptual de ADs). Este método, es empleado con una metodología compuesta y consiste de tres fases. La primera fase, esta dedicada a examinar el esquema ER de la base de datos operacional, generando los esquemas multidimensionales candidatos para el AD. La solución a esta fase, se ha abordado en el contexto de MDA para esto, hemos definido un conjunto de reglas de transformación entre el PIM Entidad Relación (ER) y el PIM On-Line Analytical Processing (OLAP). En la segunda fase, los requisitos de usuario son recogidos por medio de entrevistas. El propósito de las entrevistas es obtener información acerca de las necesidades de análisis de los usuarios. Como base para esta fase, adaptamos un método de elicitación de requisitos basado en metas. La tercera fase, contrasta la información obtenida en la segunda fase, con los esquemas multidimensional candidatos formados en la primera fase generando así, la mejor solución (soportada por las bases datos operacionales) que mejor reflejan los requisitos de usuario. / Zepeda Sánchez, LZ. (2008). Metodología para el diseño conceptual de almacenes de datos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2506 / Palancia
40

A service-oriented approach for the i* framework

Estrada Esquivel, Hugo 30 September 2008 (has links)
Nuevas áreas de aplicación como comercio electrónico, aplicaciones para provisión de servicios y computación P2P (peer-to-peer) requieren de sistemas de software complejos que puedan soportar procesos de negocio en línea . Actualmente, los ingenieros de software han descubierto la efectividad de usar técnicas de modelado organizacional para guiar el proceso de producción de este tipo de sistemas complejos. En este contexto, el framework i* es una de las técnicas de modelado organizacional mejor fundamentadas hoy en día. i* se enfoca en dos aspectos principales: a) la representación de las relaciones sociales e intencionales que existen entre la red de actores de un negocio. b) la representación del comportamiento interno requerido para satisfacer las dependencias entre actores. El framework i* permite describir una organización como una red de actores que tienen libertad de acción, pero que dependen de otros actores para lograr sus metas y objetivos. Sin embargo, a pesar de las bien conocidas ventajas de i*, existen ciertos problemas que necesitan ser resueltos para asegurar su efectividad en ambientes reales de desarrollo. En este sentido, el framework necesita ser evaluado en la práctica con el objetivo de identificar sus fortalezas y debilidades en casos de estudio reales. Uno de los objetivos de esta tesis fue realizar una evaluación empírica que nos permitiera identificar y analizar los problemas prácticos de i*. Se presentan las lecciones aprendidas en términos de fortalezas y de puntos débiles que necesitan ser resueltos. Además, la tesis presenta soluciones a los puntos débiles que fueron detectados en la evaluación empírica. Consideramos que la orientación a servicios es un paradigma muy prometedor para enfrentar la complejidad del modelado de sistemas de tecnologías de información actuales. En este sentido, el principal objetivo de esta tesis fue definir una arquitectura orientada a servicios que nos permitiera resolver los problemas de complejidad de i*. / Estrada Esquivel, H. (2008). A service-oriented approach for the i* framework [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3305 / Palancia

Page generated in 0.0266 seconds