• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 100
  • 83
  • 48
  • 2
  • Tagged with
  • 230
  • 179
  • 147
  • 146
  • 146
  • 144
  • 144
  • 89
  • 51
  • 44
  • 38
  • 37
  • 29
  • 27
  • 26
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
131

Teoría, estructura y modelos atómicos en los libros de texto de química de educación secundaria. Análisis desde la sociología de la ciencia e implicaciones didácticas

Farías Camero, Diana María 19 October 2012 (has links)
En esta tesis se aporta al análisis de los contenidos relacionados con la manera cómo se presenta la ciencia en los libros de texto escolares desde una perspectiva sociológica de las ciencias. En esta tesis se desarrolla y aplica una metodología en la que se emplean elementos del trabajo del sociólogo de la ciencia Bruno Latour para analizar una muestra de libros de texto escolares de química de educación secundaria publicados en territorio español desde 1845 hasta 2010. Las bases teóricas que sustentan el trabajo son el enfoque de HFC y su línea de investigación en NdeC, la sociología de las ciencias, los libros de texto y las investigaciones en didáctica de las ciencias referentes al tema central de esta tesis: teoría, estructura y modelos atómico. La revisión teórica se ha desarrollado con un enfoque historicista en el que lo relevante es mostrar las diferentes transformaciones y la evolución de los cuatro tópicos mencionados, con el fin de ubicar al lector en un escenario en el que se sustenta cómo la sociología de las ciencias ha sido excluida de la investigación en didáctica de las ciencias, pero en el que a la vez se señalan las condiciones que posibilitan aportes desde la sociología, tanto desde lo teórico como desde lo metodológico, para el análisis de cómo se construye el conocimiento científico en los libros de texto escolares de ciencias y cómo esas aportaciones pueden inscribirse dentro del enfoque HFC. El marco metodológico de carácter ampliamente cualitativo y descriptivo apuesta a la complejización, entendida como la posibilidad de combinar el análisis de algunos aspectos que dan cuenta de la ciencia y la práctica científica desde lo epistemológico, la evaluación de los eventos temporales del pasado y una revisión de las imágenes, que se ponen en común con el método propuesto en este trabajo, en el que los elementos del modelo de la circulación de la ciencia, los humanos y los no-humanos reflejan la presencia de redes dentro de los libros de texto que muestran la manera cómo circula la ciencia. En el método desarrollado se entienden los diferentes actores que participan para describir cómo se mueve la ciencia desde su epicentro hasta la esfera de lo público, a manera de nodos que pueden estar conectados en mayor o menor grado dependiendo de la manera como los autores de los libros de texto entienden y reflejan qué son la ciencia y el trabajo científico. Los resultados se presentan a través de esas cuatro perspectivas: una que desde el modelo de circulación de la ciencia y la teoría de redes permite evidenciar cómo se habla de la ciencia, de los científicos y la práctica científica en los libros de texto. Otra que da cuenta de las creencias epistemológicas de los autores de los libros con respecto a diferentes aspectos de la ciencia y la práctica científica, otra en la que se analizan las referencias temporales como indicio de la importancia de la contextualización histórica de los contenidos analizados y una que revisa el manejo de las imágenes alrededor de los principales actores en el relato científico escolar. Las conclusiones se articulan alrededor de las relaciones HFC- NdeC y sociología de las ciencias, la evaluación de los libros de texto y la metodología desarrollada, los contenidos que hablan sobre la ciencia en los libros de texto y la imagen de ciencia que transmiten, sobre los libros de texto como actores en la red de la ciencia y sobre los profesores que usan los libros. / This work analyzes from a sociological perspective how chemistry textbooks talks about scientific activity. We have developed and applied a new methodology based on Bruno Latour’s work. We have analyzed a sample with 61 Spanish chemistry textbooks published from 1845-today, we have stressed in atomic model, atomic structure and atomic models chapters. HPS, NOS, sociology of science and textbooks as multifaceted actors make up the theoretical framework of this work. Our main aim is to demonstrate how sociology of science has been excluded from science education research despite of the fact that it could contribute to HPS-NOS to talk about a more realistic science (closer to scientists’ science) in classrooms and science textbooks. Results were organized around four points: how science circulates in science textbooks using networks to visualize it, the role of textbook author’s epistemological conceptions, the role of time to talk about science of past and to connect it with science in the present and how the images are used to emphasize an specific image of science.
132

Enrique Moles y su obra

Berrojo Jario, Raúl 01 January 1980 (has links)
En esta tesis se trata de resaltar la figura del científico español Enrique Moles Ormella (Barcelona 1883-Madrid 1953), considerado por muchos como el químico más relevante de nuestro país en la etapa anterior a la Guerra Civil. Tras estudiar Farmacia en Barcelona y Madrid, fue pensionado por la Junta de Ampliación de Estudios para trabajar en Alemania, donde estuvo desde 1908 a 1911. A partir de entonces inició una fecunda carrera profesional, mediante la cual ejerció una gran influencia en varias generaciones de químicos españoles. Su principal campo de investigación fue la determinación de las masas atómicas de los elementos por medio del método de las densidades límite de los gases, aunque también se ocupó de otras materias como la determinación de los volúmenes moleculares, un trabajo que le hizo acreedor a varios premios internacionales (Cannizzaro, Van't Hoff y Solvay). Moles fue miembro de varias academias de ciencias extranjeras y se le atribuyen 262 publicaciones científicas, muchas de ellas en los "Anales de la Sociedad Española de Física y Química". Gracias a su labor, la ciencia española (y en particular la investigación química) pudo situarse en cierto modo a la altura de otras naciones desarrolladas.
133

Agent-Based Architecture for Multirobot Cooperative Tasks: Design and Applications

Nebot Roglá, Patricio 11 January 2008 (has links)
This thesis focuses on the development of a system in which a team of heterogeneous mobile robots can cooperate to perform a wide range of tasks. In order that a group of heterogeneous robots can cooperate among them, one of the most important parts to develop is the creation of an architecture which gives support for the cooperation. This architecture is developed by means of embedding agents and interfacing agent code with native low-level code. It also addresses the implementation of resource sharing among the whole group of robots, that is, the robots can borrow capabilities from each-other.In order to validate this architecture, some cooperative applications have been implemented. The first one is an application where a group of robots must cooperate in order to safely navigate through an unknown environment. One robot with camera calculates the optical flow values from the images, and from these values calculates the "time to contact" values. This information is shared among the team so that any robot can navigate without colliding with the obstacles.The second cooperative application consists of enabling the team of heterogeneous robots to create a certain formation and navigate maintaining this formation. The application consists of two parts or stages. The first one is the creation of the formation, where a robot with the camera can detect where the rest of the robots are in the environment and indicates to them which is their initial position in the formation. In the second stage the robots must be able to navigate through an environment following the path that the robot with the laser indicates. Due to the odometry errors of the robots, the camera of one of the robots is used so that robots which lose their correct position in the formation can re-align themselves. Finally, in an attempt to facilitate access to the robots of the team and to the information that their accessories provide, a system for the teleoperation of the team has been implemented. This system can be used for teaching robotics or to facilitate the tasks of programming and debugging in the research tasks.
134

Performance Prediction and Evaluation Tools

Girona Turell, Sergi 24 July 2003 (has links)
La predicció és un concepte de recerca molt interessant. No es només predir el resultat futur, sinó que també cal predir el resultat conegut, a vegades anomenat validació. L'aplicació de tècniques de predicció sobre el comportament de sistemes és sempre molt útil perquè ens ajuda a comprendre el funcionament del elements que estem analitzant.Aquest treball va començar tot analitzant la influència de l'execució concurrent de diverses aplicacions de pas de missatges. Així, l'objectiu original era trobar i proposar uns algorismes de planificació de processos que obtinguessin un throughput màxim, equitatiu, i amb un rendiment adecuat del sistema.Per a poder avaluar adecuadament aquestes polítiques de planificació, varem trobar que ens calien eines d'analisi. Dimemas i Paraver són les eines de l'entorn que anomenem DiP. Tot i que aqueste eines varem estar dissenyades fa més de deu anys, són vàlides i ampliables.Dimemas es l'eina de predicció de rendiment. Tot fent ús de models senzills, pot predir el temps d'execució de les aplicacions de pas de missatges, fent servir un conjunt de paràmetres que modelitzen el funcionament del sistema. No és només una eina que prediu el temps d'execució, sinó que s'ha demostrat molt útil per entendre la influència dels diferents paràmetres del sistema en el temps de resposta de les aplicacionsL'eina d'anàlisi de l'entorn DiP s'anomena Paraver. Permet analitzar simultàniament moltes aplicacions i el sistema des de diferent punts de vista: analitzant els missatges, les contencions a la xarxa de comunicació, la planificació del processador.Promenvir/ST-ORM és l'eina d'anàlisi estocàstic. Inclou utilitats que permeten analitzar la influència de qualsevol paràmetre del sistema, així com sintonitzar els paràmetres de simulació, per aconseguir que les prediccions s'aproximin a la realitat.La qualitat i categoria de les decisions que varem prendre fa anys queda demostrada per la mètode de com cal utilitzar conjuntament totes les eines, i perquè són eines què es corresponen a l'estat de l'art actual.Aquest treball inclou la descripció de les diferents eines, des de el punt de vista de disseny fins la seva utilització (en cert grau), la validació de Dimemas, el disseny conceptual de Promenvir, la presentació del mètode que cal emprar amb aquestes eines (incloent anàlisi d'aplicacions individuals fins a anàlisis més complex), i alguns dels nostres primers anàlisi sobre polítiques de planificació de processador. / Prediction is an interesting research topic. It is not only to predict the future result, but also to predict the past, often called validation. Applying prediction techniques to observed system behavior has always been extremely useful to understand the internals of the elements under analysis.We have started this work to analyze the influence of several message passing application when running in parallel. The original objective was to find and propose a process scheduling algorithm that maximizes the system throughput, fair, proper system utilization.In order to evaluate properly the different schedulers, it is necessary to use some tools. Dimemas and Paraver, conform the core of DiP environment. These tools has been designed ten years ago, but still valid and extensible.Dimemas is a performance prediction tool. Using a single models, it capable to predict execution time for message passing applications, considering few system parameters for the system. It is useful not only to predict the result of an execution, but to understand the influence of the system parameters in the execution time of the application.Paraver is the analysis tool of DiP environment. It allows the analysis of applications and system from several points of view: analyzing messages, contention in the interconnection network, processor scheduling.Promenvir/ST-ORM is a stochastic analysis tool. It incorporates facilities to analyze the influence of any parameter in the system, as well as to tune the simulation parameters, so the prediction is close to reality. The methodology on how to use these tools as a group to analyze the whole environment, and the fact that all those tools are State of the Art, demonstrates the quality of the decisions we made some years ago.This work includes description of the different tools, from its internal design to some external utilization, the validation of Dimemas, the concept design of Promenvir, the architecture for Promenvir, the presentation of the methodology used with these tools (for simple application analysis to complex system analysis), and some of our first analyses on processor scheduling policies.
135

Aportaciò a la detecció de simetries en imatges amb projecció ortogràfica

Marès Martí, Pere 11 June 2002 (has links)
El mètode de detecció de simetria local de reflexió que es presenta, pretén ser una aportació més a la recerca en visió per computador i la robòtica. Com és sabut haches camps d'aplicació impliquen considerar el temps de processament com un paràmetre bàsic. Així doncs, en aquesta tesi no ens conformem en obtenir un algorisme eficient de detecció de simetria si no que es planteja millorar el temps de processame nt a partir de l'obtenció de metodologies i algorismes que tinguin la qualitat de permetre una fácil implantació del processament en paral· lel així com de la implementació de processadors específics.El mètode de detecció de simetria es basa en les contribucions a la simetria de les parelles de segments rectilinis de la imatge. Aquesta aproximació permet una reducció considerable de la complexitat, de la mateixa manera que altres autors utilitzen reduccions basades en diferents agrupacions de punts de contorn, com ara segments d'arcs, b-splines etc. El mètode, així concebut, serà aplicable en imatges on les línies rectes siguin predominats com és el cas de construccions artificials i entorns estructurats.Tot i que l'anterior restricció és important, és adequada per al tipus d'aplicacions que hem exposat anteriorment i ens permet obtenir un mètode de detecció contributiu, a partir de l'acumulació de contribucions locals a la simetria de les parelles de segments rectilinis de la imatge. Es tracta doncs d'un mètode basat en un anàlisi local que mostra els avantatges d'aquesta aproximació mentre que pel fet de tractar-se d'un mètode contributiu millora els dos principals inconvenients de l'aproximació local, és a dir, la sensibilitat al soroll i la inestabilitat, la qual cosa representa una aportació a la superació del dilema "anàlisi local versus anàlisi global".El mètode es composa de quatre etapes:- Obtenció de la llista de segments rectilinis de la imatge- Obtenció dels segments de contribució a la simetria- Càlcul del mapa d'acumulació dels segments de contribució- Extracció d'eixos locals de simetriaUna característica que distingeix el mètode és que proporciona l'abast de la simetria, és a dir, la llargada dels eixos de simetria, precisant-ne els punts inicial i final. Per altra banda la característica contributiva del mètode proposat, ha permès detectar els eixos de simetria local amb una ponderació associada segons la seva importància. D'aquesta forma s'evita el processat d'alt nivell posterior per tal de determinar els eixos més significatius, necessari en la majoria de mètodes basat en l'aproximació local. Respecta la millora del temps de processat i donada la complexitat i extensió del problema de la detecció de simetria, s'ha fet un primer esforç en una de les etapes del mètode de més cost de computació. Concretament s'ha accelerat un procés que forma part del càlcul del mapa d'acumulació esmentat anteriorment, consistent en l'obtenció dels píxels que aproximen, en el pla discret, un segment rectilini especificat per els seus punts inicial i finals. Aquesta millora s'ha obtingut mitjançant un algorisme paral· lel que presenta com avantatges més rellevants: la simplicitat, eficiència i que permet un directa implementació d'un processador dedicat. Per l'altra banda, amb el mateix objectiu de millorar el temps de processament i en base a l'algorisme anterior, s'ha dissenyat un processador paral· lel dedicat que té la capacitat d'obtenir i emmagatzemar simultàniament, en una matriu de registres, el conjunt de píxels que aproximen, en el pla discret, un segment rectilini caracteritzat per els seus punts inicial i final. Una característica molt remarcable del processador és que obté i registra els píxels anteriors en un únic període de rellotge.Finalment per tal de conèixer el paràmetres referents a la seva viabilitat i prestacions, s'ha obtingut, mitjançant la simulació, una versió reduïda amb tecnologia d'alta escala d'integració VLSI en un únic circuit. El disseny obtingut ha mostrat la capacitat de processar17,2 Mega Segments/seg, en el pitjor del casos, mentre que en les condicions més favorables es capaç de processar 57,3 Mega segments/segon. / The method of reflection local symmetry detection presented aims to be a new approach to the research in vision computer and robotics. As we know them, these fields of application imply to consider the processing time as a basic parameter. In this way, in this thesis we shall obtain an efficient algorithm for symmetry detection and, moreover, we will try to improve the processing time with methodologies and algorithms that will be able to embed easily in parallel architectures and the implementation of specific processors.The symmetry detection method is based in symmetry contributions from the straight segments in the image. This approximation permits a considerable reduction in the complexity in the same way that other authors use reductions based in different grouping of contour points, such as arcs, b-splines, etc. The method conceived like this will be applicable in images where straight lines are predominant like in the case of artificial buildings and structured environments.Although the above restriction is important, it is suitable for all kinds of applications that we have exposed previously and it allows us to obtain a contributive detection method from the accumulation of local contribution of symmetry in pairs of straight segments in the image. Thus, it is a method based in the local analysis that shows the advantages of this approach while it improves the two main disadvantages of local approximation because it is a contributive method. These drawbacks are the sensibility to noise and instability which represent a novel approach to the overcoming of the "local analysis versus global analysis" dilemma.Four steps compose the method: - To obtain the straight segments list in the image- To obtain the symmetry contribution segments- To calculate an accumulation map of contribution segments- To extract the local symmetry axes.A distinctive feature is that the method yields the symmetry range, that is, the length of symmetry axes, with precise position of initial and final points.On the other hand, the contributive feature of the proposed method has allowed us to detect the local symmetry axes with an associated weight to their importance. That avoids the posterior high level processing in order to determine the more significative axes needed in most of the approaches based in local approximation. With respect to the improvement of processing time, and given the complexity and extension of the symmetry detection problem, an initial effort has been made in one of the stages of higher computational cost in the method. Specifically, a process in the calculation of the accumulation map has been accelerated, consistently in the achieving of pixels that form, in the discrete plane, a straight segment specified for its initial and final points. This improvement has been obtained with a parallel algorithm that presents more relevant advantages: simplicity, efficiency and it allows a direct implementation with a dedicated processor.Furthermore, with the same objective of processing time improvement and in basis to the above algorithm, a dedicated parallel processor has been designed with the capability to obtain and store simultaneously, in an array of registers, the set of pixels that approximate, in the discrete plane, a straight segment characterised by its initial and final points. A very remarkable feature of the processor is to obtain and store those pixels in a unique clock period.Finally, in order to know the parameters concerning its viability and performance, a simulated reduced version with VLSI (very large scale integration) technology in a unique circuit has been achieved. The obtained design has shown the capability of processing 17.2 million segments per second in the worst case, while in the most favourable conditions it is able to process up to 57.3 million segments per second.
136

Global illumination techniques for the computation of hight quality images in general environments

Pérez Cazorla, Frederic 26 May 2003 (has links)
The objective of this thesis is the development of algorithms for the simulation of the light transport in general environments to render high quality still images. To this end, first we have analyzed the existing methods able to render participating media, more concretely those that account for multiple scattering within the media. Next, we have devised a couple of two pass methods for the computation of those images. For the first step we have proposed algorithms to cope with the scenes we want to deal with. The second step uses the coarse solution of the first step to obtain the final rendered image.The structure of the dissertation is briefly presented below.In the first chapter the motivation of the thesis and its objectives are discussed. It also summarizes the contributions of the thesis and its organization.In the second chapter the principles of global illumination for general environments are reviewed, with the most important equations---the rendering equation and the transport equation---whose solution constitutes the global illumination problem. In order to solve the global illumination problem, a certain number of multi-pass methods exist. Their objective is to be able to skip restrictions on the number of types of light paths that could be dealt with a single technique, or increase efficiency and/or accuracy. We have opted to follow this philosophy, and a pair of two pass methods have been developed for general environments.The third chapter includes the study of the methods that perform the single scattering approximation, and also the study of the ones that take into account multiple scattering.The fourth chapter is devoted to our first pass method, which computes a rough estimate of the global illumination. Knowing the benefits of hierarchical approaches, two concrete algorithms based on hierarchies have been extended to be more generic: Hierarchical Radiosity with Clustering and Hierarchical Monte Carlo Radiosity.Our second pass is considered in the next chapter. Using the coarse solution obtained by the first pass, our second pass computes a high quality solution from a given viewpoint. Radiances and source radiances are estimated using Monte Carlo processes in the context of path tracing acceleration and also for final gather. Probability density functions (PDFs) are created at ray intersection points. For such a task, we initially used constant basis functions for the directional domain. After realizing of their limitations we proposed the Link Probabilities (LPs), which are objects with adaptive PDFs in the links-space.In order to take advantage of the effort invested for the construction of the LPs, we have devised two closely related progressive sampling strategies. In the second pass, instead of sampling each pixel individually, only a subset of samples is progressively estimated across the image plane. Our algorithms are inspired by the work of Michael D. McCool on anisotropic diffusion using conductance maps.The final chapter presents the conclusions of the thesis. Also possible lines of further research are suggested. / El objetivo de esta tesis es el desarrollo de algoritmos para la simulación del transporte de la luz en los entornos genéricos para generar imágenes de la alta calidad. Con este fin, primero hemos analizado los métodos existentes capaces de visualizar medios participativos, más concretamente los que tienen en cuenta la dispersión múltiple en los medios. Después, hemos ideado un par de métodos de dos pasos para el cómputo de esas imágenes. Para el primer paso hemos propuesto algoritmos que hacen frente a las escenas que deseamos tratar. El segundo paso utiliza la solución aproximada del primer paso para obtener la imagen final. La estructura de la disertación se presenta brevemente en lo que sigue.En el primer capítulo se discuten la motivación de la tesis y sus objetivos. También se resumen las contribuciones de la tesis y su organización. En el segundo capítulo se repasan los principios de la iluminación global para los ambientes genéricos, con las ecuaciones-más importantes (la ecuación de rendering y la ecuación de transporte) cuya solución constituye el problema global de iluminación. Para solucionar el problema global de iluminación, cierto número de métodos de múltiples pasos existen. Su objetivo es poder eliminar restricciones en el número de tipos de caminos de luz que se podrían tratar con una sola técnica, o aumentar su eficacia y/o exactitud. Hemos optado seguir esta filosofía, desarrollando un par de métodos de dos pasos para entornos genéricos.El tercer capítulo incluye el estudio de los métodos que utilizan la aproximación de dispersión simple, y también el estudio de los que consideran la dispersión múltiple.El cuarto capítulo está dedicado a nuestro método de primer paso, que computa un cálculo aproximado de la iluminación global. Conociendo las ventajas de los métodos jerárquicos, dos algoritmos concretos basados en jerarquías se han ampliado para ser más genéricos: radiosidad jerárquica con clustering y radiosidad jerárquica usando Monte Carlo. Nuestro segundo paso se considera en el capítulo siguiente. Usando la solución aproximada obtenida por el primer paso, el segundo paso computa una solución de la alta calidad para un punto de vista dado. Se estiman las radiancias usando procesos de Monte Carlo en el contexto de la aceleración de trazadores de rayos y también para final gather. Las funciones de densidad de probabilidad (PDFs) se crean en los puntos de interacción de los rayos. Para tal tarea, utilizamos inicialmente funciones constantes como base para el dominio direccional. Después de comprender sus limitaciones, propusimos establecer probabilidades directamente sobre los enlaces (link probabilities, o LPs), usando objetos con PDFs adaptativos en el espacio de los enlaces.Para aprovechar el esfuerzo invertido en la construcción de los LPs, hemos ideado dos estrategias de muestreo progresivas. En el segundo paso, en vez de muestrear cada pixel individualmente, solamente se estima progresivamente un subconjunto de muestras a través del plano de imagen. Nuestros algoritmos han sido inspirados en el trabajo de Michael D. McCool en la difusión anisotrópica usando mapas de conductancia.El capítulo final presenta las conclusiones de la tesis, y también sugiere las líneas posibles de investigación futura.
137

A Hybrid Environment for Syntax-Semantic Tagging

Padró, Lluís 06 February 1998 (has links)
The thesis describes the application of the relaxation labelling algorithm to NLP disambiguation. Language is modelled through context constraint inspired on Constraint Grammars. The constraints enable the use of a real value statind "compatibility". The technique is applied to POS tagging, Shallow Parsing and Word Sense Disambigation. Experiments and results are reported. The proposed approach enables the use of multi-feature constraint models, the simultaneous resolution of several NL disambiguation tasks, and the collaboration of linguistic and statistical models. / La tesi descriu l'aplicació de l'algorisme d'etiquetat per relaxacio (relaxation labelling) a la desambiguació del llenguatge natural. La llengua es modela mitjançant restriccions de context inspirades en les Constraint Grammars. Les restriccions permeten l'ús d'un valor real que n'expressa la "compatibilitat". La tècnica s'aplica a la desambiguació morfosintàctica (POS tagging), a l'anàlisi sintàctica superficial (Shallow Parsing) i a la desambiguació semàntica (Word Sense Disambigation), i se'n presenten experiments i resultats. L'enfoc proposat permet la utilització de models de restriccions amb trets múltiples, la resolució simultània de diverses tasques de desambiguació del llenguatge natural, i la col·laboració de models linguístics i estadístics.
138

Learning with Feed-forward Neural Networks: Three Schemes to Deal with the Bias/Variance Trade-off

Romero Merino, Enrique 30 November 2004 (has links)
In terms of the Bias/Variance decomposition, very flexible (i.e., complex) Supervised Machine Learning systems may lead to unbiased estimators but with high variance. A rigid model, in contrast, may lead to small variance but high bias. There is a trade-off between the bias and variance contributions to the error, where the optimal performance is achieved.In this work we present three schemes related to the control of the Bias/Variance decomposition for Feed-forward Neural Networks (FNNs) with the (sometimes modified) quadratic loss function:1. An algorithm for sequential approximation with FNNs, named Sequential Approximation with Optimal Coefficients and Interacting Frequencies (SAOCIF). Most of the sequential approximations proposed in the literature select the new frequencies (the non-linear weights) guided by the approximation of the residue of the partial approximation. We propose a sequential algorithm where the new frequency is selected taking into account its interactions with the previously selected ones. The interactions are discovered by means of their optimal coefficients (the linear weights). A number of heuristics can be used to select the new frequencies. The aim is that the same level of approximation may be achieved with less hidden units than if we only try to match the residue as best as possible. In terms of the Bias/Variance decomposition, it will be possible to obtain simpler models with the same bias. The idea behind SAOCIF can be extended to approximation in Hilbert spaces, maintaining orthogonal-like properties. In this case, the importance of the interacting frequencies lies in the expectation of increasing the rate of approximation. Experimental results show that the idea of interacting frequencies allows to construct better approximations than matching the residue.2. A study and comparison of different criteria to perform Feature Selection (FS) with Multi-Layer Perceptrons (MLPs) and the Sequential Backward Selection (SBS) procedure within the wrapper approach. FS procedures control the Bias/Variance decomposition by means of the input dimension, establishing a clear connection with the curse of dimensionality. Several critical decision points are studied and compared. First, the stopping criterion. Second, the data set where the value of the loss function is measured. Finally, we also compare two ways of computing the saliency (i.e., the relative importance) of a feature: either first train a network and then remove temporarily every feature or train a different network with every feature temporarily removed. The experiments are performed for linear and non-linear models. Experimental results suggest that the increase in the computational cost associated with retraining a different network with every feature temporarily removed previous to computing the saliency can be rewarded with a significant performance improvement, specially if non-linear models are used. Although this idea could be thought as very intuitive, it has been hardly used in practice. Regarding the data set where the value of the loss function is measured, it seems clear that the SBS procedure for MLPs takes profit from measuring the loss function in a validation set. A somewhat non-intuitive conclusion is drawn looking at the stopping criterion, where it can be seen that forcing overtraining may be as useful as early stopping.3. A modification of the quadratic loss function for classification problems, inspired in Support Vector Machines (SVMs) and the AdaBoost algorithm, named Weighted Quadratic Loss (WQL) function. The modification consists in weighting the contribution of every example to the total error. In the linearly separable case, the solution of the hard margin SVM also minimizes the proposed loss function. The hardness of the resulting solution can be controlled, as in SVMs, so that this scheme may also be used for the non-linearly separable case. The error weighting proposed in WQL forces the training procedure to pay more attention to the points with a smaller margin. Therefore, variance tries to be controlled by not attempting to overfit the points that are already well classified. The model shares several properties with the SVMs framework, with some additional advantages. On the one hand, the final solution is neither restricted to have an architecture with so many hidden units as points (or support vectors) in the data set nor to use kernel functions. The frequencies are not restricted to be a subset of the data set. On the other hand, it allows to deal with multiclass and multilabel problems in a natural way. Experimental results are shown confirming these claims.A wide experimental work has been done with the proposed schemes, including artificial data sets, well-known benchmark data sets and two real-world problems from the Natural Language Processing domain. In addition to widely used activation functions, such as the hyperbolic tangent or the Gaussian function, other activation functions have been tested. In particular, sinusoidal MLPs showed a very good behavior. The experimental results can be considered as very satisfactory. The schemes presented in this work have been found to be very competitive when compared to other existing schemes described in the literature. In addition, they can be combined among them, since they deal with complementary aspects of the whole learning process.
139

Diseño conceptual de productos asistido por ordenador : Un estudio analítico sobre aplicaciones y definición de la estructura básica de un nuevo programa

Chaur Bernal, Jairo 03 June 2005 (has links)
El tema de la investigación es «la creatividad en la fase conceptual del diseño de productos» y se orienta a la aplicación del ordenador como herramienta de asistencia al ingeniero de diseño. De las tres fases del proceso de diseño de productos (definición del problema, generación de conceptos y desarrollo de la mejor alternativa), es en la segunda, conocida como «síntesis», donde se da la máxima expresión de creatividad. La hipótesis de partida afirma la posibilidad de asistir al ingeniero de diseño en esa etapa, mediante el uso de «software creativo» (que implementa técnicas, metodologías y herramientas de creatividad). El objetivo principal de esta tesis es obtener la estructura de tal tipo de software, partiendo de la identificación de características adecuadas, mediante un estudio experimental detallado, previa definición de un modelo objetivo de valoración. Diseño se entiende aquí como el conjunto de actividades que conduce al desarrollo de una idea de producto. Mientras que la creatividad técnica es aquella que produce dos resultados complementarios: novedad y utilidad. La revisión de las tendencias que siguen los productores de software CAD/CAM/CAE, indican que la fase del análisis, que caracteriza al diseño de detalle, sigue siendo privilegiada con respecto a la fase de diseño conceptual. Del software creativo genérico ofrecido actualmente, se hace una selección de cuatro programas representativos que desarrollan metodologías como las de brainstorming, sinéctica, mapas mentales y TRIZ. Los modelos de medición de la creatividad se aplican a la persona, el proceso o el producto. Se seleccionó el test CREA para el primer caso. Para los otros, se realizó una adaptación de la propuesta de Shah (2003), que, junto con aportes propios, condujo a la definición del modelo de valoración de la creatividad de ideas generadas durante el proceso de diseño, con cuatro índices: flexibilidad, fluidez, elaboración y originalidad. Tal modelo facilitó la comparación gráfica y cuantitativa de las variables: tiempos por actividad y por módulo de software, cantidad total, flujo y origen de ideas, índices de creatividad y trayectoria creativa. El factor de diseño experimental fue el tipo de software, con cinco niveles: cuatro programas y un testigo. Se realizaron cuatro repeticiones y el método utilizado fue el estudio de protocolo modificado para obtener la información de cuatro fuentes: vídeo, dibujos, archivo generado y secuencia de uso del software.Los resultados obtenidos y su respectivo análisis permitieron identificar características relevantes de cada programa, herramientas efectivas y configuraciones más aceptadas por los diseñadores. En general, se puede afirmar que el software creativo sí propicia la generación de ideas mediante asociaciones, transformaciones o exploraciones. Con la identificación de estas características, se desarrolló la propuesta de estructura del nuevo software, presentada en forma de maqueta. Se sustenta, en el modelo FBS (Function-Behaviour-Structure) para construir el proceso evolutivo del diseño, centrado en la «función» con sus tres roles: modelación de requerimientos, articulación entre estos y el objeto, e instrumento de evaluación del valor del objeto. Se tiene en cuenta la forma de representación del modelo de evolución funcional de Takeda (1996), con un cuerpo de función, modificadores funcionales y estructuras de solución; y el estímulo al desarrollo cíclico de etapas divergentes y convergentes (Liu et. al., 2003). La propuesta articula dos tipos de herramientas. En el primero se incluye las técnicas de creatividad identificadas como las más eficientes. En el segundo están las bases de datos que sirven de extensión a la memoria del diseñador, de manera que disponga siempre de fuentes adecuadas para traducir o procesar las ideas generadas con las técnicas de creatividad, convirtiéndolas en ideas útiles para solucionar el problema de diseño. / The subject of this investigation is the creativity in the conceptual phase of the product design and it is oriented to the application of the computer as aid tool to design engineers. The three phases of the product design process are: problem definition, concepts generation, and development of the best alternative. It is in the second of them, known as "synthesis", where the highest creativity expression occurs. The main hypothesis is the affirmation of the possibility of aiding the design engineers in conceptual stage by the use of "creative software" (that implements technical, methodologies and tools of creativity). The aim of this thesis is to obtain the structure of such software by means of the definition of an objective evaluation model and then, by a detailed experimental study. Design is understood as the set of activities that leads to the development of a product idea. Whereas the technical creativity produces two complementary results: newness and utility. The tendencies that follow by the CAD/CAM/CAE producers, indicates that the phase of the analysis (that characterizes to the detail design), continues being privileged with respect to the conceptual design phase. Four representative programs were selected of the actual generic creative software; they develop techniques as brainstorming, synectis, mind maps and TRIZ. The evaluation of creativity can be approached from three different points of view: the qualification of the individual (the psychological viewpoint), the process of product design (the process viewpoint) and the product designed (the product viewpoint).The "CREA" test was selected for the individual creativity evaluation. For the others viewpoints, an adaptation of the proposals of Shah & Vargas (2003) was made, that lead to the definition of the evaluation model for creativity of ideas generated during the design process, with four indices: flexibility, fluidity, elaboration and originality. Such model facilitated the graphical and quantitative comparison of variables: times by activity and software module; total amount, flow and origin of ideas; indices of creativity and creative trajectory. The factor of experimental design was the type of software, with five levels: four programs and a witness. Four repetitions were made and the used method was the study of protocol, modified to obtain the data of four sources: video, drawings, generated file and sequence of use of software. The results and their respective analysis allowed to identify the best characteristics of each program, effective tools and configurations more accepted by the designers. In general, it is possible to be affirmed that creative software is useful for generation of ideas by means of associations, transformations or explorations. With the identification of these characteristics, the mock-up of the new software structure is presented. It is sustained, in the FBS model (Function-Behaviour-Structure), to construct the evolutionary process of the design, where the function plays its three roles: modelling of requirements, fit between these and the object, and instrument for object evaluation. The representation form of the Takeda's (1996) functional evolution was considered, with a function body, functional modifiers and structures of solution; and the stimulus to the cyclical development of divergent and convergent stages (Liu et al., 2003). The proposal articulates two types of tools. In first one includes the most efficient techniques of creativity identified in the experimental study. In the second, there are the data bases, useful as extension to the designer memory, so that he or she, always has suitable sources to translate or to process the ideas generated with the creativity techniques, turning them useful ideas to solve the design problem.
140

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).

Page generated in 0.0517 seconds