• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 22
  • 11
  • 3
  • Tagged with
  • 36
  • 36
  • 36
  • 36
  • 14
  • 13
  • 10
  • 8
  • 6
  • 6
  • 6
  • 6
  • 6
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Performance Prediction and Evaluation Tools

Girona Turell, Sergi 24 July 2003 (has links)
La predicció és un concepte de recerca molt interessant. No es només predir el resultat futur, sinó que també cal predir el resultat conegut, a vegades anomenat validació. L'aplicació de tècniques de predicció sobre el comportament de sistemes és sempre molt útil perquè ens ajuda a comprendre el funcionament del elements que estem analitzant.Aquest treball va començar tot analitzant la influència de l'execució concurrent de diverses aplicacions de pas de missatges. Així, l'objectiu original era trobar i proposar uns algorismes de planificació de processos que obtinguessin un throughput màxim, equitatiu, i amb un rendiment adecuat del sistema.Per a poder avaluar adecuadament aquestes polítiques de planificació, varem trobar que ens calien eines d'analisi. Dimemas i Paraver són les eines de l'entorn que anomenem DiP. Tot i que aqueste eines varem estar dissenyades fa més de deu anys, són vàlides i ampliables.Dimemas es l'eina de predicció de rendiment. Tot fent ús de models senzills, pot predir el temps d'execució de les aplicacions de pas de missatges, fent servir un conjunt de paràmetres que modelitzen el funcionament del sistema. No és només una eina que prediu el temps d'execució, sinó que s'ha demostrat molt útil per entendre la influència dels diferents paràmetres del sistema en el temps de resposta de les aplicacionsL'eina d'anàlisi de l'entorn DiP s'anomena Paraver. Permet analitzar simultàniament moltes aplicacions i el sistema des de diferent punts de vista: analitzant els missatges, les contencions a la xarxa de comunicació, la planificació del processador.Promenvir/ST-ORM és l'eina d'anàlisi estocàstic. Inclou utilitats que permeten analitzar la influència de qualsevol paràmetre del sistema, així com sintonitzar els paràmetres de simulació, per aconseguir que les prediccions s'aproximin a la realitat.La qualitat i categoria de les decisions que varem prendre fa anys queda demostrada per la mètode de com cal utilitzar conjuntament totes les eines, i perquè són eines què es corresponen a l'estat de l'art actual.Aquest treball inclou la descripció de les diferents eines, des de el punt de vista de disseny fins la seva utilització (en cert grau), la validació de Dimemas, el disseny conceptual de Promenvir, la presentació del mètode que cal emprar amb aquestes eines (incloent anàlisi d'aplicacions individuals fins a anàlisis més complex), i alguns dels nostres primers anàlisi sobre polítiques de planificació de processador. / Prediction is an interesting research topic. It is not only to predict the future result, but also to predict the past, often called validation. Applying prediction techniques to observed system behavior has always been extremely useful to understand the internals of the elements under analysis.We have started this work to analyze the influence of several message passing application when running in parallel. The original objective was to find and propose a process scheduling algorithm that maximizes the system throughput, fair, proper system utilization.In order to evaluate properly the different schedulers, it is necessary to use some tools. Dimemas and Paraver, conform the core of DiP environment. These tools has been designed ten years ago, but still valid and extensible.Dimemas is a performance prediction tool. Using a single models, it capable to predict execution time for message passing applications, considering few system parameters for the system. It is useful not only to predict the result of an execution, but to understand the influence of the system parameters in the execution time of the application.Paraver is the analysis tool of DiP environment. It allows the analysis of applications and system from several points of view: analyzing messages, contention in the interconnection network, processor scheduling.Promenvir/ST-ORM is a stochastic analysis tool. It incorporates facilities to analyze the influence of any parameter in the system, as well as to tune the simulation parameters, so the prediction is close to reality. The methodology on how to use these tools as a group to analyze the whole environment, and the fact that all those tools are State of the Art, demonstrates the quality of the decisions we made some years ago.This work includes description of the different tools, from its internal design to some external utilization, the validation of Dimemas, the concept design of Promenvir, the architecture for Promenvir, the presentation of the methodology used with these tools (for simple application analysis to complex system analysis), and some of our first analyses on processor scheduling policies.
22

Aportaciò a la detecció de simetries en imatges amb projecció ortogràfica

Marès Martí, Pere 11 June 2002 (has links)
El mètode de detecció de simetria local de reflexió que es presenta, pretén ser una aportació més a la recerca en visió per computador i la robòtica. Com és sabut haches camps d'aplicació impliquen considerar el temps de processament com un paràmetre bàsic. Així doncs, en aquesta tesi no ens conformem en obtenir un algorisme eficient de detecció de simetria si no que es planteja millorar el temps de processame nt a partir de l'obtenció de metodologies i algorismes que tinguin la qualitat de permetre una fácil implantació del processament en paral· lel així com de la implementació de processadors específics.El mètode de detecció de simetria es basa en les contribucions a la simetria de les parelles de segments rectilinis de la imatge. Aquesta aproximació permet una reducció considerable de la complexitat, de la mateixa manera que altres autors utilitzen reduccions basades en diferents agrupacions de punts de contorn, com ara segments d'arcs, b-splines etc. El mètode, així concebut, serà aplicable en imatges on les línies rectes siguin predominats com és el cas de construccions artificials i entorns estructurats.Tot i que l'anterior restricció és important, és adequada per al tipus d'aplicacions que hem exposat anteriorment i ens permet obtenir un mètode de detecció contributiu, a partir de l'acumulació de contribucions locals a la simetria de les parelles de segments rectilinis de la imatge. Es tracta doncs d'un mètode basat en un anàlisi local que mostra els avantatges d'aquesta aproximació mentre que pel fet de tractar-se d'un mètode contributiu millora els dos principals inconvenients de l'aproximació local, és a dir, la sensibilitat al soroll i la inestabilitat, la qual cosa representa una aportació a la superació del dilema "anàlisi local versus anàlisi global".El mètode es composa de quatre etapes:- Obtenció de la llista de segments rectilinis de la imatge- Obtenció dels segments de contribució a la simetria- Càlcul del mapa d'acumulació dels segments de contribució- Extracció d'eixos locals de simetriaUna característica que distingeix el mètode és que proporciona l'abast de la simetria, és a dir, la llargada dels eixos de simetria, precisant-ne els punts inicial i final. Per altra banda la característica contributiva del mètode proposat, ha permès detectar els eixos de simetria local amb una ponderació associada segons la seva importància. D'aquesta forma s'evita el processat d'alt nivell posterior per tal de determinar els eixos més significatius, necessari en la majoria de mètodes basat en l'aproximació local. Respecta la millora del temps de processat i donada la complexitat i extensió del problema de la detecció de simetria, s'ha fet un primer esforç en una de les etapes del mètode de més cost de computació. Concretament s'ha accelerat un procés que forma part del càlcul del mapa d'acumulació esmentat anteriorment, consistent en l'obtenció dels píxels que aproximen, en el pla discret, un segment rectilini especificat per els seus punts inicial i finals. Aquesta millora s'ha obtingut mitjançant un algorisme paral· lel que presenta com avantatges més rellevants: la simplicitat, eficiència i que permet un directa implementació d'un processador dedicat. Per l'altra banda, amb el mateix objectiu de millorar el temps de processament i en base a l'algorisme anterior, s'ha dissenyat un processador paral· lel dedicat que té la capacitat d'obtenir i emmagatzemar simultàniament, en una matriu de registres, el conjunt de píxels que aproximen, en el pla discret, un segment rectilini caracteritzat per els seus punts inicial i final. Una característica molt remarcable del processador és que obté i registra els píxels anteriors en un únic període de rellotge.Finalment per tal de conèixer el paràmetres referents a la seva viabilitat i prestacions, s'ha obtingut, mitjançant la simulació, una versió reduïda amb tecnologia d'alta escala d'integració VLSI en un únic circuit. El disseny obtingut ha mostrat la capacitat de processar17,2 Mega Segments/seg, en el pitjor del casos, mentre que en les condicions més favorables es capaç de processar 57,3 Mega segments/segon. / The method of reflection local symmetry detection presented aims to be a new approach to the research in vision computer and robotics. As we know them, these fields of application imply to consider the processing time as a basic parameter. In this way, in this thesis we shall obtain an efficient algorithm for symmetry detection and, moreover, we will try to improve the processing time with methodologies and algorithms that will be able to embed easily in parallel architectures and the implementation of specific processors.The symmetry detection method is based in symmetry contributions from the straight segments in the image. This approximation permits a considerable reduction in the complexity in the same way that other authors use reductions based in different grouping of contour points, such as arcs, b-splines, etc. The method conceived like this will be applicable in images where straight lines are predominant like in the case of artificial buildings and structured environments.Although the above restriction is important, it is suitable for all kinds of applications that we have exposed previously and it allows us to obtain a contributive detection method from the accumulation of local contribution of symmetry in pairs of straight segments in the image. Thus, it is a method based in the local analysis that shows the advantages of this approach while it improves the two main disadvantages of local approximation because it is a contributive method. These drawbacks are the sensibility to noise and instability which represent a novel approach to the overcoming of the "local analysis versus global analysis" dilemma.Four steps compose the method: - To obtain the straight segments list in the image- To obtain the symmetry contribution segments- To calculate an accumulation map of contribution segments- To extract the local symmetry axes.A distinctive feature is that the method yields the symmetry range, that is, the length of symmetry axes, with precise position of initial and final points.On the other hand, the contributive feature of the proposed method has allowed us to detect the local symmetry axes with an associated weight to their importance. That avoids the posterior high level processing in order to determine the more significative axes needed in most of the approaches based in local approximation. With respect to the improvement of processing time, and given the complexity and extension of the symmetry detection problem, an initial effort has been made in one of the stages of higher computational cost in the method. Specifically, a process in the calculation of the accumulation map has been accelerated, consistently in the achieving of pixels that form, in the discrete plane, a straight segment specified for its initial and final points. This improvement has been obtained with a parallel algorithm that presents more relevant advantages: simplicity, efficiency and it allows a direct implementation with a dedicated processor.Furthermore, with the same objective of processing time improvement and in basis to the above algorithm, a dedicated parallel processor has been designed with the capability to obtain and store simultaneously, in an array of registers, the set of pixels that approximate, in the discrete plane, a straight segment characterised by its initial and final points. A very remarkable feature of the processor is to obtain and store those pixels in a unique clock period.Finally, in order to know the parameters concerning its viability and performance, a simulated reduced version with VLSI (very large scale integration) technology in a unique circuit has been achieved. The obtained design has shown the capability of processing 17.2 million segments per second in the worst case, while in the most favourable conditions it is able to process up to 57.3 million segments per second.
23

Global illumination techniques for the computation of hight quality images in general environments

Pérez Cazorla, Frederic 26 May 2003 (has links)
The objective of this thesis is the development of algorithms for the simulation of the light transport in general environments to render high quality still images. To this end, first we have analyzed the existing methods able to render participating media, more concretely those that account for multiple scattering within the media. Next, we have devised a couple of two pass methods for the computation of those images. For the first step we have proposed algorithms to cope with the scenes we want to deal with. The second step uses the coarse solution of the first step to obtain the final rendered image.The structure of the dissertation is briefly presented below.In the first chapter the motivation of the thesis and its objectives are discussed. It also summarizes the contributions of the thesis and its organization.In the second chapter the principles of global illumination for general environments are reviewed, with the most important equations---the rendering equation and the transport equation---whose solution constitutes the global illumination problem. In order to solve the global illumination problem, a certain number of multi-pass methods exist. Their objective is to be able to skip restrictions on the number of types of light paths that could be dealt with a single technique, or increase efficiency and/or accuracy. We have opted to follow this philosophy, and a pair of two pass methods have been developed for general environments.The third chapter includes the study of the methods that perform the single scattering approximation, and also the study of the ones that take into account multiple scattering.The fourth chapter is devoted to our first pass method, which computes a rough estimate of the global illumination. Knowing the benefits of hierarchical approaches, two concrete algorithms based on hierarchies have been extended to be more generic: Hierarchical Radiosity with Clustering and Hierarchical Monte Carlo Radiosity.Our second pass is considered in the next chapter. Using the coarse solution obtained by the first pass, our second pass computes a high quality solution from a given viewpoint. Radiances and source radiances are estimated using Monte Carlo processes in the context of path tracing acceleration and also for final gather. Probability density functions (PDFs) are created at ray intersection points. For such a task, we initially used constant basis functions for the directional domain. After realizing of their limitations we proposed the Link Probabilities (LPs), which are objects with adaptive PDFs in the links-space.In order to take advantage of the effort invested for the construction of the LPs, we have devised two closely related progressive sampling strategies. In the second pass, instead of sampling each pixel individually, only a subset of samples is progressively estimated across the image plane. Our algorithms are inspired by the work of Michael D. McCool on anisotropic diffusion using conductance maps.The final chapter presents the conclusions of the thesis. Also possible lines of further research are suggested. / El objetivo de esta tesis es el desarrollo de algoritmos para la simulación del transporte de la luz en los entornos genéricos para generar imágenes de la alta calidad. Con este fin, primero hemos analizado los métodos existentes capaces de visualizar medios participativos, más concretamente los que tienen en cuenta la dispersión múltiple en los medios. Después, hemos ideado un par de métodos de dos pasos para el cómputo de esas imágenes. Para el primer paso hemos propuesto algoritmos que hacen frente a las escenas que deseamos tratar. El segundo paso utiliza la solución aproximada del primer paso para obtener la imagen final. La estructura de la disertación se presenta brevemente en lo que sigue.En el primer capítulo se discuten la motivación de la tesis y sus objetivos. También se resumen las contribuciones de la tesis y su organización. En el segundo capítulo se repasan los principios de la iluminación global para los ambientes genéricos, con las ecuaciones-más importantes (la ecuación de rendering y la ecuación de transporte) cuya solución constituye el problema global de iluminación. Para solucionar el problema global de iluminación, cierto número de métodos de múltiples pasos existen. Su objetivo es poder eliminar restricciones en el número de tipos de caminos de luz que se podrían tratar con una sola técnica, o aumentar su eficacia y/o exactitud. Hemos optado seguir esta filosofía, desarrollando un par de métodos de dos pasos para entornos genéricos.El tercer capítulo incluye el estudio de los métodos que utilizan la aproximación de dispersión simple, y también el estudio de los que consideran la dispersión múltiple.El cuarto capítulo está dedicado a nuestro método de primer paso, que computa un cálculo aproximado de la iluminación global. Conociendo las ventajas de los métodos jerárquicos, dos algoritmos concretos basados en jerarquías se han ampliado para ser más genéricos: radiosidad jerárquica con clustering y radiosidad jerárquica usando Monte Carlo. Nuestro segundo paso se considera en el capítulo siguiente. Usando la solución aproximada obtenida por el primer paso, el segundo paso computa una solución de la alta calidad para un punto de vista dado. Se estiman las radiancias usando procesos de Monte Carlo en el contexto de la aceleración de trazadores de rayos y también para final gather. Las funciones de densidad de probabilidad (PDFs) se crean en los puntos de interacción de los rayos. Para tal tarea, utilizamos inicialmente funciones constantes como base para el dominio direccional. Después de comprender sus limitaciones, propusimos establecer probabilidades directamente sobre los enlaces (link probabilities, o LPs), usando objetos con PDFs adaptativos en el espacio de los enlaces.Para aprovechar el esfuerzo invertido en la construcción de los LPs, hemos ideado dos estrategias de muestreo progresivas. En el segundo paso, en vez de muestrear cada pixel individualmente, solamente se estima progresivamente un subconjunto de muestras a través del plano de imagen. Nuestros algoritmos han sido inspirados en el trabajo de Michael D. McCool en la difusión anisotrópica usando mapas de conductancia.El capítulo final presenta las conclusiones de la tesis, y también sugiere las líneas posibles de investigación futura.
24

A Hybrid Environment for Syntax-Semantic Tagging

Padró, Lluís 06 February 1998 (has links)
The thesis describes the application of the relaxation labelling algorithm to NLP disambiguation. Language is modelled through context constraint inspired on Constraint Grammars. The constraints enable the use of a real value statind "compatibility". The technique is applied to POS tagging, Shallow Parsing and Word Sense Disambigation. Experiments and results are reported. The proposed approach enables the use of multi-feature constraint models, the simultaneous resolution of several NL disambiguation tasks, and the collaboration of linguistic and statistical models. / La tesi descriu l'aplicació de l'algorisme d'etiquetat per relaxacio (relaxation labelling) a la desambiguació del llenguatge natural. La llengua es modela mitjançant restriccions de context inspirades en les Constraint Grammars. Les restriccions permeten l'ús d'un valor real que n'expressa la "compatibilitat". La tècnica s'aplica a la desambiguació morfosintàctica (POS tagging), a l'anàlisi sintàctica superficial (Shallow Parsing) i a la desambiguació semàntica (Word Sense Disambigation), i se'n presenten experiments i resultats. L'enfoc proposat permet la utilització de models de restriccions amb trets múltiples, la resolució simultània de diverses tasques de desambiguació del llenguatge natural, i la col·laboració de models linguístics i estadístics.
25

Learning with Feed-forward Neural Networks: Three Schemes to Deal with the Bias/Variance Trade-off

Romero Merino, Enrique 30 November 2004 (has links)
In terms of the Bias/Variance decomposition, very flexible (i.e., complex) Supervised Machine Learning systems may lead to unbiased estimators but with high variance. A rigid model, in contrast, may lead to small variance but high bias. There is a trade-off between the bias and variance contributions to the error, where the optimal performance is achieved.In this work we present three schemes related to the control of the Bias/Variance decomposition for Feed-forward Neural Networks (FNNs) with the (sometimes modified) quadratic loss function:1. An algorithm for sequential approximation with FNNs, named Sequential Approximation with Optimal Coefficients and Interacting Frequencies (SAOCIF). Most of the sequential approximations proposed in the literature select the new frequencies (the non-linear weights) guided by the approximation of the residue of the partial approximation. We propose a sequential algorithm where the new frequency is selected taking into account its interactions with the previously selected ones. The interactions are discovered by means of their optimal coefficients (the linear weights). A number of heuristics can be used to select the new frequencies. The aim is that the same level of approximation may be achieved with less hidden units than if we only try to match the residue as best as possible. In terms of the Bias/Variance decomposition, it will be possible to obtain simpler models with the same bias. The idea behind SAOCIF can be extended to approximation in Hilbert spaces, maintaining orthogonal-like properties. In this case, the importance of the interacting frequencies lies in the expectation of increasing the rate of approximation. Experimental results show that the idea of interacting frequencies allows to construct better approximations than matching the residue.2. A study and comparison of different criteria to perform Feature Selection (FS) with Multi-Layer Perceptrons (MLPs) and the Sequential Backward Selection (SBS) procedure within the wrapper approach. FS procedures control the Bias/Variance decomposition by means of the input dimension, establishing a clear connection with the curse of dimensionality. Several critical decision points are studied and compared. First, the stopping criterion. Second, the data set where the value of the loss function is measured. Finally, we also compare two ways of computing the saliency (i.e., the relative importance) of a feature: either first train a network and then remove temporarily every feature or train a different network with every feature temporarily removed. The experiments are performed for linear and non-linear models. Experimental results suggest that the increase in the computational cost associated with retraining a different network with every feature temporarily removed previous to computing the saliency can be rewarded with a significant performance improvement, specially if non-linear models are used. Although this idea could be thought as very intuitive, it has been hardly used in practice. Regarding the data set where the value of the loss function is measured, it seems clear that the SBS procedure for MLPs takes profit from measuring the loss function in a validation set. A somewhat non-intuitive conclusion is drawn looking at the stopping criterion, where it can be seen that forcing overtraining may be as useful as early stopping.3. A modification of the quadratic loss function for classification problems, inspired in Support Vector Machines (SVMs) and the AdaBoost algorithm, named Weighted Quadratic Loss (WQL) function. The modification consists in weighting the contribution of every example to the total error. In the linearly separable case, the solution of the hard margin SVM also minimizes the proposed loss function. The hardness of the resulting solution can be controlled, as in SVMs, so that this scheme may also be used for the non-linearly separable case. The error weighting proposed in WQL forces the training procedure to pay more attention to the points with a smaller margin. Therefore, variance tries to be controlled by not attempting to overfit the points that are already well classified. The model shares several properties with the SVMs framework, with some additional advantages. On the one hand, the final solution is neither restricted to have an architecture with so many hidden units as points (or support vectors) in the data set nor to use kernel functions. The frequencies are not restricted to be a subset of the data set. On the other hand, it allows to deal with multiclass and multilabel problems in a natural way. Experimental results are shown confirming these claims.A wide experimental work has been done with the proposed schemes, including artificial data sets, well-known benchmark data sets and two real-world problems from the Natural Language Processing domain. In addition to widely used activation functions, such as the hyperbolic tangent or the Gaussian function, other activation functions have been tested. In particular, sinusoidal MLPs showed a very good behavior. The experimental results can be considered as very satisfactory. The schemes presented in this work have been found to be very competitive when compared to other existing schemes described in the literature. In addition, they can be combined among them, since they deal with complementary aspects of the whole learning process.
26

Diseño conceptual de productos asistido por ordenador : Un estudio analítico sobre aplicaciones y definición de la estructura básica de un nuevo programa

Chaur Bernal, Jairo 03 June 2005 (has links)
El tema de la investigación es «la creatividad en la fase conceptual del diseño de productos» y se orienta a la aplicación del ordenador como herramienta de asistencia al ingeniero de diseño. De las tres fases del proceso de diseño de productos (definición del problema, generación de conceptos y desarrollo de la mejor alternativa), es en la segunda, conocida como «síntesis», donde se da la máxima expresión de creatividad. La hipótesis de partida afirma la posibilidad de asistir al ingeniero de diseño en esa etapa, mediante el uso de «software creativo» (que implementa técnicas, metodologías y herramientas de creatividad). El objetivo principal de esta tesis es obtener la estructura de tal tipo de software, partiendo de la identificación de características adecuadas, mediante un estudio experimental detallado, previa definición de un modelo objetivo de valoración. Diseño se entiende aquí como el conjunto de actividades que conduce al desarrollo de una idea de producto. Mientras que la creatividad técnica es aquella que produce dos resultados complementarios: novedad y utilidad. La revisión de las tendencias que siguen los productores de software CAD/CAM/CAE, indican que la fase del análisis, que caracteriza al diseño de detalle, sigue siendo privilegiada con respecto a la fase de diseño conceptual. Del software creativo genérico ofrecido actualmente, se hace una selección de cuatro programas representativos que desarrollan metodologías como las de brainstorming, sinéctica, mapas mentales y TRIZ. Los modelos de medición de la creatividad se aplican a la persona, el proceso o el producto. Se seleccionó el test CREA para el primer caso. Para los otros, se realizó una adaptación de la propuesta de Shah (2003), que, junto con aportes propios, condujo a la definición del modelo de valoración de la creatividad de ideas generadas durante el proceso de diseño, con cuatro índices: flexibilidad, fluidez, elaboración y originalidad. Tal modelo facilitó la comparación gráfica y cuantitativa de las variables: tiempos por actividad y por módulo de software, cantidad total, flujo y origen de ideas, índices de creatividad y trayectoria creativa. El factor de diseño experimental fue el tipo de software, con cinco niveles: cuatro programas y un testigo. Se realizaron cuatro repeticiones y el método utilizado fue el estudio de protocolo modificado para obtener la información de cuatro fuentes: vídeo, dibujos, archivo generado y secuencia de uso del software.Los resultados obtenidos y su respectivo análisis permitieron identificar características relevantes de cada programa, herramientas efectivas y configuraciones más aceptadas por los diseñadores. En general, se puede afirmar que el software creativo sí propicia la generación de ideas mediante asociaciones, transformaciones o exploraciones. Con la identificación de estas características, se desarrolló la propuesta de estructura del nuevo software, presentada en forma de maqueta. Se sustenta, en el modelo FBS (Function-Behaviour-Structure) para construir el proceso evolutivo del diseño, centrado en la «función» con sus tres roles: modelación de requerimientos, articulación entre estos y el objeto, e instrumento de evaluación del valor del objeto. Se tiene en cuenta la forma de representación del modelo de evolución funcional de Takeda (1996), con un cuerpo de función, modificadores funcionales y estructuras de solución; y el estímulo al desarrollo cíclico de etapas divergentes y convergentes (Liu et. al., 2003). La propuesta articula dos tipos de herramientas. En el primero se incluye las técnicas de creatividad identificadas como las más eficientes. En el segundo están las bases de datos que sirven de extensión a la memoria del diseñador, de manera que disponga siempre de fuentes adecuadas para traducir o procesar las ideas generadas con las técnicas de creatividad, convirtiéndolas en ideas útiles para solucionar el problema de diseño. / The subject of this investigation is the creativity in the conceptual phase of the product design and it is oriented to the application of the computer as aid tool to design engineers. The three phases of the product design process are: problem definition, concepts generation, and development of the best alternative. It is in the second of them, known as "synthesis", where the highest creativity expression occurs. The main hypothesis is the affirmation of the possibility of aiding the design engineers in conceptual stage by the use of "creative software" (that implements technical, methodologies and tools of creativity). The aim of this thesis is to obtain the structure of such software by means of the definition of an objective evaluation model and then, by a detailed experimental study. Design is understood as the set of activities that leads to the development of a product idea. Whereas the technical creativity produces two complementary results: newness and utility. The tendencies that follow by the CAD/CAM/CAE producers, indicates that the phase of the analysis (that characterizes to the detail design), continues being privileged with respect to the conceptual design phase. Four representative programs were selected of the actual generic creative software; they develop techniques as brainstorming, synectis, mind maps and TRIZ. The evaluation of creativity can be approached from three different points of view: the qualification of the individual (the psychological viewpoint), the process of product design (the process viewpoint) and the product designed (the product viewpoint).The "CREA" test was selected for the individual creativity evaluation. For the others viewpoints, an adaptation of the proposals of Shah & Vargas (2003) was made, that lead to the definition of the evaluation model for creativity of ideas generated during the design process, with four indices: flexibility, fluidity, elaboration and originality. Such model facilitated the graphical and quantitative comparison of variables: times by activity and software module; total amount, flow and origin of ideas; indices of creativity and creative trajectory. The factor of experimental design was the type of software, with five levels: four programs and a witness. Four repetitions were made and the used method was the study of protocol, modified to obtain the data of four sources: video, drawings, generated file and sequence of use of software. The results and their respective analysis allowed to identify the best characteristics of each program, effective tools and configurations more accepted by the designers. In general, it is possible to be affirmed that creative software is useful for generation of ideas by means of associations, transformations or explorations. With the identification of these characteristics, the mock-up of the new software structure is presented. It is sustained, in the FBS model (Function-Behaviour-Structure), to construct the evolutionary process of the design, where the function plays its three roles: modelling of requirements, fit between these and the object, and instrument for object evaluation. The representation form of the Takeda's (1996) functional evolution was considered, with a function body, functional modifiers and structures of solution; and the stimulus to the cyclical development of divergent and convergent stages (Liu et al., 2003). The proposal articulates two types of tools. In first one includes the most efficient techniques of creativity identified in the experimental study. In the second, there are the data bases, useful as extension to the designer memory, so that he or she, always has suitable sources to translate or to process the ideas generated with the creativity techniques, turning them useful ideas to solve the design problem.
27

Estimation of the Transport Demand for Real-Time Aplications

Casas Vilaró, Jordi 15 March 1998 (has links)
La implementació dels sistemes de transport intel·ligent (ITS) ha possibilitat disposar de gran quantitat de dades de trànsit en temps real, utilitzant les actuals infrastructures en la xarxa viària que ens permeten recollir informació on-line. Mesures de flux de trànsit, velocitats o ocupació proporcionats pels detectors son un exemple. Com utilitzar les dades de trànsit en temps real, així com les dades històriques, per realitzar una predicció a curt termini és encara un problema obert als investigadors. El problema de la predicció del trànsit a curt termini és determinar l'evolució del flux del trànsit o, de forma equivalent, l'estat de la xarxa. La possibilitat de realitzar una predicció dinàmica de l'estat de la xarxa és essencial per la gestió del trànsit i centres d'informació de trànsit, permetent l'aplicació de polítiques de control o gestió per prevenir les congestions, i evitar el problemes que es deriven quan aquesta congestió ja és present.Els sistemes avançats de gestió de trànsit (ATMS) i sistemes avançats d'informació de trànsit (ATIS) han de considerar en temps real períodes de temps on ni la demanda ni el flux de trànsit son constants ni homogenis. La demanda i el flux tenen un comportament dinàmic, és a dir, son dependents del temps. El concepte de gestió de trànsit, com es defineix en Barceló (1991), té un sentit més ampli que el clàssic concepte de control de trànsit, ja que realitza accions sobre el temps, incloent el control sobre l'espai, com per exemple la redistribució dels fluxos amb accions de "rerouting" proposant rutes alternatives. Com a conseqüència la gestió de trànsit requereix una modelització dinàmica que representi la variació del flux a través del temps. Totes les propostes de sistemes avançats de trànsit i sistemes de control basats en les tecnologies telemàtiques estan d'acord amb la importància de la predicció a curt termini de l'evolució del flux de trànsit, que és equivalent a tenir una predicció a curt termini de l'estat de la xarxa viària per gestionar correctament el trànsit, disseminació de la informació als usuaris, etc. Algunes arquitectures de sistemes han estat proposades i avaluades en projectes Europeus en els darrers anys. Malauradament els resultats obtinguts en aquests projectes no es poden extrapolar o aplicar a estructures urbanes complexes. Altres propostes més adequades a estructures més complexes han estat desenvolupades, com per exemple les referenciades en Cascetta (1993) i Barceló (1997), però aquests models no son massa apropiats en aplicacions totalment dinàmiques i això ens ha portat a explorar altres direccions per cercar un model de predicció adequat. Davant les prometedores capacitats de les xarxes neuronals com a eines útils en la predicció, (Baldi i Hornik, 1995), vàrem decidir explorar aquesta alternativa. Aquest plantejament, basat en l'obtenció de dades de detecció reals combinat amb les matrius OD històriques, determina la predicció a curt termini de la matriu OD, definida per períodes. Aquesta matriu obtinguda com a resultat, pot ser utilitzada com a dada d'entrada en el simulador microscòpic de trànsit i obtenir l'evolució dels fluxos de trànsit, i com a conseqüència, la predicció de l'estat de la xarxa.Considerant aquesta visió dinàmica de la demanda, podem considerar cada element de la matriu O/D com una sèrie temporal, i per tant la predicció d'una matriu OD consisteix en realitzar la predicció de cada component de la matriu, és a dir, la predicció simultània de diverses sèries temporals multivariants. Solucions a aquest problema basades en mètodes de predicció clàssics, com per exemple Box-Jenkins o filtres de Kalman, han estat proposat per diversos autors (Davis, 1993; Davis et al., 1994; Van der Ziipp i Hamerslag, 1996), i aquestes propostes donen bons resultats en infrastructures lineals, com podria ser el cas d'autopistes, però en el cas de xarxes amb una estructura més complexa, com podria ser un xarxa urbana, no està clar si proporcionen resultats acceptables, encara que en alguns del més prometedors casos, (Davis,1994), la càrrega computacional necessària posa en dubte el seu ús en aplicacions en temps real de xarxes d'una mida considerable, fent necessari la cerca d'altres mètodes.Les xarxes neuronals apareixen com a candidates naturals per un model de predicció, amb el valor afegit de la seva estructura fàcilment paral·lelitzable que en el cas d'un sistema en temps real és una característica a tenir en compte. Una altra raó per pensar en la utilització de les xarxes neuronals son els resultats reportats per en Chakraborty (1992) en l'anàlisi de sèries temporals multivariant utilitzant xarxes neuronals, o d'en Weigend (1992) en l'avaluació de les capacitats predictives comparades amb altres models clàssics.La predicció dinàmica de l'estat de la xarxa en termes de predicció de la matriu OD utilitzant Xarxes Neuronals té un inconvenient: la quantitat de dades necessàries per un correcte aprenentatge. El treball de recerca realitzat en aquesta tesis proposa solventar aquest desavantatge particionant la xarxa neuronal amb grups de parells OD "independents" segons la identificació de camins més utilitzats.La predicció a curt termini desemboca d'aquesta forma cap al crític problema de l'Assignació Dinàmica de Trànsit (DTA), que en aquesta tesis és resolta amb una heurística basada en la microsimulació. El treball de recerca planteja un dels aspectes més crítics de la simulació dinàmica de xarxes viàries, anomenat heurística d'assignació dinàmica, amb la consideració dels models de selecció de rutes, i la metodologia de la validació, un aspecte important per determinar el grau de validació i significació dels resultats de simulació. Aquest treball està estructurat en dues parts, la primera ens dóna una visió global de com les principals funcionalitats han estat implementades en el simulador microscòpic AIMSUN, (AIMSUN 2002), i una segona part dedicada a parlar en detall de la heurística dissenyada i determinar una guia en la calibració/validació dels seus paràmetres. Un cop el model de simulació està validat i calibrat, llavors és utilitzat per realitzar el DTA on els seus resultats ens permeten identificar els camins més utilitzats per llavors determinar la partició dels parells OD i així la definició de les xarxes neuronals per la realitzar la predicció. / The implementation of Intelligent Transport Systems (ITS) has made vast quantities of real-time traffic data available, by making use of current road network infrastructure that enables information to be gathered on-line. Detectors that measure traffic flow, speed and occupancy are an example. How to use real-time traffic data, as well as historical data, to provide short-term traffic prediction, remains an open problem for researchers. The problem of short-term traffic prediction involves determining the evolution of traffic flows or, equivalently, of the network state. The ability to predict the network state dynamically is essential in traffic management and for traffic information centres particularly, since it enables them to apply traffic control and traffic management policies to prevent traffic congestion rather than dealing with traffic problems after congestion has already occurred. Advanced traffic management systems (ATMS) and advanced traffic information systems (ATIS) must consider, in real time, short time intervals in which neither demand nor flows are constant and homogenous. Demand and flow behave dynamically, that is, they are both time-dependent. The concept of traffic management, as defined by Barceló (1991), is broader than the classic concept of traffic control, because it takes action over time, including control over space, such as, for instance, redistributing flows by rerouting, that is, by proposing alternatives routes. Therefore, traffic management applications require dynamic modelling that shows flow variation over time.All proposals for advanced traffic management and control systems that are based on telematic technologies agree on the importance of short-term prediction of traffic flow evolution, which is equivalent to the short-term prediction of the network state, for correct decision-making in traffic management, information dissemination to users, etc. Several system architectures have been proposed and evaluated in European projects in recent years. Although the achievements of these projects cannot be applied or extrapolated to complex urban structures, other models that are more suited to complex networks have been developed, by Cascetta (1993) and Barceló (1997), for example. Unfortunately, these models do not appear to be appropriate for full dynamic applications, and so we had to look elsewhere in our search for a suitable prediction model. The promising features of neural networks, which make them suitable for use as predictive tools (Baldi and Hornik, 1995), encouraged us to explore this approach. The approach, which is based on real-time detector measurements combined with historical OD matrices, involves determining a short-term forecast of a sliced OD matrix. The forecast OD matrix could be used as input for a microscopic traffic simulator such as AIMSUN; thus the evolution of traffic flows and, as a consequence, the forecast network state could be obtained.According to this dynamic vision of demand, we can consider each of the OD matrix's components as a time series. Therefore, forecasting an OD matrix consists in performing the forecast for each component in the matrix, that is, in simultaneously forecasting many multivariate time series. Solutions to this problem that are based on classic forecasting methods, such as Box-Jenkins or Kalman filtering, have been proposed by several authors (Davis, 1993; Davis et al., 1994; Van der Ziipp and Hamerslag, 1996). The approaches proposed provide relatively good results for linear infrastructures, such as motorways, although it remains unclear whether they would provide reliable results in the case of more complex networks, such as urban networks. In some of the most promising cases (Davis, 1994), however, the computational task required practically invalidates their use in real-time applications in large-scale networks and makes it advisable to look for other methods. Neural networks appear to be natural candidates for forecasting models, particularly if their easily parallelisable structure is taken into account, and high computational speed is required to achieve a system's objectives. Further reasons to consider a neural network approach are the results reported by Chakraborty (1992) for multivariate time series analysis using neural networks and by Weigend (1992) in his evaluation of their predictive capabilities compared to other classic models.The dynamic prediction of the network state in terms of the OD matrix by means of neural networks has one main drawback: the amount of data required for the proper training of the neural network. This thesis proposes solving this handicap by partitioning the neural network in terms of clusters of independent or almost independent OD pairs. This technique allows an original neural network of a large size to be split into a set of smaller neural networks that are easier to train. Before the clustering problem can be solved, however, the paths that are most likely to be used between each OD pair must be identified.Short-term forecasting leads, in this way, to the critical problem of dynamic traffic assignment, which is solved in this thesis by a microsimulation-based heuristic. In the thesis, some of the most critical aspects of the dynamic simulation of road networks are discussed, namely heuristic dynamic assignment, implied route choice models and the validation methodology, a key issue in determining the degree of validity and significance of the simulation results. The work is divided into two parts: the first provides an overview of how the main features of microscopic simulation were implemented in the microscopic simulator AIMSUN (AIMSUN 2002) and the second is a detailed discussion of heuristic dynamic assignment and sets guidelines for calibrating and validating dynamic traffic assignment parameters. The calibrated and validated simulation model is then used to conduct a dynamic traffic assignment, whose output identifies the paths that are most likely to be used, which will be clustered in subsets that connect the OD pairs and will define the neural networks for the forecast.
28

Approximation and geometric processing of digital images with adaptive triangular meshes

Vintimilla Burgos, Boris Xavier 19 January 2001 (has links)
Esta tesis se ha enfocado en el desarrollo y evaluación de un conjunto de técnicas eficientes para generar y procesar mallas triangulares adaptativas obtenidas a partir de imágenes digitales.Tres objetivos diferentes han sido considerados: (1) aproximación de imágenes digitales con mallas triangulares adaptativas, (2) ejecución de operaciones típicas de procesamiento de imagen sobre mallas triangulares adaptativas y (3) obtención de imágenes digitales a partir de mallas triangulares adaptativas.Aproximación de Imágenes Digitales con Mallas Triangulares AdaptativasDos nuevas técnicas para aproximar imágenes digitales con mallas triangulares adaptativas han sido estudiadas y desarrolladas en esta tesis.La primera técnica aproxima una imagen digital dada con una malla triangular adaptativa garantizando un máximo error (tolerancia) con respecto a la imagen original.La segunda técnica aproxima una imagen digital dada con una malla triangular adaptativa conservando las formas y discontinuidades presentes en la imagen, evitando criterios de optimización. Esta segunda técnica puede ser complementada con la primera si un máximo error debe ser garantizado.Operaciones de Procesamiento de Imagen sobre Mallas Triangulares AdaptativasUn conjunto de técnicas para aplicar operaciones de análisis y realzado de imágenes sobre mallas triangulares adaptativas han sido desarrolladas en esta tesis. Estas técnicas permiten la ejecución de operaciones típicas de procesamiento de imagen a mallas triangulares que representan cualquier tipo de información, tales como imágenes de nivel de gris, mapas de profundidad (range images) o superficies de terreno. De este modo, cualquiera de las operaciones típicas de procesamiento de imagen ejecutadas sobre imágenes de nivel de gris pueden también ser aplicadas a mallas triangulares en general.Una ventaja adicional de las técnicas propuestas es que dado que las mallas triangulares procesadas pueden ser representaciones compactas de las imágenes digitales, algunas operaciones de procesamiento de imagen aplicadas en el dominio geométrico a mallas triangulares pueden ser ejecutas más eficientemente que si ellas son aplicadas en el dominio de imagen a las imágenes originales píxel por píxel.Generación de Imágenes Digitales a partir de Mallas Triangulares AdaptativasAdemás de ser capaces de generar mallas triangulares adaptativas desde imágenes digitales, es también necesario proceder por el camino inverso a modo de determinar la exactitud con la cual las mallas obtenidas aproximan las imágenes originales. De este modo, dos técnicas eficientes que permiten la generación de imágenes digitales a partir de mallas triangulares adaptativas han sido propuestas. La primera técnica muestrea cada triángulo de la malla dada uniformemente en tantas posiciones como píxeles aquel triángulo cubre. El resultado es una imagen digital aproximante. La segunda técnica genera una imagen digital a partir de una malla triangular adaptativa dada aplicando funciones de la libreria gráfica OpenGL, las cuales están implementadas tomando ventaja de la aceleración por hardware. En este forma, el estado de generación de imagen llega a ser significativamente más rápido que la anterior técnica de muestreo uniforme geométrico.Aunque los objetivos anteriores deben ser entendidos dentro del campo de procesamiento de imagen, muchas de las técnicas propuestas pueden ser aplicadas a otros campos tales como: visión por computador, robótica, modelado de superficies de terreno o imágenes médicas, por mencionar unos pocos. / This dissertation has focused on the development and evaluation of a set of efficient techniques to generate and to process adaptive triangular meshes obtained from digital images. Three different goals have been considered: (1) approximating digital images with adaptive triangular meshes, (2) performing typical image processing operations upon adaptive triangular meshes and (3) obtaining digital images from adaptive triangular meshes.Approximation of Digital Images with Adaptive Triangular MeshesTwo new techniques for approximating digital images with adaptive triangular meshes have been studied and developed in this dissertation. The first technique approximates a given digital image with an adaptive triangular mesh guaranteeing a maximum error (tolerance) with respect to the original image. The second technique approximates a given digital image with an adaptive triangular mesh by preserving the shapes and discontinuities present in the image, avoiding optimization criteria. This second technique can be complemented with the first one if a maximum error is to be guaranteed.Image Processing Operations upon Adaptive Triangular MeshesA set of techniques to perform image analysis and enhancement operations upon adaptive triangular meshes has been developed in this dissertation. These techniques allow the application of typical image processing operations to triangular meshes that represent any type of information, such as gray-level images, range images or terrain surfaces. Hence, many of the typical image processing operations performed upon gray-level images can also be performed to triangular meshes in general.An additional advantage of the proposed techniques is that since the processed triangular meshes can be compact representations of digital images, some image processing operations applied in the geometric domain to triangular meshes can run more efficiently that if they are applied in the image domain to the original images pixel by pixel.Generation of Digital Images from Adaptive Triangular MeshesBesides being able to generate adaptive triangular meshes from digital images, it is also necessary to proceed in the other way round in order to determine the accuracy with which the obtained meshes approximate the original images. Hence, two efficient techniques that allow the generation of digital images from adaptive triangular meshes have been proposed. The first technique samples every triangle of the given mesh uniformly at as many positions as pixels that triangle covers. The result is an approximating digital image. The second technique generates a digital image from a given adaptive triangular mesh by applying functions of the OpenGL graphics library, which are implemented by taking advantage of hardware acceleration. In this way, the image generation stage turns out to be significantly faster than with the previous geometric uniform sampling technique.Although the previous objectives must be understood within the field of image processing, many of the proposed techniques can be applied to other fields such as: computer vision, robotics, terrain surface modeling or medical imaging, to mention a few.
29

Nonlinear control of uncertain systems: Some application-oriented issues

Pozo Montero, Francesc 20 January 2005 (has links)
L'anàlisi i el control de sistemes amb incerteses són un dels problemes més interessants en l'àmbit de la teoria de control. En les últimes dues dècades hi ha hagut un augment important en la recerca dedicada a resoldre de forma analítica problemes de control on les incerteses poden aparèixer tant en la representació del sistema com en les mesures. No obstant, la profusió de la producció científica amb una marcada orientació teòrica no ha estat acompanyat d'una recerca similar dels aspectes d'un caire més aplicat. Aquesta tesi pretén contribuir en la comprensió d'alguns aspectes pràctics d'algoritmes de control específics. Més concretament, tractem el popular mètode anomenat backstepping i una recent tècnica computacional per resoldre el problema de la síntesi de sistemes no lineals.Respecte als sistemes no lineals, els anys 90 van començar amb un important avenç: el backstepping, mètode de control recursiu per a sistemes no lineals i no restringit a fites lineals. La verdadera força d'aquest mètode va ser descoberta quan es van desenvolupar els dissenys de control per a sistemes no lineals amb incerteses estructurades. La manera com el backstepping incorporava les incerteses i els paràmetres desconeguts va contribuir a la seva difusió i acceptació. Aquesta tesi es dedica, d'una banda, a aplicar aquest mètode de control en el camp de l'enginyeria civil i, d'altra banda, a fer un estudi de la sensibilitat numèrica de la implementació computacional del mètode.En l'aplicació d'enginyeria civil, es considera un sistema de control híbrid per estructures amb aïllament de base histerètic (control passiu) i un sistema de control actiu. L'objectiu de la component de control actiu, aplicat a la base de l'estructura, és mantenir els desplaçaments relatius de la base amb el terra, i de l'estructura amb la base dintre d'un rang raonable, d'acord amb el disseny de l'aïllament de base. L'aïllament de base exhibeix un comportament histerètic no lineal, descrit pel model de Bouc-Wen. El sistema es formula representant la dinàmica del sistema en dos sistemes de coordenades: absolutes (respecte un eix inercial) i relatives al terreny. Es presenta una comparació entre les dues alternatives a través de simulacions numèriques i s'observa com, efectivament, la llei de control backstepping garanteix l'estabilitat i un bon comportament transitori del llaç tancat.Una altra línia de recerca ha estat l'estudi de la sensibilitat numèrica del backstepping adaptatiu. En aquest sentit, la complexitat de la llei de control fa imprescindible l'ajut del càlcul numèric per a fer les computacions del senyal de control. El nostre treball estudia per primer cop els aspectes de sensibilitat numèrica del disseny de sistemes de control mitjançant backstepping. Es demostra que, tot i que l'augment dels paràmetres de disseny millora teòricament la resposta del sistema, aquest augment provoca l'aparició d'altes freqüències en el senyal de control.La tercera línia de recerca que tractem en aquest treball és la utilització de solucions numèriques a problemes de control quan solucions analítiques -com ara el backstepping- fallen o són molt difícils d'implementar. De fet, una limitació de la tècnica del backstepping és la necessitat de que el sistema controlat tingui una certa estructura triangular. D'altra banda, una altra limitació pràctica d'aquest mètode és la sensibilitat numèrica o la complexitat de la llei de control. Com una alternativa a les solucions analítiques del problemes de control, es presenta una nova tècnica numèrica. La tècnica està basada en un criteri de convergència recentment desenvolupat -dual del segon teorema de Lyapunov- i en un programari que verifica la positivitat de polinomis de vàries variables basant-se en una descomposició en sumes de quadrats. Les nostres contribucions en aquesta àrea consisteixen a estendre aquestes tècniques a sistemes racionals i la inclusió d'incerteses paramètriques en la formulació del problema de síntesi del control.
30

Diferenciación de servicios y mejora de la supervivencia en redes ad hoc conectadas a redes fijas

Domingo Aladrén, Mari Carmen 07 July 2005 (has links)
La comunicación entre redes ad hoc y redes basadas en infraestructura resulta esencial para poder extender Internet más allá de su alcance tradicional, a aquellas áreas hasta ahora inaccesibles, permitiendo la utilización de servicios Web y otras muchas aplicaciones en todo momento y lugar.En esta tesis doctoral se abordan dos difíciles retos: intentar proporcionar calidad de servicio extremo a extremo en la comunicación entre una red ad hoc y una red fija, y alargar la supervivencia de la red ad hoc para que dicha comunicación sea lo más estable y duradera posible.Para lograr alcanzar estos objetivos, se ha realizado primeramente un estudio exhaustivo tanto de los modelos de calidad de servicio como de los protocolos de encaminamiento existentes para redes ad hoc aisladas. Fruto de dicho estudio ha surgido una primera contribución que consiste en el diseño e implementación de un protocolo de encaminamiento para la mejora de la supervivencia en una red ad hoc aislada.A partir de esta base se ha podido abordar la diferenciación de servicios en redes ad hoc conectadas con redes fijas; como consecuencia de esta investigación se ha desarrollado una segunda contribución que consiste en el diseño y evaluación de un modelo de diferenciación de servicios que se basa en la cooperación para el mantenimiento de la calidad de servicio entre ambas redes.Finalmente, mediante una tercera contribución, se ha conseguido mejorar la supervivencia de una red ad hoc conectada a una red basada en infraestructura con el diseño e implementación de un protocolo de encaminamiento específicamente creado para tal efecto. Además, se ha demostrado que la incorporación de este protocolo de encaminamiento en una red ad hoc que utiliza un modelo de calidad de servicio basado en la interacción entre la red ad hoc y la red IP fija, no sólo alarga la supervivencia de la red ad hoc sino que además evita un aumento de la congestión y mejora la diferenciación de servicios entre ambas redes.Las simulaciones exhaustivas realizadas sirven para comparar todas estas contribuciones con otras propuestas anteriores, demostrando su efectividad y rendimiento.Las contribuciones presentadas en esta tesis doctoral tienen una singular importancia, pues hasta la fecha no se ha desarrollado ningún modelo de calidad de servicio que permita la interacción y favorezca la cooperación entre una red ad hoc y una red IP fija con el fin de proporcionar calidad de servicio extremo a extremo. Las contribuciones que se aportan demuestran que sí que es posible la diferenciación de servicios entre una red ad hoc y una red IP fija; además, prueban que resulta imprescindible la cooperación e integración de los modelos de calidad de servicio de ambas redes para lograrlo. Este trabajo resulta pionero en estos aspectos y sirve para abrir una nueva línea de investigación con el fin de promover la comunicación entre redes ad hoc y redes fijas. / The communication between wireless ad hoc networks and infrastructure-based networks is essential to extend Internet beyond its traditional scope, to remote inaccessible areas, making Web services available anytime, anywhere.In this PhD thesis two difficult challenges are tackled: to provide end-to-end quality of service in the communication between an ad-hoc and a wired network, and to extend the ad-hoc network survivability to achieve that this communication becomes as stable and lasting as possible.In order to attain these goals, we have firstly done an exhaustive study of the existing quality of service models as well as the routing protocols for isolated ad hoc networks. A first contribution has arisen from this study that is based on the design and implementation of a routing protocol for improving the survivability in an isolated ad hoc network.Under this basis research has been carried out into service differentiation in ad hoc networks connected to fixed networks; as a consequence of this research we have developed the second contribution of this thesis, that consists of the design and evaluation of a service differentiation model based on the cooperation for the quality of service provision between both networks.Finally, by means of a third contribution, we have managed to improve the network survivability of an ad hoc network connected to an infrastructure-based network with the design and implementation of a routing protocol specifically created for this purpose. In addition, we have proved that the incorporation of this routing protocol to an ad hoc network that uses a quality of service model based on the interaction between the ad hoc and the fixed IP network, does not only extend the ad hoc network survivability, but it also avoids congestion increase and improves the service differentiation between both networks.Extensive simulations have been carried out to compare all these contributions with already existing ones, proving their effectiveness and performance.The present contributions in this PhD thesis have a singular importance, since no quality of service model has been developed that enables the interaction and favours the cooperation between an ad-hoc and a fixed IP network with the aim of providing end-to-end quality of service. The contributions demonstrate that it is really possible to differentiate services between an ad hoc and a fixed IP network; moreover, they show that the cooperation and integration of the quality of service models in both networks is unvaluable in order to achieve it. This is a pioneering work in these aspects and it will be very useful to open a new research line with the aim of promoting the communication between ad hoc networks and fixed networks.

Page generated in 0.1007 seconds