• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 20
  • 10
  • 3
  • Tagged with
  • 33
  • 33
  • 33
  • 33
  • 12
  • 10
  • 10
  • 8
  • 8
  • 7
  • 6
  • 5
  • 4
  • 3
  • 3
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Power- and Performance - Aware Architectures

Canal Corretger, Ramon 14 June 2004 (has links)
The scaling of silicon technology has been ongoing for over forty years. We are on the way to commercializing devices having a minimum feature size of one-tenth of a micron. The push for miniaturization comes from the demand for higher functionality and higher performance at a lower cost. As a result, successively higher levels of integration have been driving up the power consumption of chips. Today, heat removal and power distribution are at the forefront of the problems faced by chip designers.In recent years portability has become important. Historically, portable applications were characterized by low throughput requirements such as for a wristwatch. This is no longer true.Among the new portable applications are hand-held multimedia terminals with video display and capture, audio reproduction and capture, voice recognition, and handwriting recognition capabilities. These capabilities call for a tremendous amount of computational capacity. This computational capacity has to be realized with very low power requirements in order for the battery to have a satisfactory life span. This thesis is an attempt to provide microarchitecture and compiler techniques for low-power chips with high-computational capacity.The first part of this work presents some schemes for reducing the complexity of the issue logic. The issue logic has become one of the main sources of energy consumption in recent years. The inherent associative look-up and the size of the structures (crucial for exploiting ILP), have led the issue logic to a significant energy budget. The techniques presented in this work eliminate or reduce the associative logic by determining producer-consumer relationships between the instructions or by scheduling the instructions according to the latency of the operations.An important effort has been deployed to reduce the energy requirements and the power dissipation through novel mechanisms based on value compression. As a result, the second part of this thesis introduces several ultra-low power and high-end processor designs. First, the design space for ultra-low power processors is explored. Several designs are developed (at the architectural level) from scratch that exploit value compression at all levels of the data-path. Second, value compression for high-performance processors is proposed and evaluated. At the end of this thesis, two compile-time techniques are presented that show how the compiler can help in reducing the energy consumption. By means of a static analysis of the program code or through profiling, the compiler is able to know the size of the operands involved in the computation. Through these analyses, the compiler is able to use narrower operations (i.e. a 64-bit addition can be converted to an 8-bit addition due to the information of the size of the operands).Overall, this thesis compromises the detailed study of one of the most power hungry units in a processor (the issue logic) and the use of value compression (through hardware and software) as a mean to reduce the energy consumption in all the stages of the pipeline.
22

Proveïment de QoS en xarxes de paquets òptiques per a entorns d'àrea metropolitana i de gran abast

Careglio, Davide 15 February 2005 (has links)
El gran crecimiento y expansión de Internet en los últimos años, con el consecuente incremento de usuarios y tráfico, ha hecho que aumente la necesidad de ancho de banda en las redes de telecomunicación actuales. El desafío de la futura generación de redes de telecomunicación punta a pasar de la simple transmisión de señales ópticas de gran capacidad a efectivamente conmutar y gestionar esta cantidad de datos en el domino óptico. Estas funcionalidades, actualmente realizadas por componentes eléctricos, son las que actualmente causan un cuello de botella en la escalabilidad y crecimiento de Internet. Por otro lado, se espera que las futuras redes transporten servicios heterogéneos que incluyen tanto transferencia de datos como transmisión de aplicaciones multimedia e interactivas. Cada servicio por lo tanto necesita un requerimiento y tratamiento particular (por ejemplo garantir un limite en el retraso extremo-extremo o en el ancho de banda). En este entorno, proporcionar calidad de servicio (Quality of Service, QoS) resulta ser un factor obligatorio. En este ámbito el objetivo de esta tesis es el desarrollo de nuevos mecanismos para proporcionar QoS en redes de conmutación de paquetes ópticos (Optical Packet Switching, OPS) tanto en entorno metropolitano como de área extendida. OPS pretende ser una solución a largo plazo en cuanto requiere conmutadores de alta velocidad y componentes ópticos avanzados como los conversores sintonizables de longitud de onda y regeneradores completamente ópticos. Por lo que concierne el entorno metropolitano, las redes son generalmente sin memoria, en el sentido que una vez transmitida la información a la red, esa se queda en el dominio óptico sin encontrar ninguna cola en el camino hasta alcanzar su destino. Para evitar contenciones, protocolos de acceso al medio compartido (Medium Access Control, MAC) son necesarios y pueden integrase con mecanismos para proporcionar QoS. De este concepto se pueden diseñar varias arquitecturas distintas. En esta tesis nos concentramos en dos arquitecturas basadas en topologías compuestas, llamadas respectivamente redes multi-PON y redes multi-anillos. Ambas han sido desarrolladas en el proyecto de investigación DAVID financiado por la Unión Europea dentro del quinto programa marco. Nuestras contribuciones abarcan varios aspectos. Antes de todos se han identificado los requerimientos de las futuras redes metropolitanas basadas en OPS, con particular atención en determinar los servicios necesarios de acuerdo con lo que se ha diseñado en la anterior generación eléctrica de redes metropolitanas. Luego para ambas redes se ha seguido el mismo procedimiento. La primera etapa ha sido la evaluación de prestaciones a través de simulaciones con el objetivo de identificar los puntos débiles. Se ha luego pasado a la fase de optimización tanto de la arquitectura de las redes como de los mecanismos que gobiernan su funcionamiento y se han verificado las mejoras. Finalmente se han propuesto mecanismos para proporcionar QoS según los requerimientos definidos anteriormente y se ha hecho un estudio de coste/prestaciones comparando las dos arquitecturas con otras actualmente en comercio como SDH, RPR y Ethernet.Por lo que concierne el entorno de área extendida, se ha considerado una red de conmutación de paquetes ópticos orientado a la conexión donde los nodos tienen limitadas capacidad de encolamiento. En este contexto, se han tratado dos problemáticas: el establecimiento de las conexiones virtuales ópticas (Optical Virtual Circuit, OVC) configurando propiamente las tablas de expedición (forwarding table) en los nodos y la provisión de QoS.Para el primer punto, a la llegada de una petición de establecimiento de una nueva OVC, cada nodo debe asignar un puerto y una longitud de onda de salida a esta OVC. Mientras la elección del puerto de salida depende de los algoritmos de routing, la elección de la longitud de onda se puede decidir localmente en cada nodo según diferente políticas llamadas OVC-to-wavelength setup assignment (OWSA). En esta parte de la tesis se ha estudiado en detalle este problema y se han propuesto diferentes estrategias. En particular se ha demostrado que una buena política de asignación de longitud de onda incrementa notablemente la prestación de un conmutador OPS. Se ha usado la idea de agrupar, siempre que se pueda, los flujos de tráfico que entran en el conmutador por el mismo puerto y misma longitud de onda de manera de disminuir lo máximo posible la probabilidad de convención entre paquetes. Por lo que concierne proporcionar QoS, el estado del arte indica que hasta el momento se ha siempre seguido la misma técnica basada en: 1) diseñar un algoritmo de resolución de contenciones que minimice la probabilidad de pérdidas de paquetes (Packet Loss Rate, PLR) y luego 2) aplicar un mecanismo de reserva de recursos capaz de diferenciar la PLR entre dos o mas clases de tráfico. Considerando que el entorno de estudio es orientado a la conexión, se ha propuesto un enfoque diferente basado en el esquema aplicado en redes ATM donde se definen diferentes categorías de servicio, cada una con su propio tratamiento dentro de la red. En particular se han definido 3 categorías de servicio para entorno OPS y se han desarrollado 3 algoritmos de resolución de contenciones, cada uno pensado para proporcionar el servicio requerido. Con esta técnica, además de controlar la PLR, también se pueden considerar el retraso y la complejidad computacional como métricas QoS.
23

Aportaciò a la detecció de simetries en imatges amb projecció ortogràfica

Marès Martí, Pere 11 June 2002 (has links)
El mètode de detecció de simetria local de reflexió que es presenta, pretén ser una aportació més a la recerca en visió per computador i la robòtica. Com és sabut haches camps d'aplicació impliquen considerar el temps de processament com un paràmetre bàsic. Així doncs, en aquesta tesi no ens conformem en obtenir un algorisme eficient de detecció de simetria si no que es planteja millorar el temps de processame nt a partir de l'obtenció de metodologies i algorismes que tinguin la qualitat de permetre una fácil implantació del processament en paral· lel així com de la implementació de processadors específics.El mètode de detecció de simetria es basa en les contribucions a la simetria de les parelles de segments rectilinis de la imatge. Aquesta aproximació permet una reducció considerable de la complexitat, de la mateixa manera que altres autors utilitzen reduccions basades en diferents agrupacions de punts de contorn, com ara segments d'arcs, b-splines etc. El mètode, així concebut, serà aplicable en imatges on les línies rectes siguin predominats com és el cas de construccions artificials i entorns estructurats.Tot i que l'anterior restricció és important, és adequada per al tipus d'aplicacions que hem exposat anteriorment i ens permet obtenir un mètode de detecció contributiu, a partir de l'acumulació de contribucions locals a la simetria de les parelles de segments rectilinis de la imatge. Es tracta doncs d'un mètode basat en un anàlisi local que mostra els avantatges d'aquesta aproximació mentre que pel fet de tractar-se d'un mètode contributiu millora els dos principals inconvenients de l'aproximació local, és a dir, la sensibilitat al soroll i la inestabilitat, la qual cosa representa una aportació a la superació del dilema "anàlisi local versus anàlisi global".El mètode es composa de quatre etapes:- Obtenció de la llista de segments rectilinis de la imatge- Obtenció dels segments de contribució a la simetria- Càlcul del mapa d'acumulació dels segments de contribució- Extracció d'eixos locals de simetriaUna característica que distingeix el mètode és que proporciona l'abast de la simetria, és a dir, la llargada dels eixos de simetria, precisant-ne els punts inicial i final. Per altra banda la característica contributiva del mètode proposat, ha permès detectar els eixos de simetria local amb una ponderació associada segons la seva importància. D'aquesta forma s'evita el processat d'alt nivell posterior per tal de determinar els eixos més significatius, necessari en la majoria de mètodes basat en l'aproximació local. Respecta la millora del temps de processat i donada la complexitat i extensió del problema de la detecció de simetria, s'ha fet un primer esforç en una de les etapes del mètode de més cost de computació. Concretament s'ha accelerat un procés que forma part del càlcul del mapa d'acumulació esmentat anteriorment, consistent en l'obtenció dels píxels que aproximen, en el pla discret, un segment rectilini especificat per els seus punts inicial i finals. Aquesta millora s'ha obtingut mitjançant un algorisme paral· lel que presenta com avantatges més rellevants: la simplicitat, eficiència i que permet un directa implementació d'un processador dedicat. Per l'altra banda, amb el mateix objectiu de millorar el temps de processament i en base a l'algorisme anterior, s'ha dissenyat un processador paral· lel dedicat que té la capacitat d'obtenir i emmagatzemar simultàniament, en una matriu de registres, el conjunt de píxels que aproximen, en el pla discret, un segment rectilini caracteritzat per els seus punts inicial i final. Una característica molt remarcable del processador és que obté i registra els píxels anteriors en un únic període de rellotge.Finalment per tal de conèixer el paràmetres referents a la seva viabilitat i prestacions, s'ha obtingut, mitjançant la simulació, una versió reduïda amb tecnologia d'alta escala d'integració VLSI en un únic circuit. El disseny obtingut ha mostrat la capacitat de processar17,2 Mega Segments/seg, en el pitjor del casos, mentre que en les condicions més favorables es capaç de processar 57,3 Mega segments/segon. / The method of reflection local symmetry detection presented aims to be a new approach to the research in vision computer and robotics. As we know them, these fields of application imply to consider the processing time as a basic parameter. In this way, in this thesis we shall obtain an efficient algorithm for symmetry detection and, moreover, we will try to improve the processing time with methodologies and algorithms that will be able to embed easily in parallel architectures and the implementation of specific processors.The symmetry detection method is based in symmetry contributions from the straight segments in the image. This approximation permits a considerable reduction in the complexity in the same way that other authors use reductions based in different grouping of contour points, such as arcs, b-splines, etc. The method conceived like this will be applicable in images where straight lines are predominant like in the case of artificial buildings and structured environments.Although the above restriction is important, it is suitable for all kinds of applications that we have exposed previously and it allows us to obtain a contributive detection method from the accumulation of local contribution of symmetry in pairs of straight segments in the image. Thus, it is a method based in the local analysis that shows the advantages of this approach while it improves the two main disadvantages of local approximation because it is a contributive method. These drawbacks are the sensibility to noise and instability which represent a novel approach to the overcoming of the "local analysis versus global analysis" dilemma.Four steps compose the method: - To obtain the straight segments list in the image- To obtain the symmetry contribution segments- To calculate an accumulation map of contribution segments- To extract the local symmetry axes.A distinctive feature is that the method yields the symmetry range, that is, the length of symmetry axes, with precise position of initial and final points.On the other hand, the contributive feature of the proposed method has allowed us to detect the local symmetry axes with an associated weight to their importance. That avoids the posterior high level processing in order to determine the more significative axes needed in most of the approaches based in local approximation. With respect to the improvement of processing time, and given the complexity and extension of the symmetry detection problem, an initial effort has been made in one of the stages of higher computational cost in the method. Specifically, a process in the calculation of the accumulation map has been accelerated, consistently in the achieving of pixels that form, in the discrete plane, a straight segment specified for its initial and final points. This improvement has been obtained with a parallel algorithm that presents more relevant advantages: simplicity, efficiency and it allows a direct implementation with a dedicated processor.Furthermore, with the same objective of processing time improvement and in basis to the above algorithm, a dedicated parallel processor has been designed with the capability to obtain and store simultaneously, in an array of registers, the set of pixels that approximate, in the discrete plane, a straight segment characterised by its initial and final points. A very remarkable feature of the processor is to obtain and store those pixels in a unique clock period.Finally, in order to know the parameters concerning its viability and performance, a simulated reduced version with VLSI (very large scale integration) technology in a unique circuit has been achieved. The obtained design has shown the capability of processing 17.2 million segments per second in the worst case, while in the most favourable conditions it is able to process up to 57.3 million segments per second.
24

Estudi de pautes de comportament en la supervisió de processos

Ponsa Asensio, Pere 05 February 2003 (has links)
L'objectiu bàsic és la recerca de patrons de conducta que permetin la construcció d'una traça de comportament. En aquest treball, la supervisió s'interpreta com una cadena particular de patrons de conducta portada a terme per la persona. Conceptualitzar la supervisió en forma de patrons (estats estables) enlloc d'accions sobre els dispositius físics de control (transicions), permet un tractament de la planificació enlloc de les manipulacions. Interessa remarcar aquelles cadenes de patrons que signifiquen un bon seguiment de la consigna en l'activitat proposada. L'extracció de patrons i pautes de comportament - cadenes rellevants de patrons de conducta -, enriqueix el coneixement que es te de la supervisió i permet afrontar el repte de l'estudi de la conducta humana i l'assessorament artificial en la presa de decisió. Una primera aproximació consisteix en encabir els patrons en una llibreria de controladors, generant-se una traça automàtica. Una segona aproximació consisteix en l'apropament de tècniques de raonament qualitatiu per afrontar la comparació del raonament entre persona i agent artificial en situacions d'alarma. El comportament de les persones a estudi i el model presentat permet, finalment, la creació d'indicadors per l'estudi del rendiment en supervisió de processos. Aquest enfocament destaca enfront a altres mètodes tradicionals que promouen l'estudi de rendiment en funció única de l'execució portada a terme per la persona. / In dynamic process supervision it is important to exhibit the different human operator behaviour patterns when performed a specified task. This work presents a method based on a micro-world environment to, first, outline the concepts underlying the different human operator strategies, and second, encapsulate them in a library of artificial agents. These artificial agents are then used as indicators to which human operator behaviours can be compared to assess the reasoning strategy. In this work, process supervision is examined from the point of view of human operator behaviour, which develops along a perception-reasoning-action cycle. The operator behaviours could be studied, in each particular case, (specific control room, production plant) following a field study. However, the use of micro-world presents flexibility and reproducibility, while preserving good relevancy from the industrial realism point of view. This work presents a method based on the micro-world MOREC, Micro-món per Recerca en Enginyeria del Coneixement, catalan version, which translate as Micro-world for Knowledge Engineering Research, which it is inspired from (Pastor et al. 1998)
25

Diseño conceptual de productos asistido por ordenador : Un estudio analítico sobre aplicaciones y definición de la estructura básica de un nuevo programa

Chaur Bernal, Jairo 03 June 2005 (has links)
El tema de la investigación es «la creatividad en la fase conceptual del diseño de productos» y se orienta a la aplicación del ordenador como herramienta de asistencia al ingeniero de diseño. De las tres fases del proceso de diseño de productos (definición del problema, generación de conceptos y desarrollo de la mejor alternativa), es en la segunda, conocida como «síntesis», donde se da la máxima expresión de creatividad. La hipótesis de partida afirma la posibilidad de asistir al ingeniero de diseño en esa etapa, mediante el uso de «software creativo» (que implementa técnicas, metodologías y herramientas de creatividad). El objetivo principal de esta tesis es obtener la estructura de tal tipo de software, partiendo de la identificación de características adecuadas, mediante un estudio experimental detallado, previa definición de un modelo objetivo de valoración. Diseño se entiende aquí como el conjunto de actividades que conduce al desarrollo de una idea de producto. Mientras que la creatividad técnica es aquella que produce dos resultados complementarios: novedad y utilidad. La revisión de las tendencias que siguen los productores de software CAD/CAM/CAE, indican que la fase del análisis, que caracteriza al diseño de detalle, sigue siendo privilegiada con respecto a la fase de diseño conceptual. Del software creativo genérico ofrecido actualmente, se hace una selección de cuatro programas representativos que desarrollan metodologías como las de brainstorming, sinéctica, mapas mentales y TRIZ. Los modelos de medición de la creatividad se aplican a la persona, el proceso o el producto. Se seleccionó el test CREA para el primer caso. Para los otros, se realizó una adaptación de la propuesta de Shah (2003), que, junto con aportes propios, condujo a la definición del modelo de valoración de la creatividad de ideas generadas durante el proceso de diseño, con cuatro índices: flexibilidad, fluidez, elaboración y originalidad. Tal modelo facilitó la comparación gráfica y cuantitativa de las variables: tiempos por actividad y por módulo de software, cantidad total, flujo y origen de ideas, índices de creatividad y trayectoria creativa. El factor de diseño experimental fue el tipo de software, con cinco niveles: cuatro programas y un testigo. Se realizaron cuatro repeticiones y el método utilizado fue el estudio de protocolo modificado para obtener la información de cuatro fuentes: vídeo, dibujos, archivo generado y secuencia de uso del software.Los resultados obtenidos y su respectivo análisis permitieron identificar características relevantes de cada programa, herramientas efectivas y configuraciones más aceptadas por los diseñadores. En general, se puede afirmar que el software creativo sí propicia la generación de ideas mediante asociaciones, transformaciones o exploraciones. Con la identificación de estas características, se desarrolló la propuesta de estructura del nuevo software, presentada en forma de maqueta. Se sustenta, en el modelo FBS (Function-Behaviour-Structure) para construir el proceso evolutivo del diseño, centrado en la «función» con sus tres roles: modelación de requerimientos, articulación entre estos y el objeto, e instrumento de evaluación del valor del objeto. Se tiene en cuenta la forma de representación del modelo de evolución funcional de Takeda (1996), con un cuerpo de función, modificadores funcionales y estructuras de solución; y el estímulo al desarrollo cíclico de etapas divergentes y convergentes (Liu et. al., 2003). La propuesta articula dos tipos de herramientas. En el primero se incluye las técnicas de creatividad identificadas como las más eficientes. En el segundo están las bases de datos que sirven de extensión a la memoria del diseñador, de manera que disponga siempre de fuentes adecuadas para traducir o procesar las ideas generadas con las técnicas de creatividad, convirtiéndolas en ideas útiles para solucionar el problema de diseño. / The subject of this investigation is the creativity in the conceptual phase of the product design and it is oriented to the application of the computer as aid tool to design engineers. The three phases of the product design process are: problem definition, concepts generation, and development of the best alternative. It is in the second of them, known as "synthesis", where the highest creativity expression occurs. The main hypothesis is the affirmation of the possibility of aiding the design engineers in conceptual stage by the use of "creative software" (that implements technical, methodologies and tools of creativity). The aim of this thesis is to obtain the structure of such software by means of the definition of an objective evaluation model and then, by a detailed experimental study. Design is understood as the set of activities that leads to the development of a product idea. Whereas the technical creativity produces two complementary results: newness and utility. The tendencies that follow by the CAD/CAM/CAE producers, indicates that the phase of the analysis (that characterizes to the detail design), continues being privileged with respect to the conceptual design phase. Four representative programs were selected of the actual generic creative software; they develop techniques as brainstorming, synectis, mind maps and TRIZ. The evaluation of creativity can be approached from three different points of view: the qualification of the individual (the psychological viewpoint), the process of product design (the process viewpoint) and the product designed (the product viewpoint).The "CREA" test was selected for the individual creativity evaluation. For the others viewpoints, an adaptation of the proposals of Shah & Vargas (2003) was made, that lead to the definition of the evaluation model for creativity of ideas generated during the design process, with four indices: flexibility, fluidity, elaboration and originality. Such model facilitated the graphical and quantitative comparison of variables: times by activity and software module; total amount, flow and origin of ideas; indices of creativity and creative trajectory. The factor of experimental design was the type of software, with five levels: four programs and a witness. Four repetitions were made and the used method was the study of protocol, modified to obtain the data of four sources: video, drawings, generated file and sequence of use of software. The results and their respective analysis allowed to identify the best characteristics of each program, effective tools and configurations more accepted by the designers. In general, it is possible to be affirmed that creative software is useful for generation of ideas by means of associations, transformations or explorations. With the identification of these characteristics, the mock-up of the new software structure is presented. It is sustained, in the FBS model (Function-Behaviour-Structure), to construct the evolutionary process of the design, where the function plays its three roles: modelling of requirements, fit between these and the object, and instrument for object evaluation. The representation form of the Takeda's (1996) functional evolution was considered, with a function body, functional modifiers and structures of solution; and the stimulus to the cyclical development of divergent and convergent stages (Liu et al., 2003). The proposal articulates two types of tools. In first one includes the most efficient techniques of creativity identified in the experimental study. In the second, there are the data bases, useful as extension to the designer memory, so that he or she, always has suitable sources to translate or to process the ideas generated with the creativity techniques, turning them useful ideas to solve the design problem.
26

Contribución al modelado y caracterización de nodos en redes de banda ancha. Aplicación al multiplexor inverso ATM.

Aguilar Igartua, Mónica 21 January 2000 (has links)
El acceso a las redes ATM y el dimensionado de sus recursos son cuestiones clave ya que cada vez hay una mayor demanda de ancho de banda por parte de los usuarios. Sin embargo, se necesitan alternativas económicamente viables. La multiplexación inversa ATM es una técnica con la que se combinan varios enlaces T1/E1 resultando en un único canal lógico de datos con tasa igual al agregado de los anchos de banda T1/E1 menos una pequeña cantidad debida a overhead de control. Resulta de gran interés caracterizar mediante expresiones fácilmente manejables el comportamiento de los nodos de una red de banda ancha en cuanto a los parámetros principales de calidad de servicio ATM. En esta tesis se aportan varios modelos analíticos para evaluar las prestaciones de un conmutador ATM suficientemente genérico y del dispositivo IMUX que permite estimar de manera ajustada los parámetros de calidad de servicio más relevantes para su diseño: tiempo medio de espera de las celdas en el dispositivo y probabilidad de pérdida de las mismas. La finalidad es constituir una herramienta efectiva para el diseño adecuado de los parámetros que definen al nodo ATM y particularmente al IMUX dada su mayor tratabilidad analítica.Para abordar el análisis, en primer lugar se han estudiado sistemas de colas conocidos y en particular se ha aportado un método analítico para aproximar los parámetros de calidad de servicio del sistema de colas más adecuado para modelar un nodo ATM y en concreto un multiplexor inverso ATM. Esto es, cola M/D/s/s+B con tiempo de servicio discreto y un esquema de cinco niveles de prioridad. Por otro lado, se modifica la semi-cadena de Markov para el sistema M/D/1 adaptándola a las características propias del IMUX. Además, se analizan minuciosamente por separado todos los efectos que tienen lugar en el dispositivo IMUX debido a la inserción de las celdas de control y de relleno, de acuerdo con la especificación IMA del ATM Forum.Finalmente se apuntan las líneas de trabajo futuro como son la incorporación de un esquema de cinco prioridades en el IMUX; el estudio y análisis de los efectos que produce el disponer de ancho de banda bajo demanda en las prestaciones que ofrece el IMUX que además está directamente relacionado con el estudio y análisis del comportamiento del IMUX bajo modelos de tráfico de entrada más realista. / The growing demand of network bandwidth users made indicates that user access to high speed (i.e. ATM) networks is a key issue. The Inverse Multiplexing for ATM (IMA) is a technology that combines multiple T1/E1 links to support the transparent transmission of ATM cells over one single logical data trunk which bandwidth is the aggregate of the T1/E1 capacities, minus a small amount due to overhead. That is, it provides high bandwidth by using already deployed WAN infrastructure and at a reasonable cost. Employing this technology, it is possible to dispose of ATM connections with data rates between the T1/E1 (an economical but sometimes too slow option) and T3/E3 ones (with high bandwidth, but expensive for the mass market of users). In this framework, and facing a new technology, it is crucial to have tools (analytical and simulation ones) easy to manipulate that help telecommunication engineers and network planners on the performance evaluation and dimensioning of these systems. In this paper, the fundamentals and major applications of IMA technology are described. Also, the behavior of IMA multiplexers is carefully analyzed and a method to dimension them proposed. An estimate for the Cell Loss Ratio (CLR) and the mean waiting time measured in the IMUX devices are obtained.In this thesis several analytical models are contributed to evaluate the benefits of a sufficiently generic ATM node and of an IMUX device. That allows computing the parameters of quality of service for its design: average waiting time of the cells in the device and cell loss probability. The purpose is to constitute an effective tool for the suitable design of the parameters that define the ATM node and particularly to the IMUX. In order to start with the analysis, firstly we have adapted the well-known queue systems to model a concrete ATM node and an inverse multiplexer for ATM. An analytical method has been contributed to approximate the parameters of quality of service of the queue systems. That is, we have applied a M/D/s/s+B queue with discreet-time service and a scheme of five levels of priority.The last analytical study is based on the comparison with a M/D/1 queue system. In addition, all the effects that take place in IMUX device are analyzed meticulously separately. They are due to the insertion of the control cells and filler cells, in agreement with the IMA specification of the ATM Forum.Even though, we are aware of the weakness of our assumptions, especially concerning to the Poisson input traffic, the model is compact, easy to understand and to manipulate, therefore it can be valuable to validate simulation models developed to evaluate IMUX devices under more realistic input traffic patterns. Finally, the lines of future work are scored: the incorporation of a five priorities scheme in the IMUX; the study and analysis of the effects of having bandwidth under demand as a benefits that the IMUX offers; the study and analysis of the IMUX behavior under more realistic traffic models.
27

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).
28

Modeling TCP/IP software implementation performance and its application for software routers

Lepe Aldama, Oscar Iván 03 December 2002 (has links)
Existen numerosos trabajos que estudian o tratan la realización software de los protocolos de comunicaciones para el acceso a la Internet-TCP/IP. Sin embargo, no conocemos ninguno que modele de forma general y precisa la ejecución de este software.La presente tesis aporta una caracterización detallada de la ejecución de la realización software de los mencionados protocolos sobre un computador personal y bajo un sistema operativo UNIX. Esta caracterización muestra cómo varía el rendimiento del sistema en función de la velocidad de operación de la CPU, las características del subsistema de memoria, el tamaño de los paquetes y otras variables de importancia para la remisión, autenticación y cifrado de paquetes IP.En otros trabajos se proponen adecuaciones o extensiones a la realización software de los mencionados protocolos que permiten que un software router provea de comunicaciones con diversos niveles asegurados de calidad mediante el uso de mecanismos de planificación para la unidad central de procesamiento. Sin embargo, en dichos trabajos no se contempla la planificación del uso del bus de entrada/salida. Los resultados derivados de nuestro modelo demuestran que, para sistemas que usan CPUs con frecuencias de reloj superiores a 1 GHz, la planificación conjunta de la CPU y el bus de entrada salida es indispensable para la provisión de comunicaciones con diversos niveles asegurados de calidad. Dichas frecuencias de reloj son comunes en los sistemas comerciales actuales, por lo que consideramos que es un problema de gran interés. En la tesis proponemos un mecanismo que consigue garantías de utilización del bus de entrada/salida mediante la modificación de los drivers de los interfaces de red. / Three are the main contributions of this work. In no particular order:" A detailed performance study of the software implementation of the TCP/IP protocols suite, when executed as part of the kernel of a BSD operating system over generic PC hardware." A validated queuing network model of the studied system, solved by computer simulation." An I/O bus utilization guard mechanism for improving the performance of software routers supporting QoS mechanisms and built upon PC hardware and software.This document presents our experiences building a performance model of a PC-based software router. The resulting model is an open multiclass priority network of queues that we solved by simulation. While the model is not particularly novel from the system modeling point of view, in our opinion, it is an interesting result to show that such a model can estimate, with high accuracy, not just average performance-numbers but the complete probability distribution function of packet latency, allowing performance analysis at several levels of detail. The validity and accuracy of the multiclass model has been established by contrasting its packet latency predictions in both, time and probability spaces. Moreover, we introduced into the validation analysis the predictions of a router's single queue model. We did this for quantitatively assessing the advantages of the more complex multiclass model with respect to the simpler and widely used but not so accurate, as here shown, single queue model, under the considered scenario that the router's CPU is the system bottleneck and not the communications links. The single queue model was also solved by simulation.Besides, this document addresses the problem of resource sharing in PC-based software routers supporting QoS mechanisms. Others have put forward solutions that are focused on suitably distributing the workload of the CPU-see this chapter's section on "related work". However, the increase in CPU speed in relation to that of the I/O bus-as here shown-means attention must be paid to the effect the limitations imposed by this bus on the system's overall performance. We propose a mechanism that jointly controls both I/O bus and CPU operation. This mechanism involves changes to the operating system kernel code and assumes the existence of certain network interface card's functions, although it does not require changes to the PC hardware. A performance study is shown that provides insight into the problem and helps to evaluate both the effectiveness of our approach, and several software router design trade-offs.
29

Automatic data distribution for massively parallel processors

García Almiñana, Jordi 16 April 1997 (has links)
Massively Parallel Processor systems provide the required computational power to solve most large scale High Performance Computing applications. Machines with physically distributed memory allow a cost-effective way to achieve this performance, however, these systems are very diffcult to program and tune. In a distributed-memory organization each processor has direct access to its local memory, and indirect access to the remote memories of other processors. But the cost of accessing a local memory location can be more than one order of magnitude faster than accessing a remote memory location. In these systems, the choice of a good data distribution strategy can dramatically improve performance, although different parts of the data distribution problem have been proved to be NP-complete.The selection of an optimal data placement depends on the program structure, the program's data sizes, the compiler capabilities, and some characteristics of the target machine. In addition, there is often a trade-off between minimizing interprocessor data movement and load balancing on processors. Automatic data distribution tools can assist the programmer in the selection of a good data layout strategy. These use to be source-to-source tools which annotate the original program with data distribution directives.Crucial aspects such as data movement, parallelism, and load balance have to be taken into consideration in a unified way to efficiently solve the data distribution problem.In this thesis a framework for automatic data distribution is presented, in the context of a parallelizing environment for massive parallel processor (MPP) systems. The applications considered for parallelization are usually regular problems, in which data structures are dense arrays. The data mapping strategy generated is optimal for a given problem size and target MPP architecture, according to our current cost and compilation model.A single data structure, named Communication-Parallelism Graph (CPG), that holds symbolic information related to data movement and parallelism inherent in the whole program, is the core of our approach. This data structure allows the estimation of the data movement and parallelism effects of any data distribution strategy supported by our model. Assuming that some program characteristics have been obtained by profiling and that some specific target machine features have been provided, the symbolic information included in the CPG can be replaced by constant values expressed in seconds representing data movement time overhead and saving time due to parallelization. The CPG is then used to model a minimal path problem which is solved by a general purpose linear 0-1 integer programming solver. Linear programming techniques guarantees that the solution provided is optimal, and it is highly effcient to solve this kind of problems.The data mapping capabilities provided by the tool includes alignment of the arrays, one or two-dimensional distribution with BLOCK or CYCLIC fashion, a set of remapping actions to be performed between phases if profitable, plus the parallelization strategy associated. The effects of control flow statements between phases are taken into account in order to improve the accuracy of the model. The novelty of the approach resides in handling all stages of the data distribution problem, that traditionally have been treated in several independent phases, in a single step, and providing an optimal solution according to our model.
30

A There Dimensional Setting for Strong Discontinuities Modelling in Failure Mechanics

Vieira Chaves, Eduardo Walter 01 April 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar. Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes. Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica. En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. El presente trabajo trata sobre la simulación de la localización de deformaciones en sólidos mediante el método de las discontinuidades fuertes (Strong Discontinuity Approach). Las principales hipótesis de trabajo son la de régimen cuasiestático isotérmico, la de pequeñas deformaciones y rotaciones, y la de homogeneidad e isotropía del material.Esta teoría se desarrolla en el ámbito de la Mecánica de Medios Continuos. En lo referente a la modelización constitutiva, se adopta un modelo de daño isótropo y sus variantes, los cuales pueden utilizarse en la simulación de materiales cuasifrágiles como el hormigón, los cerámicos, las rocas y el hielo.Se presentan los ingredientes básicos de la formulación de elementos finitos con discontinuidades internas en tres dimensiones, además de los ingredientes para la transición del régimen de discontinuidades débiles al de discontinuidades fuertes (modelo de ancho de banda variable).Por otra parte, se realiza un detallado análisis de bifurcación material, el cual nos proporciona la información necesaria para la propagación de discontinuidades.Finalmente, se proponen dos posibles algoritmos de trazado de la discontinuidad.Varios ejemplos numéricos demuestran la eficiencia del método. Además, su concordancia con resultados experimentales se pone de relieve. Este trabajo proporciona las herramientas necesarias para la extensión del método al estudio de ejemplos más complejos que requieren, a su vez, modelos constitutivos más complejos.

Page generated in 0.501 seconds