• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 15
  • 5
  • 5
  • 4
  • Tagged with
  • 61
  • 44
  • 34
  • 33
  • 16
  • 16
  • 13
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Contributions to the continuum modelling of strong discontinuities in two-dimensional solids

Samaniego Alvarado, Esteban 28 March 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar.Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes.Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica.En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. A continuación, se analizan las implicaciones de adoptar la cinemática de discontinuidades fuertes en el contexto de la modelización constitutiva de medios continuos mediante el análisis de discontinuidades fuertes. Establecidas estas herramientas conceptuales, se procede a estudiar una serie de formulaciones de elementos finitos con discontinuidades internas que posibiliten la simulación numérica eficiente de la evolución de interfaces de discontinuidad en sólidos.El marco de trabajo escogido se basa en el planteamiento de las ecuaciones de gobierno del problema de valores de contorno mediante una formulación de varios campos. A partir de un análisis comparativo, se determina que el elemento más eficiente es el conocido como elemento asimétrico. Su uso implica la utilización de algoritmos de trazado del camino de la discontinuidad. Luego de estudiar este tipo de algoritmos, se propone uno que, basado en una analogía con el problema de conducción del calor, permite determinar todos las posibles líneas de discontinuidad para cada paso en un proceso de carga. Este algoritmo es especialmente eficiente para gestionar la evolución de varias líneas de discontinuidad.Se estudian, además, algunos posibles problemas de estabilidad que podrían surgir. La adición de un término viscoso a la ecuación de equilibrio se adopta como solución a las posibles inestabilidades. Finalmente, se presenta una serie de ejemplos que ponen de manifiesto la potencia de las técnicas propuestas. / The study of Computational Failure Mechanics has attracted increasing attention over the past years. Modelling the postcritical behaviour of structures is by no means trivial, due to high level of complexity that it can reach . From the continuum mechanics point of view, failure is tightly related to strain localization. When bands with modes of intense deformation are observed in a solid, it is said to undergo strain localization. It has been classified as a material instability due to its close relationship with constitutive models either equipped with strain softening or having non-associative flow rules. From a phenomenological standpoint, strain localization can be regarded as an interface where a jump in the displacement field develops. These jumps in the displacement field are termed strong discontinuities. In this work, several techniques that contribute to the continuum modelling of strong discontinuities in two-dimensional solids are proposed.To this end, a systematic review of the fundamentals of the study of failure in solids within the context of Classical Continuum Mechanics is made. First, the necessary conditions for the appearance of discontinuities in solids are established by using the socalled discontinuous bifurcation analysis. Then, the implications of adopting the strong discontinuity kinematics plus the use of continuum constitutive models are studied by means of the so-called strong discontinuity analysis. With these concepts on hand, the study of finite elements with embedded discontinuities is undertaken. A very general multi-field statement of the governing equations of the boundary value problem is used as the framework to formulate the different families of elements. The comparative analysis of all the formulations leads to the conclusion that the so-called non-symmetric element is the most efficient. However, the use of this element entails the necessity of a tracking algorithm. This kind of algorithms are also studied. A tracking algorithm based on a heat-conduction-like boundary value problem that gives all the possible discontinuity lines for a given time step in a loading process is proposed. This algorithm is specially suitable for managing multiple discontinuity interfaces. The problems of stability and uniqueness that can appear when simulating the evolution of discontinuity interfaces are analyzed and the addition of a regularizing damping term to the momentum balance equation was proposed. Finally, the proposed techniques were tested by means of some numerical examples.
22

Cooperación entre la aplicación y el kernel para la planificación de flujos, en sistemas multiprocesadores, como soporte al paralelismo

Gil Gómez, Maria Luisa 04 July 1994 (has links)
El objetivo de nuestro trabajo ha sido defender la tesis de que, para los entornos de trabajos actuales, multiprocesador, una opción válida para obtener el mejor rendimiento de las aplicaciones paralelas de propósito general es conseguir que el kernel y la propia aplicación cooperen en la gestión de los recursos.El estudio abarca a la aplicación en su conjunto, con todas sus partes, en cuya ejecución el sistema operativo toma una parte activa y decisoria. Y nos hemos centrado en aplicaciones paralelas multiflujo de granularidad media.Hemos diseñado y realizado un entorno de trabajo basándonos en la tecnología microker-nel en el que ofrecemos un nuevo sistema de planificación.A partir de políticas de planificación de particionado de la máquina, hemos aislado a las aplicaciones, unas de otras, y hemos habilitado que en cada partición el usuario pueda decidir qué política de planificación y qué quantums y recálculo de prioridades quiere. Con ello conseguimos, por un lado, que cada aplicación pueda ajustar la planificación que mejor rendimiento le suponga.Por otro, que no queden afectadas unas por el funcionamiento de otras.A partir de la abstracción de procesador virtual, dotamos a la aplicación de la capacidad de gestionar la planificación de sus propios flujos, mediante la nueva abstracción "contexto de eje-cución" (eXc) que el kernel ofrece a la aplicación para que pueda ejecutar un flujo en cada uno de los procesadores físicos que le ha asignado. En este nuevo entorno el kernel puede comunicar de manera asíncrona con la aplicación, transmitiéndole los eventos que puedan afectar a ésta para decidir una replanificación en sus flujos. En concreto, el bloqueo/desbloqueo de flujos, la asigna-ción/desasignación de procesadores físicos y un temporizador para poder disponer del dispositivo reloj a nivel de aplicación. Se han resuelto los problemas de desbanque de flujos dentro de exclusiones mutuas gracias a unas nuevas primitivas de sincronización que evitan el abrazo mortal.Con nuestra realización de paso de gestión de flujos del kernel a la aplicación, además de aumentar el throughput en un orden de magnitud, ganamos tiempo de ejecución para otros flujos de la aplicación.La plataforma de desarrollo ha sido un multiprocesador de memoria compartida sobre el que hemos modificado el microkernel Mach 3.0, con el entorno operativo OSF/1 MK y la librería de threads de usuario CThreads, modificada igualmente para enriquecer y potenciar la parte de planificación de flujos. / The goal of this thesis is to show that it is possible to achieve a better parallel application perfor-mance in multiprocessor operating environments when the kernel and the application cooperate in the resource management.The study includes the whole application, in addition to the components whose manage-ment is mainly supported by the operating system. The selected applications for study are medium grain parallelism applications (ie. servers, subsystems, virtual machines,...).Our work includes a design and implementation of an operating environment in the micro-kernel technology with a new scheduling approach.We have implemented space sharing scheduling policies to isolate applications insidemachine partitions; each partition has its own scheduling policy and the user can modify priorities, quantums and policies in his application partition. This approach allows each application to adjust and tune its own scheduling to achieve the better performance it would. Also it permits to protect applications from the other applications faults.We propose a new abstraction: the eXecution context (eXc) as the processor virtual object that allows the application to manage its threads. The eXc are offered by the kernel to the application to run threads in the physical processors that the kernel gives to the application.The kernel communicates to the application, in an asynchronous way, the events thatcould lead to a rescheduling of its threads. This events are: thread blocked/unblocked, physical processor allocated/deallocated and the clock, to have the possibility of timeouts at application level.New synchronization primitives prevent the deadlock problem when there may be a thread preemption in a mutex area.Our implementation overcomes throughput in one order of magnitude and also has a gain in the execution time for the other application threads.This work has been implemented in a shared memory multiprocessor. We have modified the Mach 3.0 microkernel, the OSF/1 MK operating environment and the CThreads library. This library has been also modified to offer more complete scheduling policies and synchronization mechanisms.
23

Speculative multithreaded processors

Marcuello Pascual, Pedro 22 July 2003 (has links)
En esta tesis se estudia el modelo de ejecución de los procesadores multithreaded especulativos así como los requisitos necesarios para su implementación. El modelo de ejecución se basa en la inserción de instrucciones de spawn dentro del código secuencial. De esta manera, la ejecución de un programa en estos procesadores es similar a cualquier otro hasta que se encuentra con un punto de spawn. Entonces, se crea un nuevo thread especulativo en el punto indicado por la instrucción de spawn y ambos threads se ejecutan en paralelo. Cuanto el thread creador llega al punto inicial del thread especulativo, se ha de verificar si la especulación ha sido correcta. En ese caso, el contexto del thread no especulativo se gradúa y se libera para uso futuro de más threads especulativos. En caso de que la verificación no haya sido correcta, se recupera el estado correcto. En este modelo de ejecución siempre hay un thread no especulativo y puede haber múltiples threads especulativos.Para soportar este modelo de ejecución, se necesita: i) hardware capaz de crear y gestionar threads especulativo y ii) un mecanismo de particionado para dividir los programas en threads especulativos. Se han estudiado varias plataformas para gestionar threads de forma concurrente. Por un lado, los procesadores clustered se benefician de menores retardos, menor potencia consumida y una menor complejidad aunque las latencias de comunicación sean mayores. Por otro lado, las arquitecturas centralizadas se benefician del hecho de compartir recursos y menor latencia de comunicación, pero la complejidad del hardware es mucho mayor. En cualquier caso, el hardware ha de ser capaz de ejecutar múltiples threads simultáneamente con el inconveniente de que algunos valores van a tener que compartirse mientras que otros son copias privadas. Es decir, el procesador deberá ser capaz de gestionar múltiples versiones de un mismo registro o posición de memoria para cada uno de los threads que se estén ejecutando.Además, se ha puesto especial énfasis en la gestión de las dependencias de datos entre los threads especulativos ya que tienen un impacto muy importante en el rendimiento del procesador. Encontrar threads independientes es casi imposible en aplicaciones irregulares, por tanto los threads especulativos necesitarán de valores producidos por otros threads especulativos. Se han estudiado dos mecanismos: sincronizar el thread productor y el thread consumidor y predecir los valores dependientes. En el primer caso, se han propuesto mecanismos para pasar el valor tan pronto como ha sido producido del productor al consumidor, especialmente en el caso de valores de memoria. Por otro lado, el segundo modelo es mucho más atrayente ya que si todos los valores dependientes fueran predichos de forma correcta, los threads pasarían a ejecutarse de forma independiente. Se han evaluado múltiples predictores de valores propuestos en la literatura y se ha presentado un nuevo predictor especialmente pensado para este tipo de arquitecturas que es el predictor de incremento. Este predictor usa la información de control de los threads especulativos para predecir los valores y los resultados obtenidos son muy prometedores aún con tamaños muy reducidos del predictor. Finalmente, el particionado de las aplicaciones afecta al rendimiento de este tipo de procesadores. Se han propuesto y evaluado varios esquemas de particionado. Una familia de estos esquemas asigna threads especulativos a construcciones de programa que por si solas proporcionan cierta independencia de control. Políticas de esta familia son aquellas que crean threads especulativos en iteraciones de bucles, continuaciones de bucles y continuaciones de subrutinas. La segunda familia de esquemas de particionadose ayuda de un análisis basado en profiling para encontrar las parejas de spawn más idóneas para cada uno de los códigos. De esta manera, aquellas partes del programa que cumplan las mejores características se seleccionan para crear threads especulativos. Algunos criterios de selección que han sido considerados en esta tesis han sido: la independencia de control, el tamaño mínimo de los threads, la independencia de datos y su predictabilidad. Los resultados obtenidos por ambas familias han sido muy significativos, aunque el esquema basado en técnicas de profile mejora los resultados obtenidos por la otra familia.
24

Traffic Management of the ABR. Service Category in ATM Networks

Cerdà Alabern, Llorenç 13 January 2000 (has links)
Data traffic has emerged as a big challenge for the standardization of traffic management mechanisms in ATM networks. In April 1996 the ATM Forum published the first version of the Available Bit Rate Service Category (ABR) to give support to this kind of traffic. ABR was designed with ambitious objectives: high network efficiency, fairness and inter-operability of different ABR switch mechanisms.The major part of this PhD Thesis has been devoted to ABR. Instead of focusing on one aspect of ABR, the main research topics involved in ABR have been covered, namely: (i) switching mechanisms, (ii) conformance definition, (iii) charging, (iv) ABR support to TCP traffic. In the following the main conclusions are summarized. Maybe, switch algorithms have been the most investigated topic of ABR. This has happened because the specification of ABR given by the ATM Forum allows a diversity of switch algorithms to be implemented. These range from the simplest binary switches to the more complex ER switches. In the PhD Thesis three of these switch algorithms are analyzed by means of simulation, showing the different degree of performance and complexity that can be achieved. The behavior of ER switches is also analyzed by means of real traces obtained with a commercial ER switch. The conformance definition is the formalism established to decide whether the source transmits according to the traffic contract. The conformance algorithm standardized for ABR is the Dynamic Generic Cell Rate Algorithm (DGCRA). The PhD Thesis gives a detailed description of the DGCRA. Furthermore, traces obtained by simulation are depicted showing that the algorithm given by the ATM Forum has a decreasing accuracy of the rate conformance with increasing feedback delay. A "UPC based on the CCR" is proposed to solve this drawback. The parameter dimensioning of the DGCRA is addressed in the PhD Thesis by means of two analytical approaches. Numerical results calculated with the analytical models are also obtained by simulation for validation. The analytical approaches are based on a novel queuing model of the DGCRA. The first analytical approach is based on a renewal assumption of the cell inter-arrival process at the UPC. This approach gives a simple but coarse approximation of the cell rejection probability at the UPC. The second analytical method consists of a Markov chain that accurately describes the stochastic variables involved in the queuing model of the DGCRA. The Markov chain is solved applying the matrix geometric technique. The complexity of this mathematical approach only allows investigating a simple network topology. However, the accuracy of the model allows taking into account the influence of the delay bounds that are negotiated with the DGCRA. This study shows that a major degradation of the cell rejection probability may be obtained if these delay bounds are not properly set. Another issue investigated in the PhD Thesis is the charging of ABR. Charging may have a decisive impact on the deployment, success and growth of a network. In fact, the research community has paid a great attention to this topic in recent years. Furthermore, pricing may be an essential condition for the users when submitting traffic. Some authors have used this fact to propose congestion control mechanisms based on a dynamic pricing. In such schemes, prices vary according to the demand of network resources by the sources. New prices are conveyed to the sources by means of a feedback mechanism. This charging scheme seems to fit well with ABR, since the RM-cells can be used to dynamically communicate the prices. In the PhD Thesis a dynamic pricing scheme is proposed and an analytical model is used to find out the evolution of the prices. Additionally, several charging schemes are confronted by simulation. This comparison shows that the dynamic pricing gives the best expected charging. Finally, the support of ABR to the traffic generated with the TCP protocol used in the Internet is investigated by simulation. Currently, the data communications are dominated by the Internet traffic transported by a variety of networks. The deployment of ATM technology has been located in the backbone networks and the end-to-end ATM systems appear remote. In fact, it is not clear whether the universal multi-service network will be built on the Internet rather than the B-ISDN. Simulations performed in the PhD Thesis confront the transport of TCP traffic in different scenarios using ABR and the simpler UBR Service Category. The main conclusion is that ABR can solve the severe fairness problems that can arise using UBR.
25

Power- and Performance - Aware Architectures

Canal Corretger, Ramon 14 June 2004 (has links)
The scaling of silicon technology has been ongoing for over forty years. We are on the way to commercializing devices having a minimum feature size of one-tenth of a micron. The push for miniaturization comes from the demand for higher functionality and higher performance at a lower cost. As a result, successively higher levels of integration have been driving up the power consumption of chips. Today, heat removal and power distribution are at the forefront of the problems faced by chip designers.In recent years portability has become important. Historically, portable applications were characterized by low throughput requirements such as for a wristwatch. This is no longer true.Among the new portable applications are hand-held multimedia terminals with video display and capture, audio reproduction and capture, voice recognition, and handwriting recognition capabilities. These capabilities call for a tremendous amount of computational capacity. This computational capacity has to be realized with very low power requirements in order for the battery to have a satisfactory life span. This thesis is an attempt to provide microarchitecture and compiler techniques for low-power chips with high-computational capacity.The first part of this work presents some schemes for reducing the complexity of the issue logic. The issue logic has become one of the main sources of energy consumption in recent years. The inherent associative look-up and the size of the structures (crucial for exploiting ILP), have led the issue logic to a significant energy budget. The techniques presented in this work eliminate or reduce the associative logic by determining producer-consumer relationships between the instructions or by scheduling the instructions according to the latency of the operations.An important effort has been deployed to reduce the energy requirements and the power dissipation through novel mechanisms based on value compression. As a result, the second part of this thesis introduces several ultra-low power and high-end processor designs. First, the design space for ultra-low power processors is explored. Several designs are developed (at the architectural level) from scratch that exploit value compression at all levels of the data-path. Second, value compression for high-performance processors is proposed and evaluated. At the end of this thesis, two compile-time techniques are presented that show how the compiler can help in reducing the energy consumption. By means of a static analysis of the program code or through profiling, the compiler is able to know the size of the operands involved in the computation. Through these analyses, the compiler is able to use narrower operations (i.e. a 64-bit addition can be converted to an 8-bit addition due to the information of the size of the operands).Overall, this thesis compromises the detailed study of one of the most power hungry units in a processor (the issue logic) and the use of value compression (through hardware and software) as a mean to reduce the energy consumption in all the stages of the pipeline.
26

Proveïment de QoS en xarxes de paquets òptiques per a entorns d'àrea metropolitana i de gran abast

Careglio, Davide 15 February 2005 (has links)
El gran crecimiento y expansión de Internet en los últimos años, con el consecuente incremento de usuarios y tráfico, ha hecho que aumente la necesidad de ancho de banda en las redes de telecomunicación actuales. El desafío de la futura generación de redes de telecomunicación punta a pasar de la simple transmisión de señales ópticas de gran capacidad a efectivamente conmutar y gestionar esta cantidad de datos en el domino óptico. Estas funcionalidades, actualmente realizadas por componentes eléctricos, son las que actualmente causan un cuello de botella en la escalabilidad y crecimiento de Internet. Por otro lado, se espera que las futuras redes transporten servicios heterogéneos que incluyen tanto transferencia de datos como transmisión de aplicaciones multimedia e interactivas. Cada servicio por lo tanto necesita un requerimiento y tratamiento particular (por ejemplo garantir un limite en el retraso extremo-extremo o en el ancho de banda). En este entorno, proporcionar calidad de servicio (Quality of Service, QoS) resulta ser un factor obligatorio. En este ámbito el objetivo de esta tesis es el desarrollo de nuevos mecanismos para proporcionar QoS en redes de conmutación de paquetes ópticos (Optical Packet Switching, OPS) tanto en entorno metropolitano como de área extendida. OPS pretende ser una solución a largo plazo en cuanto requiere conmutadores de alta velocidad y componentes ópticos avanzados como los conversores sintonizables de longitud de onda y regeneradores completamente ópticos. Por lo que concierne el entorno metropolitano, las redes son generalmente sin memoria, en el sentido que una vez transmitida la información a la red, esa se queda en el dominio óptico sin encontrar ninguna cola en el camino hasta alcanzar su destino. Para evitar contenciones, protocolos de acceso al medio compartido (Medium Access Control, MAC) son necesarios y pueden integrase con mecanismos para proporcionar QoS. De este concepto se pueden diseñar varias arquitecturas distintas. En esta tesis nos concentramos en dos arquitecturas basadas en topologías compuestas, llamadas respectivamente redes multi-PON y redes multi-anillos. Ambas han sido desarrolladas en el proyecto de investigación DAVID financiado por la Unión Europea dentro del quinto programa marco. Nuestras contribuciones abarcan varios aspectos. Antes de todos se han identificado los requerimientos de las futuras redes metropolitanas basadas en OPS, con particular atención en determinar los servicios necesarios de acuerdo con lo que se ha diseñado en la anterior generación eléctrica de redes metropolitanas. Luego para ambas redes se ha seguido el mismo procedimiento. La primera etapa ha sido la evaluación de prestaciones a través de simulaciones con el objetivo de identificar los puntos débiles. Se ha luego pasado a la fase de optimización tanto de la arquitectura de las redes como de los mecanismos que gobiernan su funcionamiento y se han verificado las mejoras. Finalmente se han propuesto mecanismos para proporcionar QoS según los requerimientos definidos anteriormente y se ha hecho un estudio de coste/prestaciones comparando las dos arquitecturas con otras actualmente en comercio como SDH, RPR y Ethernet.Por lo que concierne el entorno de área extendida, se ha considerado una red de conmutación de paquetes ópticos orientado a la conexión donde los nodos tienen limitadas capacidad de encolamiento. En este contexto, se han tratado dos problemáticas: el establecimiento de las conexiones virtuales ópticas (Optical Virtual Circuit, OVC) configurando propiamente las tablas de expedición (forwarding table) en los nodos y la provisión de QoS.Para el primer punto, a la llegada de una petición de establecimiento de una nueva OVC, cada nodo debe asignar un puerto y una longitud de onda de salida a esta OVC. Mientras la elección del puerto de salida depende de los algoritmos de routing, la elección de la longitud de onda se puede decidir localmente en cada nodo según diferente políticas llamadas OVC-to-wavelength setup assignment (OWSA). En esta parte de la tesis se ha estudiado en detalle este problema y se han propuesto diferentes estrategias. En particular se ha demostrado que una buena política de asignación de longitud de onda incrementa notablemente la prestación de un conmutador OPS. Se ha usado la idea de agrupar, siempre que se pueda, los flujos de tráfico que entran en el conmutador por el mismo puerto y misma longitud de onda de manera de disminuir lo máximo posible la probabilidad de convención entre paquetes. Por lo que concierne proporcionar QoS, el estado del arte indica que hasta el momento se ha siempre seguido la misma técnica basada en: 1) diseñar un algoritmo de resolución de contenciones que minimice la probabilidad de pérdidas de paquetes (Packet Loss Rate, PLR) y luego 2) aplicar un mecanismo de reserva de recursos capaz de diferenciar la PLR entre dos o mas clases de tráfico. Considerando que el entorno de estudio es orientado a la conexión, se ha propuesto un enfoque diferente basado en el esquema aplicado en redes ATM donde se definen diferentes categorías de servicio, cada una con su propio tratamiento dentro de la red. En particular se han definido 3 categorías de servicio para entorno OPS y se han desarrollado 3 algoritmos de resolución de contenciones, cada uno pensado para proporcionar el servicio requerido. Con esta técnica, además de controlar la PLR, también se pueden considerar el retraso y la complejidad computacional como métricas QoS.
27

Aportaciò a la detecció de simetries en imatges amb projecció ortogràfica

Marès Martí, Pere 11 June 2002 (has links)
El mètode de detecció de simetria local de reflexió que es presenta, pretén ser una aportació més a la recerca en visió per computador i la robòtica. Com és sabut haches camps d'aplicació impliquen considerar el temps de processament com un paràmetre bàsic. Així doncs, en aquesta tesi no ens conformem en obtenir un algorisme eficient de detecció de simetria si no que es planteja millorar el temps de processame nt a partir de l'obtenció de metodologies i algorismes que tinguin la qualitat de permetre una fácil implantació del processament en paral· lel així com de la implementació de processadors específics.El mètode de detecció de simetria es basa en les contribucions a la simetria de les parelles de segments rectilinis de la imatge. Aquesta aproximació permet una reducció considerable de la complexitat, de la mateixa manera que altres autors utilitzen reduccions basades en diferents agrupacions de punts de contorn, com ara segments d'arcs, b-splines etc. El mètode, així concebut, serà aplicable en imatges on les línies rectes siguin predominats com és el cas de construccions artificials i entorns estructurats.Tot i que l'anterior restricció és important, és adequada per al tipus d'aplicacions que hem exposat anteriorment i ens permet obtenir un mètode de detecció contributiu, a partir de l'acumulació de contribucions locals a la simetria de les parelles de segments rectilinis de la imatge. Es tracta doncs d'un mètode basat en un anàlisi local que mostra els avantatges d'aquesta aproximació mentre que pel fet de tractar-se d'un mètode contributiu millora els dos principals inconvenients de l'aproximació local, és a dir, la sensibilitat al soroll i la inestabilitat, la qual cosa representa una aportació a la superació del dilema "anàlisi local versus anàlisi global".El mètode es composa de quatre etapes:- Obtenció de la llista de segments rectilinis de la imatge- Obtenció dels segments de contribució a la simetria- Càlcul del mapa d'acumulació dels segments de contribució- Extracció d'eixos locals de simetriaUna característica que distingeix el mètode és que proporciona l'abast de la simetria, és a dir, la llargada dels eixos de simetria, precisant-ne els punts inicial i final. Per altra banda la característica contributiva del mètode proposat, ha permès detectar els eixos de simetria local amb una ponderació associada segons la seva importància. D'aquesta forma s'evita el processat d'alt nivell posterior per tal de determinar els eixos més significatius, necessari en la majoria de mètodes basat en l'aproximació local. Respecta la millora del temps de processat i donada la complexitat i extensió del problema de la detecció de simetria, s'ha fet un primer esforç en una de les etapes del mètode de més cost de computació. Concretament s'ha accelerat un procés que forma part del càlcul del mapa d'acumulació esmentat anteriorment, consistent en l'obtenció dels píxels que aproximen, en el pla discret, un segment rectilini especificat per els seus punts inicial i finals. Aquesta millora s'ha obtingut mitjançant un algorisme paral· lel que presenta com avantatges més rellevants: la simplicitat, eficiència i que permet un directa implementació d'un processador dedicat. Per l'altra banda, amb el mateix objectiu de millorar el temps de processament i en base a l'algorisme anterior, s'ha dissenyat un processador paral· lel dedicat que té la capacitat d'obtenir i emmagatzemar simultàniament, en una matriu de registres, el conjunt de píxels que aproximen, en el pla discret, un segment rectilini caracteritzat per els seus punts inicial i final. Una característica molt remarcable del processador és que obté i registra els píxels anteriors en un únic període de rellotge.Finalment per tal de conèixer el paràmetres referents a la seva viabilitat i prestacions, s'ha obtingut, mitjançant la simulació, una versió reduïda amb tecnologia d'alta escala d'integració VLSI en un únic circuit. El disseny obtingut ha mostrat la capacitat de processar17,2 Mega Segments/seg, en el pitjor del casos, mentre que en les condicions més favorables es capaç de processar 57,3 Mega segments/segon. / The method of reflection local symmetry detection presented aims to be a new approach to the research in vision computer and robotics. As we know them, these fields of application imply to consider the processing time as a basic parameter. In this way, in this thesis we shall obtain an efficient algorithm for symmetry detection and, moreover, we will try to improve the processing time with methodologies and algorithms that will be able to embed easily in parallel architectures and the implementation of specific processors.The symmetry detection method is based in symmetry contributions from the straight segments in the image. This approximation permits a considerable reduction in the complexity in the same way that other authors use reductions based in different grouping of contour points, such as arcs, b-splines, etc. The method conceived like this will be applicable in images where straight lines are predominant like in the case of artificial buildings and structured environments.Although the above restriction is important, it is suitable for all kinds of applications that we have exposed previously and it allows us to obtain a contributive detection method from the accumulation of local contribution of symmetry in pairs of straight segments in the image. Thus, it is a method based in the local analysis that shows the advantages of this approach while it improves the two main disadvantages of local approximation because it is a contributive method. These drawbacks are the sensibility to noise and instability which represent a novel approach to the overcoming of the "local analysis versus global analysis" dilemma.Four steps compose the method: - To obtain the straight segments list in the image- To obtain the symmetry contribution segments- To calculate an accumulation map of contribution segments- To extract the local symmetry axes.A distinctive feature is that the method yields the symmetry range, that is, the length of symmetry axes, with precise position of initial and final points.On the other hand, the contributive feature of the proposed method has allowed us to detect the local symmetry axes with an associated weight to their importance. That avoids the posterior high level processing in order to determine the more significative axes needed in most of the approaches based in local approximation. With respect to the improvement of processing time, and given the complexity and extension of the symmetry detection problem, an initial effort has been made in one of the stages of higher computational cost in the method. Specifically, a process in the calculation of the accumulation map has been accelerated, consistently in the achieving of pixels that form, in the discrete plane, a straight segment specified for its initial and final points. This improvement has been obtained with a parallel algorithm that presents more relevant advantages: simplicity, efficiency and it allows a direct implementation with a dedicated processor.Furthermore, with the same objective of processing time improvement and in basis to the above algorithm, a dedicated parallel processor has been designed with the capability to obtain and store simultaneously, in an array of registers, the set of pixels that approximate, in the discrete plane, a straight segment characterised by its initial and final points. A very remarkable feature of the processor is to obtain and store those pixels in a unique clock period.Finally, in order to know the parameters concerning its viability and performance, a simulated reduced version with VLSI (very large scale integration) technology in a unique circuit has been achieved. The obtained design has shown the capability of processing 17.2 million segments per second in the worst case, while in the most favourable conditions it is able to process up to 57.3 million segments per second.
28

Estudi de pautes de comportament en la supervisió de processos

Ponsa Asensio, Pere 05 February 2003 (has links)
L'objectiu bàsic és la recerca de patrons de conducta que permetin la construcció d'una traça de comportament. En aquest treball, la supervisió s'interpreta com una cadena particular de patrons de conducta portada a terme per la persona. Conceptualitzar la supervisió en forma de patrons (estats estables) enlloc d'accions sobre els dispositius físics de control (transicions), permet un tractament de la planificació enlloc de les manipulacions. Interessa remarcar aquelles cadenes de patrons que signifiquen un bon seguiment de la consigna en l'activitat proposada. L'extracció de patrons i pautes de comportament - cadenes rellevants de patrons de conducta -, enriqueix el coneixement que es te de la supervisió i permet afrontar el repte de l'estudi de la conducta humana i l'assessorament artificial en la presa de decisió. Una primera aproximació consisteix en encabir els patrons en una llibreria de controladors, generant-se una traça automàtica. Una segona aproximació consisteix en l'apropament de tècniques de raonament qualitatiu per afrontar la comparació del raonament entre persona i agent artificial en situacions d'alarma. El comportament de les persones a estudi i el model presentat permet, finalment, la creació d'indicadors per l'estudi del rendiment en supervisió de processos. Aquest enfocament destaca enfront a altres mètodes tradicionals que promouen l'estudi de rendiment en funció única de l'execució portada a terme per la persona. / In dynamic process supervision it is important to exhibit the different human operator behaviour patterns when performed a specified task. This work presents a method based on a micro-world environment to, first, outline the concepts underlying the different human operator strategies, and second, encapsulate them in a library of artificial agents. These artificial agents are then used as indicators to which human operator behaviours can be compared to assess the reasoning strategy. In this work, process supervision is examined from the point of view of human operator behaviour, which develops along a perception-reasoning-action cycle. The operator behaviours could be studied, in each particular case, (specific control room, production plant) following a field study. However, the use of micro-world presents flexibility and reproducibility, while preserving good relevancy from the industrial realism point of view. This work presents a method based on the micro-world MOREC, Micro-món per Recerca en Enginyeria del Coneixement, catalan version, which translate as Micro-world for Knowledge Engineering Research, which it is inspired from (Pastor et al. 1998)
29

Diseño conceptual de productos asistido por ordenador : Un estudio analítico sobre aplicaciones y definición de la estructura básica de un nuevo programa

Chaur Bernal, Jairo 03 June 2005 (has links)
El tema de la investigación es «la creatividad en la fase conceptual del diseño de productos» y se orienta a la aplicación del ordenador como herramienta de asistencia al ingeniero de diseño. De las tres fases del proceso de diseño de productos (definición del problema, generación de conceptos y desarrollo de la mejor alternativa), es en la segunda, conocida como «síntesis», donde se da la máxima expresión de creatividad. La hipótesis de partida afirma la posibilidad de asistir al ingeniero de diseño en esa etapa, mediante el uso de «software creativo» (que implementa técnicas, metodologías y herramientas de creatividad). El objetivo principal de esta tesis es obtener la estructura de tal tipo de software, partiendo de la identificación de características adecuadas, mediante un estudio experimental detallado, previa definición de un modelo objetivo de valoración. Diseño se entiende aquí como el conjunto de actividades que conduce al desarrollo de una idea de producto. Mientras que la creatividad técnica es aquella que produce dos resultados complementarios: novedad y utilidad. La revisión de las tendencias que siguen los productores de software CAD/CAM/CAE, indican que la fase del análisis, que caracteriza al diseño de detalle, sigue siendo privilegiada con respecto a la fase de diseño conceptual. Del software creativo genérico ofrecido actualmente, se hace una selección de cuatro programas representativos que desarrollan metodologías como las de brainstorming, sinéctica, mapas mentales y TRIZ. Los modelos de medición de la creatividad se aplican a la persona, el proceso o el producto. Se seleccionó el test CREA para el primer caso. Para los otros, se realizó una adaptación de la propuesta de Shah (2003), que, junto con aportes propios, condujo a la definición del modelo de valoración de la creatividad de ideas generadas durante el proceso de diseño, con cuatro índices: flexibilidad, fluidez, elaboración y originalidad. Tal modelo facilitó la comparación gráfica y cuantitativa de las variables: tiempos por actividad y por módulo de software, cantidad total, flujo y origen de ideas, índices de creatividad y trayectoria creativa. El factor de diseño experimental fue el tipo de software, con cinco niveles: cuatro programas y un testigo. Se realizaron cuatro repeticiones y el método utilizado fue el estudio de protocolo modificado para obtener la información de cuatro fuentes: vídeo, dibujos, archivo generado y secuencia de uso del software.Los resultados obtenidos y su respectivo análisis permitieron identificar características relevantes de cada programa, herramientas efectivas y configuraciones más aceptadas por los diseñadores. En general, se puede afirmar que el software creativo sí propicia la generación de ideas mediante asociaciones, transformaciones o exploraciones. Con la identificación de estas características, se desarrolló la propuesta de estructura del nuevo software, presentada en forma de maqueta. Se sustenta, en el modelo FBS (Function-Behaviour-Structure) para construir el proceso evolutivo del diseño, centrado en la «función» con sus tres roles: modelación de requerimientos, articulación entre estos y el objeto, e instrumento de evaluación del valor del objeto. Se tiene en cuenta la forma de representación del modelo de evolución funcional de Takeda (1996), con un cuerpo de función, modificadores funcionales y estructuras de solución; y el estímulo al desarrollo cíclico de etapas divergentes y convergentes (Liu et. al., 2003). La propuesta articula dos tipos de herramientas. En el primero se incluye las técnicas de creatividad identificadas como las más eficientes. En el segundo están las bases de datos que sirven de extensión a la memoria del diseñador, de manera que disponga siempre de fuentes adecuadas para traducir o procesar las ideas generadas con las técnicas de creatividad, convirtiéndolas en ideas útiles para solucionar el problema de diseño. / The subject of this investigation is the creativity in the conceptual phase of the product design and it is oriented to the application of the computer as aid tool to design engineers. The three phases of the product design process are: problem definition, concepts generation, and development of the best alternative. It is in the second of them, known as "synthesis", where the highest creativity expression occurs. The main hypothesis is the affirmation of the possibility of aiding the design engineers in conceptual stage by the use of "creative software" (that implements technical, methodologies and tools of creativity). The aim of this thesis is to obtain the structure of such software by means of the definition of an objective evaluation model and then, by a detailed experimental study. Design is understood as the set of activities that leads to the development of a product idea. Whereas the technical creativity produces two complementary results: newness and utility. The tendencies that follow by the CAD/CAM/CAE producers, indicates that the phase of the analysis (that characterizes to the detail design), continues being privileged with respect to the conceptual design phase. Four representative programs were selected of the actual generic creative software; they develop techniques as brainstorming, synectis, mind maps and TRIZ. The evaluation of creativity can be approached from three different points of view: the qualification of the individual (the psychological viewpoint), the process of product design (the process viewpoint) and the product designed (the product viewpoint).The "CREA" test was selected for the individual creativity evaluation. For the others viewpoints, an adaptation of the proposals of Shah & Vargas (2003) was made, that lead to the definition of the evaluation model for creativity of ideas generated during the design process, with four indices: flexibility, fluidity, elaboration and originality. Such model facilitated the graphical and quantitative comparison of variables: times by activity and software module; total amount, flow and origin of ideas; indices of creativity and creative trajectory. The factor of experimental design was the type of software, with five levels: four programs and a witness. Four repetitions were made and the used method was the study of protocol, modified to obtain the data of four sources: video, drawings, generated file and sequence of use of software. The results and their respective analysis allowed to identify the best characteristics of each program, effective tools and configurations more accepted by the designers. In general, it is possible to be affirmed that creative software is useful for generation of ideas by means of associations, transformations or explorations. With the identification of these characteristics, the mock-up of the new software structure is presented. It is sustained, in the FBS model (Function-Behaviour-Structure), to construct the evolutionary process of the design, where the function plays its three roles: modelling of requirements, fit between these and the object, and instrument for object evaluation. The representation form of the Takeda's (1996) functional evolution was considered, with a function body, functional modifiers and structures of solution; and the stimulus to the cyclical development of divergent and convergent stages (Liu et al., 2003). The proposal articulates two types of tools. In first one includes the most efficient techniques of creativity identified in the experimental study. In the second, there are the data bases, useful as extension to the designer memory, so that he or she, always has suitable sources to translate or to process the ideas generated with the creativity techniques, turning them useful ideas to solve the design problem.
30

Contribución al modelado y caracterización de nodos en redes de banda ancha. Aplicación al multiplexor inverso ATM.

Aguilar Igartua, Mónica 21 January 2000 (has links)
El acceso a las redes ATM y el dimensionado de sus recursos son cuestiones clave ya que cada vez hay una mayor demanda de ancho de banda por parte de los usuarios. Sin embargo, se necesitan alternativas económicamente viables. La multiplexación inversa ATM es una técnica con la que se combinan varios enlaces T1/E1 resultando en un único canal lógico de datos con tasa igual al agregado de los anchos de banda T1/E1 menos una pequeña cantidad debida a overhead de control. Resulta de gran interés caracterizar mediante expresiones fácilmente manejables el comportamiento de los nodos de una red de banda ancha en cuanto a los parámetros principales de calidad de servicio ATM. En esta tesis se aportan varios modelos analíticos para evaluar las prestaciones de un conmutador ATM suficientemente genérico y del dispositivo IMUX que permite estimar de manera ajustada los parámetros de calidad de servicio más relevantes para su diseño: tiempo medio de espera de las celdas en el dispositivo y probabilidad de pérdida de las mismas. La finalidad es constituir una herramienta efectiva para el diseño adecuado de los parámetros que definen al nodo ATM y particularmente al IMUX dada su mayor tratabilidad analítica.Para abordar el análisis, en primer lugar se han estudiado sistemas de colas conocidos y en particular se ha aportado un método analítico para aproximar los parámetros de calidad de servicio del sistema de colas más adecuado para modelar un nodo ATM y en concreto un multiplexor inverso ATM. Esto es, cola M/D/s/s+B con tiempo de servicio discreto y un esquema de cinco niveles de prioridad. Por otro lado, se modifica la semi-cadena de Markov para el sistema M/D/1 adaptándola a las características propias del IMUX. Además, se analizan minuciosamente por separado todos los efectos que tienen lugar en el dispositivo IMUX debido a la inserción de las celdas de control y de relleno, de acuerdo con la especificación IMA del ATM Forum.Finalmente se apuntan las líneas de trabajo futuro como son la incorporación de un esquema de cinco prioridades en el IMUX; el estudio y análisis de los efectos que produce el disponer de ancho de banda bajo demanda en las prestaciones que ofrece el IMUX que además está directamente relacionado con el estudio y análisis del comportamiento del IMUX bajo modelos de tráfico de entrada más realista. / The growing demand of network bandwidth users made indicates that user access to high speed (i.e. ATM) networks is a key issue. The Inverse Multiplexing for ATM (IMA) is a technology that combines multiple T1/E1 links to support the transparent transmission of ATM cells over one single logical data trunk which bandwidth is the aggregate of the T1/E1 capacities, minus a small amount due to overhead. That is, it provides high bandwidth by using already deployed WAN infrastructure and at a reasonable cost. Employing this technology, it is possible to dispose of ATM connections with data rates between the T1/E1 (an economical but sometimes too slow option) and T3/E3 ones (with high bandwidth, but expensive for the mass market of users). In this framework, and facing a new technology, it is crucial to have tools (analytical and simulation ones) easy to manipulate that help telecommunication engineers and network planners on the performance evaluation and dimensioning of these systems. In this paper, the fundamentals and major applications of IMA technology are described. Also, the behavior of IMA multiplexers is carefully analyzed and a method to dimension them proposed. An estimate for the Cell Loss Ratio (CLR) and the mean waiting time measured in the IMUX devices are obtained.In this thesis several analytical models are contributed to evaluate the benefits of a sufficiently generic ATM node and of an IMUX device. That allows computing the parameters of quality of service for its design: average waiting time of the cells in the device and cell loss probability. The purpose is to constitute an effective tool for the suitable design of the parameters that define the ATM node and particularly to the IMUX. In order to start with the analysis, firstly we have adapted the well-known queue systems to model a concrete ATM node and an inverse multiplexer for ATM. An analytical method has been contributed to approximate the parameters of quality of service of the queue systems. That is, we have applied a M/D/s/s+B queue with discreet-time service and a scheme of five levels of priority.The last analytical study is based on the comparison with a M/D/1 queue system. In addition, all the effects that take place in IMUX device are analyzed meticulously separately. They are due to the insertion of the control cells and filler cells, in agreement with the IMA specification of the ATM Forum.Even though, we are aware of the weakness of our assumptions, especially concerning to the Poisson input traffic, the model is compact, easy to understand and to manipulate, therefore it can be valuable to validate simulation models developed to evaluate IMUX devices under more realistic input traffic patterns. Finally, the lines of future work are scored: the incorporation of a five priorities scheme in the IMUX; the study and analysis of the effects of having bandwidth under demand as a benefits that the IMUX offers; the study and analysis of the IMUX behavior under more realistic traffic models.

Page generated in 0.0449 seconds