• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 141
  • 97
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 466
  • 204
  • 203
  • 178
  • 162
  • 160
  • 133
  • 131
  • 131
  • 131
  • 131
  • 131
  • 128
  • 81
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
151

Modelos para comercio electrónico basados en sistemas intermediarios

Gallego Fernández, M. Isabel (María Isabel) 16 July 2001 (has links)
El objetivo de la tesis "Modelos para Comercio Electrónico basados en Sistemas Intermediarios" es el estudio, desarrollo y aplicación de una serie de modelos para sistemas de comercio electrónico abiertos que utilicen un intermediario electrónico y que contemplen todos los aspectos relacionados con la comercialización mediante medios electrónicos, de cualquier tipo de bienes.La primera parte presenta el estado del arte del comercio electrónico centrado en el análisis de las propuestas internacionales existentes en la actualidad para caracterizar un sistema abierto de comercio electrónico mediante modelos. En la segunda parte se describen las aportaciones de la tesis relacionadas con el desarrollo de una serie de modelos que sirvan para caracterizar los sistemas de comercio electrónico, especialmente los basados en intermediarios electrónicos. La tercera parte contiene las conclusiones de la tesis, las líneas de investigación abiertas y las referencias bibliográficas.En la primera parte correspondiente al estado del arte, se describen los siguientes modelos para sistemas de comercio electrónico desarrollados por diferentes iniciativas internacionales como son, EBES Buildings Blocks for Electronic Commerce, EWOS Technical Guide on Electronic Commerce, ECDTF-OMG/CommerceNet Joint Electronic Commerce Reference Model, eCo Framework (CommerceNet), IOTP (Internet Open Trading Protocol), OBI (Open Buying on the Internet), JEPI (Joint Electronic Payment Initiative) y SET (Secure Electronic Transaction). También se describen algunos proyectos europeos relacionados con el comercio electrónico y en especial aquellos basados en sistemas intermediarios, como son los proyectos ABS (An Architecture for Information Brokerage Services), ABROSE (Agent Based Brokerage Services in Electronic Commerce), COBRA (Common Brokerage Architecture), GAIA (Generic Architecture for Information Availability), OSM (An Open Service Model for Global Information) y SEMPER (A Security Framework for the Global Electronic Marketplace). Finalmente se describen algunos modelos existentes para sistemas electrónicos de gestión de derechos de la propiedad intelectual (IPR) de contenidos multimedia como los modelos de los proyectos europeos IMPRIMATUR, FILIGRANE y COPEARMS. En la segunda parte se desarrollan las principales contribuciones del trabajo de tesis. La primera contribución consiste en la caracterización de los sistemas de comercio electrónico en función de las actividades comerciales y los valores asociados. Se introducen también los conceptos de provisión de productos a medida y de servicios como una evolución de la clásica provisión de productosUna de las principales contribuciones de la tesis que consiste en caracterizar un sistema de comercio electrónico mediante un modelo jerárquico compuesto por tres niveles, modelo funcional, modelo operacional y modelo arquitectónico. Cada uno de estos niveles corresponde a una visión del sistema, desde la visión más general que corresponde al modelo funcional o de negocio, hasta el nivel de detalle relacionado con la implementación, que es el modelo arquitectónico, pasando por el nivel en el que se identifican las tareas necesarias en el sistema, que es el modelo operacional.Con el modelo funcional podemos identificar las entidades que intervienen en el modelo de negocio del sistema, cual es su rol y las relaciones entre ellas. La mayoría de modelos que hemos estudiado en el estado del arte se concentran en este tipo de modelo funcional que, aun siendo muy útil para abordar las primeras etapas de la caracterización del sistema, es claramente insuficiente para poder avanzar y acercarnos a niveles más próximos al diseño del sistema. De ahí la necesidad de introducir más niveles en la jerarquía de modelos.El modelo operacional permite identificar una serie de fases necesarias para llevar a cabo la actividad comercial. La mayor parte de los modelos analizados en el estado del arte sólo contemplan como fase final la de "acuerdo", que únicamente permite resolver el caso de la provisión de productos predefinidos o preexistentes. Una contribución de la tesis relacionada con el modelo operacional es la inclusión de una nueva fase de "postacuerdo" para aquellos sistemas de comercio electrónico en los que los bienes comercializados requieran un seguimiento posterior al acuerdo hasta la entrega final del producto elaborado a medida o del servicio encargado. Con la inclusión de la fase de postacuerdo podemos resolver la provisión de ambos tipos de bienes, es decir, productos a medida o servicios.Finalmente, el nivel de la jerarquía más relacionado con la tecnología es el modelo arquitectónico, con el que podemos identificar los módulos necesarios para implementar las operaciones que hemos descrito en el modelo operacional en función del tipo de sistema de que se trate. Cada uno de estos módulos arquitectónicos se implementarán en cada momento con la tecnología disponible más adecuada, de esta forma nuestra propuesta de modelos para sistemas de comercio electrónico no está ligada al estado de la tecnología en un momento determinado.Otra de las contribuciones de la tesis que consiste en una clasificación de los sistemas de comercio electrónico realizada en función del tipo de bienes que comercializa y que además nos da una idea de su complejidad. Mediante la clasificación hemos podido relacionar todas las aportaciones de la tesis descritas anteriormente, como son la identificación de las actividades comerciales, el modelo funcional y el modelo operacional. La clasificación consta de tres niveles, sistemas de comercio electrónico de productos (Nivel 1), sistemas de comercio electrónico de productos a medida (Nivel 2) y sistemas de comercio electrónico de servicios (Nivel 3).Con el objetivo de validar las aportaciones de la tesis descritas anteriormente, se han utilizado los modelos en la especificación y diseño de sistemas reales. Se describen dos casos reales en los que se ha podido validar la jerarquía de modelos propuesta en la tesis, se trata de dos proyectos europeos del programa ACTS, el proyecto MULTIMEDIATOR y el proyecto TRADE.Finalmente, describe un problema de los sistemas de comercio electrónico basados en intermediarios de mucho interés en la actualidad, como es la problemática asociada a la comercialización a través de la red de material sometido a derechos de autor y se hacen algunas propuestas de cómo abordar su solución. En este tipo de sistemas, el intermediario electrónico puede ser, por una parte, el elemento en el que compradores y vendedores depositen la confianza, pero también por otra parte, puede residir en el intermediario la responsabilidad de la comercialización y posterior seguimiento del cumplimiento de los acuerdos suscritos en el momento de la compra. Se hace una propuesta de un sistema, y una arquitectura asociada, para la negociación de las condiciones de comercialización de material sujeto a copyright (protocolo de negociación del IPR), la materialización del acuerdo negociado en un contrato electrónico específico para IPR y también mecanismos para el seguimiento de su cumplimiento. / The objective of the Ph. D. Thesis "Electronic Commerce Models based on Brokerage Systems" is the study, development and application of a series of models for open electronic commerce (e-commerce, in short) systems using a broker and considering all aspects related with the commercialisation, by electronic means, of any kind of goods.The first part presents the state-of-the-art of e-commerce, focussing on the analysis of the current international proposals for the characterisation of an open e-commerce system through models. The second part describes the contributions of the Thesis related to the development of a series of models to characterise e-commerce systems, mainly those based on electronic brokers. The third part contains the conclusions of the Thesis, the open research lines, and the bibliographic references.With respect to the state-of-the-art, the following models for e-commerce systems, developed by different international initiatives, are described: EBES Buildings Blocks for Electronic Commerce, EWOS Technical Guide on Electronic Commerce, ECDTF-OMG/CommerceNet Joint Electronic Commerce Reference Model, eCo Framework (CommerceNet), IOTP (Internet Open Trading Protocol), OBI (Open Buying on the Internet), JEPI (Joint Electronic Payment Initiative) and SET (Secure Electronic Transaction). Furthermore, some European projects related to e-commerce, and especially to brokerage systems, are also described, such as the ABS (An Architecture for Information Brokerage Services), ABROSE (Agent Based Brokerage Services in Electronic Commerce), COBRA (Common Brokerage Architecture), GAIA (Generic Architecture for Information Availability), OSM (An Open Service Model for Global Information) and SEMPER (A Security Framework for the Global Electronic Marketplace) projects. Finally, some existing models for the management of Intellectual Property Rights (IPR) of multimedia content are also described, such as the models coming from the European projects IMPRIMATUR, FILIGRANE and COPEARMS.In the second part, the main contributions of the work are developed. The first contribution consists on the characterisation of e-commerce systems according to the commercial activities and associated values. Also the concepts of customised products and services provision, as an evolution of the classical products provision, are introduced.One of the main contributions of the Thesis is the characterisation of an e-commerce system by means of a hierarchical model consisting of three levels: the functional, the operational, and the architectural models. Each of these models corresponds to a view of the system, from the more general one of the functional (or business) model, till the detailed level related to the implementation of the architectural model, going through the model that identifies the tasks needed in the system, that is the operational one.With the functional model we can identify the entities participating in the business model of the system, their role, and the relationships between them. Most of the models analysed in the state-of-the-art study concentrate in this kind of functional model, that, although very useful to cope with the first steps in the system characterisation, is clearly not enough to advance to levels closer to the system design. From this, the need to introduce more levels in the hierarchy of models.The operational model allows the identification of a series of phases needed to carry out the commercial activity. Most of the analysed models only consider as final phase the "agreement" one, that only allows to solve the case of the provision of existing or pre-defined products. A contribution of the Thesis in relation to the operational model is the inclusion of a "post-agreement" phase, for those e-commerce systems in which the commercialised goods require a follow-up after the agreement and until the final delivery of the customised product, or the agreed service. With the inclusion of the post-agreement step we can solve the provision of both kinds of goods, i.e., customised products or services.Finally, the level of the hierarchy more related to the technology is the architectural model, which allow us to identify the modules needed to implement the operations described in the operational model according to the kind of system. Each of these architectural modules will be implemented following the most adequate available technology. In this way, our proposal of models for e-commerce systems is independent from the technology.Another contribution of the Thesis consists on the classification of the e-commerce systems based on the kind of goods that they commercialise, giving also an idea of its complexity. With this classification, we have been able to inter-relate all the described contributions, i.e., the identification of the commercial activities, the functional model and the operational model. The classification consists of three levels: systems for e-commerce of products (Level 1), systems for e-commerce of customised products (Level 2), and systems for e-commerce of services (Level 3).With the objective of validating the contributions of the Thesis already described, we have used the models in the specification and design of real systems. We describe two real cases in which the proposed hierarchy of models has been validated. They are two European projects of the ACTS programme: the MULTIMEDIATOR project and the TRADE project.Finally, we deal with a problem of broker-based e-commerce systems, very relevent nowadays, that is the issue of the commercialisation through the network of multimedia material with property rights. We make some proposals about how to deal with this problem. In this kind of systems, the broker might be, on the one side, the element in which buyers and sellers trust, but, on the other hand, the broker might have the responsibility of the commercialisation and further follow-up of the fulfillment of the agreements reached at purchase moment. A proposal is made of a system, and an associated architecture, for the negotiation of the conditions for the commercialisation of copyrighted material (IPR negotiation protocol), the materialisation of the reached agrement in an electronic contract, specific for IPR, and also mechanisms for the control of its fulfillment.
152

Mechanisms to Reduce Routing Information Inaccuracy Effects: Application to MPLS and WDM Networks

Masip Bruin, Xavier 07 October 2003 (has links)
Les xarxes IP tradicionals utilitzen el model de transmissió "best-effort" per transportar tràfic entre clients de la xarxa. Aquest model de transmissió de tràfic no és el més adequat per les aplicacions en temps real com per exemple, vídeo sota demanda, conferències multimedia o realitat virtual que per altra banda tenen cada cop més adeptes entre els clients de la xarxa. A fi de garantir el correcte funcionament d'aquest tipus d'aplicacions, l'estructura de la xarxa ha de ser substancialment modificada amb l'objectiu final de poder optimitzar els seus propis recursos i així poder fer front a aquells tipus de tràfics i de clients que requereixen certes garanties de "Qualitat de Servei" (QoS) per a la seva correcta transmissió.Aquestes modificacions o millores de la xarxa poden ser perfectament realitzades sota l'entorn d'Enginyeria de Tràfic (Traffic Engineering, TE). Dos són els principals aspectos relacionats amb el funcionament de la xarxa en aquest entorn de TE: els mecanismes de commutació i els mecanismes d'encaminament. Així, per una banda es necessita un mecanisme de commutació molt ràpid en els nodes interns de la xarxa a fi de que els paquets de dades puguin ser processats amb el menor temps possible. En xarxes IP aquest objectiu s'aconsegueix amb el Multiprotocol Label Switching (MPLS). Per altra banda, a fi de garantir certa QoS, les decisions d'encaminament s'han de realitzar tenint en compte quines són les restriccions de QoS sol·licitades per el node client que origina el tràfic. Aquest objectiu s'aconsegueix modificant els esquemes d'encaminament tradicionals, incorporant-hi els paràmetres de QoS en les decisions d'encaminament, generant el que es coneix com algorismes d'encaminament amb QoS (QoS routing).Centrant-nos en aquest darrer aspecte, la majoria dels algorismes d'encaminament amb QoS existents, realitzen la selecció de la ruta a partir de la informació d'estat de l'enllaç emmagatzemada en les bases de dades d'estat de l'enllaç contingudes en els nodes. Per poder garantir que els successius canvis en l'estat de la xarxa estiguin perfectament reflectits en aquesta informació d'encaminament, el protocol d'encaminament ha d'incloure un mecanisme d'actualització que faci possible garantir que la selecció de les rutes es fa a partir d'informació acurada de l'estat real de la xarxa. En un entorn IP tradicional, el qual inicialment no inclou paràmetres de QoS, els canvis produïts en la informació d'encaminament són tan sols deguts a modificacions en la topologia i connectivitat de la xarxa. En aquest entorn, donat que la freqüència en la qual s'espera rebre missatges advertint d'aquestes modificacions no és elevada, la majoria dels mecanismes d'actualització es basen en la inclusió d'un cert període de refresc. Així, les bases de dades s'actualitzen periòdicament mitjançant la distribució d'uns missatges que informen a la resta de nodes de l'estat de la xarxa,a fi de que cada node pugui actualitzar la seva base de dades.No obstant això, hem de tenir en compte que en aquelles xarxes IP/MPLS altament dinàmiques amb requeriments de QoS, aquest mecanisme d'actualització basat en un refresc periòdic no serà útil. Això és degut a la rigidesa que presenta aquest mecanisme, la qual fa que no sigui aplicable a un entorn que presenti contínues variacions del paràmetres dels enllaços cada cop que s'estableixi o s'alliberi una connexió (ara a més de la topologia i connectivitat, s'inclouen paràmetres de QoS, com ampla de banda, retard, variació del retard, etc.). Per tot això, s'haurà de generar un mecanisme d'actualització molt més eficient que sigui capaç de mantenir les bases de dades dels nodes perfectament actualitzades reflectint els continus canvis en l'estat de la xarxa. L'alta granularitat d'aquest mecanisme provocarà una sobrecàrrega de la xarxa, degut a l'enorme quantitat de missatges d'actualització que seran necessaris per poder mantenir informació actualitzada en les bases de dades d'estat de l'enllaç en cada node.Per reduir aquesta sobrecàrrega de senyalització apareixen les polítiques d'activació (triggering policies) que tenen per objectiu determinar en quin moment un node ha d'enviar un missatge d'actualització a la resta de nodes de la xarxa advertint-los de les variacions produïdes en els seus enllaços. Desafortunadament, l'ús d'aquestes polítiques d'activació produeix un efecte negatiu sobre el funcionament global de la xarxa. En efecte, si l'actualització de la informació de l'estat de l'enllaç en els nodes no es fa cada cop que aquesta informació es veu modificada, sinó que es fa d'acord a una certa política d'activació, no es podrà garantir que aquesta informació representi de forma acurada l'esta actual de la xarxa en tot moment. Això pot provocar una selecció no òptima de la ruta seleccionada i un increment en la probabilitat de bloqueig de noves connexions a la xarxa. / Las redes IP tradicionales utilizan el modelo de transmisión best-effort para transportar tráfico entre clientes de la red. Es bien sabido que este modelo de transmisión de tráfico no es el más adecuado para las aplicaciones en tiempo real, tales como video bajo demanda, conferencias multimedia o realidad virtual, que cada vez son más de uso común entre los clientes de la red. Para garantizar el correcto funcionamiento de dichas aplicaciones la estructura de la red debe ser modificada a fin de optimizar la utilización de sus propios recursos y para poder hacer frente a aquellos tráficos que requieran ciertas garantías de Calidad de Servicio (QoS) para su correcta transmisión.Estas modificaciones o mejoras de la red pueden ser perfectamente realizadas bajo el entorno de Traffic Engineering (TE). Dos son los principales aspectos relacionados con el funcionamiento de la red en el entorno de TE: los mecanismos de conmutación y los mecanismos de encaminamiento. Así, por una parte, se necesita un mecanismo de conmutación muy rápido en los nodos intermedios de la red a fin de que los paquetes de datos puedan ser procesados con el menor tiempo posible. En redes IP este objetivo se consigue con el Multiprotocol Label Switching (MPLS). Por otra parte a fin de garantizar cierta QoS, las decisiones de encaminamiento se deben realizar acorde con los parámetros de QoS requeridos por el cliente que origina tráfico. Este objetivo se consigue modificando los esquemas de encaminamiento tradicionales e incorporando parámetros de QoS en las decisiones de encaminamiento, lo que deriva en la generación de encaminamiento con QoS (QoS routing).Centrándonos en este último aspecto de encaminamiento, la mayoría de los algoritmos de QoS routing existentes realizan la selección de la ruta a partir de la información de estado del enlace que está almacenada en las bases de datos de estado del enlace contenidas en los nodos. A fin de garantizar que los sucesivos cambios en el estado de la red estén perfectamente reflejados en dicha información, el mecanismo de encaminamiento debe incorporar un mecanismo de actualización cuyo objetivo sea garantizar que las decisiones de encaminamiento se realizan a partir de información fidedigna del estado de la red. En un entorno IP tradicional, el cual no incluye parámetros de QoS, los cambios producidos en dicha información son los debidos a modificaciones en la topología y conectividad. En dicho entorno dado que no son esperadas frecuentes variaciones de la topología de la red, la mayoría de los mecanismos de actualización están basados en la inclusión de un cierto periodo de refresco.Sin embargo, en redes IP/MPLS altamente dinámicas con requerimientos de QoS, este mecanismo de actualización no será adecuado debido a su rigidez y a las continuas variaciones de los parámetros de los enlaces (que ahora incluirá parámetros de QoS, tales como, ancho de banda, retardo, variación del retado, etc.) que se producirán cada vez que se establezca/libere una conexión. Por tanto, se deberá generar un mecanismo de actualización mucho más eficiente que sea capaz de actualizar las bases de datos de los nodos a fin de reflejar las constantes variaciones del estado de la red. La alta granularidad de este mecanismo provocará una sobrecarga de la red, debido a la enorme cantidad de mensajes de actualización necesarios para mantener información actualizada del estado de la red. Para reducir esta sobrecarga de señalización aparecen las políticas de disparo (triggering policies), cuyo objetivo es determinar en qué momento un nodo debe enviar un mensaje de actualización al resto de nodos de la red advirtiéndoles de las variaciones producidas en sus enlaces.Desafortunadamente el uso de dichas políticas de disparo produce un efecto negativo sobre el funcionamiento global de la red. En efecto, si la actualización de la información de estado del enlace en los nodos no se realiza cada vez que dicha información es modificada sino de acuerdo con cierta política de disparo, no se puede garantizar que dicha información represente fielmente el estado de la red. Así, la selección de la ruta, podrá ser realizada basada en información inexacta o imprecisa del estado de lo red, lo cual puede provocar una selección no óptima de la ruta y un incremento en la probabilidad de bloqueo de la red.Esta Tesis se centra en definir y solucionar el problema de la selección de rutas bajo información inexacta o imprecisa de la red (routing inaccuracy problem). Se consideran dos escenarios de trabajo, las actuales redes MPLS y las futuras redes WDM, para los cuales se propone un nuevo mecanismo de encaminamiento: BYPASS Based Routing (BBR) para redes IP/MPLS y BYPASS Based Optical Routing (BBOR) para redes WDM. Ambos mecanismos de encaminamiento se basan en un concepto común denominado "bypass dinámico".El concepto de "bypass dinámico" permite que un nodo intermedio de la red encamine el mensaje de establecimiento que ha recibido del nodo fuente, a través de una ruta distinta a la calculada por el nodo fuente (y explícitamente indicada en el mensaje de establecimiento), cuando detecte que inesperadamente el enlace de salida no dispone de recursos suficientes para soportar las garantías de QoS requeridas por la conexión a establecer. Estas rutas alternativas, denominadas bypass-paths, son calculadas por el nodo fuente o de entrada a la red simultáneamente con la ruta principal para ciertos nodos intermedios de la misma. En redes IP/MPLS el mecanismo BBR aplica el concepto de "bypass dinámico" a las peticiones de conexión con restricciones de ancho de banda. En cambio, en redes WDM, el mecanismo BBOR aplica el concepto de "bypass dinámico" a la hora de asignar una longitud de onda por la cual se va a transmitir el trafico. / Traditional IP networks are based on the best effort model to transport traffic flowsbetween network clients. Since this model cannot properly support the requirements demanded by several emerging real time applications (such as video on demand, multimedia conferences or virtual reality), some modifications in the network structure, mainly oriented to optimise network performance, are required in order to provide Quality of Service (QoS) guarantees.Traffic Engineering is an excellent framework to achieve these network enhancements.There are two main aspects in this context that strongly interact with network performance: switching mechanisms and routing mechanisms. On one hand, a quick switching mechanism is required to reduce the processing time in the intermediate nodes. In IP networks this behaviour is obtained by introducing Multiprotocol Label Switching (MPLS). On the other hand, a powerful routing mechanism that includes QoS attributes when selecting routes (QoS Routing) is also required.Focusing on the latter aspect, most QoS routing algorithms select paths based on the information contained in the network state databases stored in the network nodes. Because of this, routing mechanisms must include an updating mechanism to guarantee that the network state information perfectly represents the current network state. Since network state changes (topology) are not produced very often, in conventional IP networks without QoS capabilities, most updating mechanisms are based on a periodic refresh.In contrast, in highly dynamic large IP/MPLS networks with QoS capabilities a finer updating mechanism is needed. This updating mechanism generates an important and nondesirablesignalling overhead if maintaining accurate network state information is pursued. To reduce the signalling overhead, triggering policies are used. The main function of a triggering policy is to determine when a network node must advertise changes in its directly connected links to other network nodes. As a consequence of reduced signalling, the information in the network state databases might not represent an accurate picture of the actual network state.Hence, path selection may be done according to inaccurate routing information, which could cause both non-optimal path selection and an increase in connection blocking frequency.This Thesis deals with this routing inaccuracy problem, introducing new mechanisms to reduce the effects on global network performance when selecting explicit paths under inaccurate routing information. Two network scenarios are considered, namely current IP/MPLS networks and future WDM networks, and one routing mechanism per scenario is suggested:BYPASS Based Routing (BBR) for IP/MPLS and BYPASS Based Optical Routing (BBOR) for WDM networks. Both mechanisms are based on a common concept, which is defined as dynamic bypass.According to the dynamic bypass concept, whenever an intermediate node along the selected path (unexpectedly) does not have enough resources to cope with the incoming MPLS/optical-path demand requirements, it has the capability to reroute the set-up message through alternative pre-computed paths (bypass-paths). Therefore, in IP/MPLS networks the BBR mechanism applies the dynamic bypass concept to the incoming LSP demands under bandwidth constraints, and in WDM networks the BBOR mechanism applies the dynamic bypass concept when selecting light-paths (i.e., selecting the proper wavelength in both wavelength selective and wavelength interchangeable networks). The applicability of the proposed BBR and the BBOR mechanisms is validated by simulation and compared with existing methods on their respective network scenarios. These network scenarios have been selected so that obtained results may be extrapolated to a realistic network.
153

Interconnection of IP/MPLS Networks Through ATM and Optical Backbones using PNNI Protocols

Sánchez López, Sergio 07 October 2003 (has links)
Las redes de transporte se mueven hacia un modelo de redes formadas por routers IP/MPLS (Internet Protocol/Multiprotocol Laebel Switching) de altas prestaciones interconectadas a través redes troncales inteligentes. Actualmente la tecnología ATM está ampliamente desarrollada en dichas redes troncales que utilizan los protocolos PNNI (Private Network- Network Interface) como plano de control. En cambio la interoperabilidad entre redes IP/MPLS a través de redes PNNI-ATM es todavía un aspecto en proceso de estudio. Por otro lado, la tendencia futura de Internet es ir hacia redes troncales completamente ópticas con capacidad automática de conmutación para permitir un mejor tratamiento del tráfico solicitado. Debido al esfuerzo realizado por los organismos de estandarización sobre redes ópticas, se ha definido un primer modelo de red llamado ASON (Automatic Switched Optical Network). Mientras las redes actuales basadas en SDH (Synchronous Digital Hierarchy) ofrecen sólo capacidad de transporte, la futura ASON permitirá el establecimiento y la liberación de canales ópticos de forma automática. Un aspecto clave para conseguir esta funcionalidad es la definición de un plano de control óptico que será el responsable de realizar las funciones de señalización y encaminamiento.Diferentes estudios han sido realizados para conseguir interoperabilidad entre redes con tecnología IP/MPLS y ATM basados esencialmente en la distribución de información de señalización MPLS a través de una red troncal ATM. Una de las soluciones planteadas se basa en la utilización sobre cada uno de los conmutadores ATM, un dispositivo capaz de procesar información MPLS, llamado LSR (Label Switched Router). Otra, en cambio, propone el establecimiento de un camino MPLS, llamado LSP (Label Switched Path), encapsulado dentro de un camino ATM o VPC (Virtual Path Connection). Ambas soluciones presentan el inconveniente de utilizar un tiempo de establecimiento demasiado elevado.Respecto al plano de control para ASON, decir que una de las opciones propuestas es la de utilizar el GMPLS (Generalizad MPLS) que es una extensión del modelo MPLS con ingeniería de tráfico. Sin embargo, recientemente se ha iniciado un debate en lo foros de estandarización sobre la posibilidad de utilizar el PNNI como plano de control en ASON. Los argumentos que justifican esta opción son que el PNNI, después de unas apropiadas modificaciones, puede ser adecuado para ASON y lleva años funcionando en muchas de las actuales redes de transporte.Esta tesis está basada en el estudio de los dos casos mencionados anteriormente. El primero caso es el de dos redes IP/MPLS conectadas a través de una red troncal ATM la cual utiliza el PNNI como plano de control. En este contexto, el objetivo principal será el de definir un mecanismo rápido de establecimiento de la conexión que proporcione los parámetros requeridos de calidad deservicio entre dos nodos pertenecientes a cada una de las redes IP/MPLS. Para conseguirlo se realizarán las modificaciones pertinentes en el PNNI y se añadirán nuevos elementos de señalización.El segundo caso consiste en interconectar dos redes IP/MPLS a través de una red tronca l´óptica. En primer lugar se adaptará el PNNI para conseguir un protocolo de encaminamiento para ASON con el fin de proporcionar un establecimiento rápido de la conexión en un entorno IP/MPLS-ASON. Finalmente, se definirá un plano de control, llamado O-PNNI (Optical PNNI) basado en la adaptación total del ATM PNNI a redes ASON. Esta tesis finaliza con un análisis de las ventajas y desventajas de los modelos GMPLS y O-PNNI como planos de control en ASON.
154

Binary Redundancy Elimination

Fernández Gómez, Manuel 13 April 2005 (has links)
Dos de las limitaciones de rendimiento más importantes en los procesadores de hoy en día provienen de las operaciones de memoria y de las dependencias de control. Para resolver estos problemas, las memorias cache y los predictores de salto son dos alternativas hardware bien conocidas que explotan, entre otros factores, el reuso temporal de memoria y la correlación de saltos. En otras palabras, estas estructuras tratan de explotar la redundancia dinámica existente en los programas. Esta redundancia proviene parcialmente de la forma en que los programadores escriben código, pero también de limitaciones existentes en el modelo de compilación tradicional, lo cual introduce instrucciones de memoria y de salto innecesarias. Pensamos que los compiladores deberían ser muy agresivos optimizando programas, y por tanto ser capaces de eliminar una parte importante de esta redundancia. Por otro lado, las optimizaciones aplicadas en tiempo de enlace o directamente al programa ejecutable final han recibido una atención creciente en los últimos años, debido a limitaciones existentes en el modelo de compilación tradicional. Incluso aplicando sofisticados análisis y transformaciones interprocedurales, un compilador tradicional no es capaz de optimizar un programa como una entidad completa. Un problema similar aparece aplicando técnicas de compilación dirigidas por profiling: grandes proyectos se ven forzados a recompilar todos y cada uno de sus módulos para aprovechar dicha información. Por el contrario, seria más conveniente construir la aplicación completa, instrumentarla para obtener información de profiling y optimizar entonces el binario final sin recompilar ni un solo fichero fuente.En esta tesis presentamos nuevas técnicas de compilación dirigidas por profiling para eliminar la redundancia encontrada en programas ejecutables a nivel binario (esto es, redundancia binaria), incluso aunque estos programas hayan sido compilados agresivamente con un novísimo compilador comercial. Nuestras técnicas de eliminación de redundancia están diseñadas para eliminar operaciones de memoria y de salto redundantes, que son las más importantes para mitigar los problemas de rendimiento que hemos mencionado. Estas propuestas están basadas en técnicas de eliminación de redundancia parcial sensibles al camino de ejecución. Los resultados muestran que aplicando nuestras optimizaciones, somos capaces de alcanzar una reducción del 14% en el tiempo de ejecución de nuestro conjunto de programas.En este trabajo también revisamos el problemas del análisis de alias en programas ejecutables, identificando el por qué la desambiguación de memoria es uno de los puntos débiles en la modificación de código objeto. Proponemos varios análisis para ser aplicados en el contexto de optimizadores binarios. Primero un análisis de alias estricto para descubrir dependencias de memoria sensibles al camino de ejecución, el cual es usado en nuestras optimizaciones para la eliminación de redundancias de memoria. Seguidamente, dos análisis especulativos de posibles alias para detección de independencias de memoria. Estos análisis están basados en introducir información especulativa en tiempo de análisis, lo que incrementa la precisión en partes importantes de código manteniendo el análisis eficiente. Los resultados muestran que nuestras propuestas son altamente útiles para incrementar la desambiguación de memoria de código binario, lo que se traduce en oportunidades para aplicar optimizaciones. Todos nuestros algoritmos, tanto de análisis como de optimización, han sido implementados en un optimizador binario, enfatizando los problemas más relevantes en la aplicaciones de nuestros algoritmos en código ejecutable, sin la ayuda de gran parte de la información de alto nivel presente en compiladores tradicionales. / Two of the most important performance limiters in today's processor families comes from solving the memory wall and handling control dependencies. In order to address these issues, cache memories and branch predictors are well-known hardware proposals that take advantage of, among other things, exploiting both temporal memory reuse and branch correlation. In other words, they try to exploit the dynamic redundancy existing in programs. This redundancy comes partly from the way that programmers write source code, but also from limitations in the compilation model of traditional compilers, which introduces unnecessary memory and conditional branch instructions. We believe that today's optimizing compilers should be very aggressive in optimizing programs, and then they should be expected to optimize a significant part of this redundancy away.On the other hand, optimizations performed at link-time or directly applied to final program executables have received increased attention in recent years, due to limitations in the traditional compilation model. First, even though performing sophisticated interprocedural analyses and transformations, traditional compilers do not have the opportunity to optimize the program as a whole. A similar problem arises when applying profile-directe compilation techniques: large projects will be forced to re-build every source file to take advantage of profile information. By contrast, it would be more convenient to build the full application, instrument it to obtain profile data and then re-optimize the final binary without recompiling a single source file.In this thesis we present new profile-guided compiler optimizations for eliminating the redundancy encountered on executable programs at binary level (i.e.: binary redundancy), even though these programs have been compiled with full optimizations using a state-ofthe- art commercial compiler. In particular, our Binary Redundancy Elimination (BRE) techniques are targeted at eliminating both redundant memory operations and redundant conditional branches, which are the most important ones for addressing the performance issues that we mentioned above in today's microprocessors. These new proposals are mainly based on Partial Redundancy Elimination (PRE) techniques for eliminating partial redundancies in a path-sensitive fashion. Our results show that, by applying our optimizations, we are able to achieve a 14% execution time reduction in our benchmark suite.In this work we also review the problem of alias analysis at the executable program level, identifying why memory disambiguation is one of the weak points of object code modification. We then propose several alias analyses to be applied in the context of linktime or executable code optimizers. First, we present a must-alias analysis to recognize memory dependencies in a path- sensitive fashion, which is used in our optimization for eliminating redundant memory operations. Next, we propose two speculative may-alias data-flow algorithms to recognize memory independencies. These may-alias analyses are based on introducing unsafe speculation at analysis time, which increases alias precision on important portions of code while keeping the analysis reasonably cost-efficient. Our results show that our analyses prove to be very useful for increasing memory disambiguation accuracy of binary code, which turns out into opportunities for applying optimizations.All our algorithms, both for the analyses and the optimizations, have been implemented within a binary optimizer, which overcomes most of the existing limitations of traditional source-code compilers. Therefore, our work also points out the most relevant issues of applying our algorithms at the executable code level, since most of the high-level information available in traditional compilers is lost.
155

Fractura de materiales poliméricos a altas velocidades de solicitación

Acosta Sullcahuamán, Julio Arnaldo 17 July 2001 (has links)
Este trabajo se ubica en una perspectiva marcada por dos fuentes de inspiración y exigencia, que se complementan mutuamente: La primera está relacionada con el campo tecnológico y la segunda viene del ambiente científico. Por un lado, es sabido que los productos plásticos y compuestos de matriz polimérica se usan cada vez más en ingeniería y, como la mayoría de los materiales utilizados en este ámbito, muchos están sometidos a cargas dinámicas; de tal manera que en este momento resulte tan necesario el estudio de sus propiedades como el desarrollo de métodos de ensayo fiables para poder caracterizarlos bajo diferentes condiciones de aplicación de carga, siendo de especial interés conocer la respuesta de los mismos a altas velocidades de solicitación. Por otro lado, desde la óptica de la ciencia de los materiales, la relación entre la estructura y el comportamiento de fractura de los polímeros es una de sus más importantes ramas, en la que los ensayos de impacto juegan un rol principal. Cada vez más un conocimiento cuantitativo del comportamiento a impacto, en términos de la ciencia de los materiales, requiere de un conjunto de técnicas adicionales para suplir -teórica y experimentalmente- los métodos de ensayo de impacto básicos especificados por las entidades de normalización. En este sentido, el objetivo central de la presente Tesis es el diseño y puesta a punto de técnicas de ensayo para el estudio de la fractura de los materiales poliméricos, a altas velocidades de solicitación y en el dominio de baja energía.Como resultado y según la orientación del objetivo de la Tesis, se proponen dos metodologías de ensayo de impacto de baja energía: flexión por impacto de baja energía e indentación por impacto. Asimismo, cada metodología incluye el diseño de un "modelo" que permite una aproximación al fenómeno de impacto de baja energía en las geometrías de flexión e indentación respectivamente.Se ha verificado la validez de los mencionados modelos en el estudio del comportamiento mecánico del polimetilmetacrilato, poliestireno y compuestos de poliestireno y microesferas de vidrio. Las técnicas de impacto de baja energía aplicadas según las metodologías de ensayo propuestas fueron apropiadas y permitieron evaluar la respuesta de estos materiales en el campo elástico, determinar sus características elásticas a elevadas velocidades, así como estimar el inicio del daño en los mismos. Los resultados de estos ensayos, tanto el módulo elástico como las tensiones a las cuales comienzan los fenómenos de emblanquecimiento, crazing y rotura, fueron interpretados según los modelos propuestos. Finalmente, por extensión, las metodologías y modelos propuestos son válidos y apropiados para el estudio de los plásticos, cuando menos similares a los estudiados.Este trabajo se ha estructurado en concordancia con la metodología utilizada en la investigación correspondiente. Así, en el primer capítulo se ha hecho una revisión sobre los temas afines a la tesis, desde sus aspectos conceptuales hasta los más avanzados; para examinar la evolución y el estado actual del tema en cuestión y precisar los conocimientos que sirvan de base a esta investigación. En el segundo capítulo se describen las características generales y particulares de los materiales sometidos a estudio experimental. En el tercer capítulo se exponen los métodos de ensayo utilizados y las herramientas experimentales necesarias para su realización. Finalmente, antes de exponer las conclusiones, fue de rigor abordar un cuarto capítulo referido a la flexión por impacto de baja energía y otro quinto capítulo similar que versa sobre la indentación por impacto, para la presentación, interpretación y análisis de resultados, así como la correspondiente discusión. / This work is situated in a perspective highlighted by two inputs of inspiration and exigency, that complement each other: the first input is related with the technology field, and the second comes from a scientific field. On one hand, it is known that plastic products and composites of polymeric matrix are used increasingly in the engineering industry, and as many of the materials used in this field, they are usually exposed to dynamic charges. Therefore, it is necessary the study of their properties like the development of methods and tests to be able to characterize them under different conditions of charge applications, being of special interest to know the results at high speeds. On the other hand, from the material science point of view, the relation between the structure and the behavior of fracture of the polymers is one of the most important subjects, in which the impact tests play a fundamental role. The knowledge of fracture behavior, in terms of science of the materials, requires a group of additional techniques in order to supply (theoretically and experimentally) the basic impact test methods specified by the normalization entities. In this sense, the principal objective of this thesis is the design and development of test techniques for the study of the fracture of polymers at high speeds of solicitation and in the domain of low energy.As a result and based in the objective of this thesis, it is proposed two methods of test for impact of low energy: flexion by impact of low energy and indentation by impact. In the same way, every methodology includes the design of a "model" that allows an approximation for the phenomenon of impact of low energy in the geometric of flexion and indentation, respectively. The validity of the models mentioned above in the study of the mechanic behavior of the polymethylmetacrilate, polystyrene and polystyrene filled with different percentages of glass beads has been verified. The techniques for impact of low energy applied according to the methodology of proposed test were appropriate and allowed to evaluate the response of these materials in the elastic field, to determine its elastic characteristics at high speeds, and to estimate the initial damage of components. The results of these tests, likewise the elastic module and the tensions at which begin the whitening phenomena, crazing and rupture, where interpreted according to the proposed models. Finally, per extension, the methodology and proposed methods are valid and appropriate for the study of plastics, at least similar to the ones studied. This work has been structured in accordance with the methodology utilized in the correspondent investigation. Thus, in the first chapter, a revision of the subjects corresponding to the thesis were made, from its conceptual aspects to the more advanced, in order to examine the evolution and estate of the actual subject in question and precise the knowledge that can be use as a base for this investigation. In the second chapter, the general and particular characteristics of the materials submitted to the experimental studies are described. In the third chapter the methods of test utilized and the necessary experimental tools for its realization are exposed. Finally, before the conclusions are presented, it was consistent to add a fourth chapter that refers to the flexion by impact, and another fifth chapter similar that contains the indentation by impact for the presentation, interpretation and analysis of results, and the related discussion.
156

Mejora de la tierra estabilizada en el desarrollo de una arquitectura sostenible hacia el siglo XXI

Barbeta Solà, Gabriel 26 April 2002 (has links)
El objeto de la presente Tesis es el de establecer y dar una "Nueva Metodología para Construir con Tierra Estabilizada, con resistencias y durabilidad óptimas, para permitir el Desarrollo de una Arquitectura Sostenible en el Siglo XXI". En ésta se analizan los antecedentes históricos, en los que se tiene en cuenta su aportación técnica para hacer su correspondiente discusión y análisis crítico. Finalmente se dan las conclusiones a que llega, de las que destaca la Sistematización e Industrialización del BTC como opción preferente (Bloque de Tierra Estabilizada y Comprimida). La consecución del Método se basa en el análisis y desarrollo experimental de tres grupos diferenciados de tierras y arcillas : El Grupo I, constituído por arcillas puras; el Grupo II por tierras de utilización actual en obras de tierra; y el Grupo III de tierras usadas tradicionalmente .Cómo resultados analíticos destacables cabe citar que al aplicar el cemento como estabilizante, se obtiene una máxima efectividad en orden descendente en Caolinitas, en Cloritas, Montmorillonitas e Illitas, y con Cemento natural : Caolinitas, Montmorillonitas y Cloritas.Las adiciones activas y los aditivos como la sosa son muy eficaces en Montmorillonitas e illitas.Las estructuras más durables en orden descendente las forman las arcillas puras estabilizadas con cemento portland: Cloritas, Halloisitas, Caolinitas, e Illitas. Tras éstas estarían excepcionalmente las Halloisitas y las Cloritas estabilizadas con cemento natural y yeso. De todo el extenso proceso experimental se deduce el siguiente método de análisis físico-químico integral , que minimiza los ensayos y posibilite su control por técnicos de la construcción: 11.1. Análisis ArquitectónicoDescripción de la Arquitectura local, medios disponibles, y entorno natural.. ACV resultante.11.2. Caracterización de las arcillas básicas presentes en la fracción sedimentométrica.Consulta del Mapa Geológico e Identificación visual y organolépticas de la Tierra11.2.3. Procedimiento de obtención de las microprobetas11.2.3.2. Determinación y evaluación de la Curva Granulometría11.2.3.3. Proceso de dosificación del estabilizante11.3. Determinación del contenido de Arcillas por ATD/ATG TERMOGRAVIMETRIA11.4. Análisis físicos11.4.1.1. Evaluación de la Estabilidad volumétrica mediante el Ensayo de Retracción11.4.2. Obtención de las densidades de las microprobetas11.4.4. Determinación de los límites de Atterberg.11.4.5. Resistencia a Compresión Simple.11.4.6. Ensayos de Durabilidad. AbsorciónDá información acerca de la obtención de una estructura con menor número de poros y de menor tamaño, directamente relacionado con la resistencia. Ensayo cíclico de Humectación-Helacidad-SecadoPerdida de peso durante 6 ciclos de helacidad, humectación, secado y ataque agresivo11.4.7. Coeficiente de transmisión térmica i acústica11.5. Análisis químico de las microprobetas.Para la evaluación cuantitativa de estas substancias activas es necesario recurrir a su determinación por análisis químico de las fracciones que son solubles en medio acuoso.11.5.1. Determinación de la Sílice soluble.El incremento de silice soluble posibilita la formación de fases resistentes SCH, lo cual se relaciona con el incremento de resistencia11.5.2. Determinación de los Óxidos Trivalentes11.5.2.1. Correlación con la resistencia11.5.3. M.e.q Capacidad de cambio catiónico11.5.4. Determinación de los Sulfatos.11.6. Gráfico Ternario de optimización de la estabilización.Finalmente se afirma que hoy en día es factible tener un material de calidad y estandarizable ejecutado con tierra. Para ello es indispensable seguir el método expuesto para garantizar unas resistencias mínimas, una durabilidad ante el ataque del agua y sales predominantemente, y un control de las prestaciones arquitectónicas obtenidas.
157

Color Constancy and Image Segmentation Techniques for Applications to Mobile Robotics

Vergés Llahí, Jaume 27 July 2005 (has links)
Aquesta Tesi que pretén proporcionar un conjunt de tècniques per enfrontar-se al problema que suposa la variació del color en les imatges preses des d'una plataforma mòbil per causa del canvi en les condicions d'il·luminació entre diverses vistes d'una certa escena preses en diferents instants i posicions. També tracta el problema de la segmentació de imatges de color per a poder-les utilitzar en tasques associades a les capacitats d'un robot mòbil, com ara la identificació d'objectes o la recuperació d'imatges d'una gran base de dades.Per dur a terme aquests objectius, primerament s'estableix matemàticament la transformació entre colors degut a variacions d'il·luminació. Així es proposa un model continu per la generació del senyal de color com a generalització natural d'altres propostes anteriors. D'aquesta manera es pot estudiar matemàticament i amb generalitat les condicions per l'existència, unicitat i bon comportament de les solucions, i expressar qualsevol tipus d'aplicació entre colors, independentment del tipus de discretització. Així, queda palès la relació íntima entre el problema de la invariància de color i el de la recuperació espectral, que també es planteja a la pràctica. El model desenvolupat es contrasta numèricament amb els de regressió lineal, en termes d'errors de predicció.Un cop establert el model general, s'opta per un model lineal simplificat a l'hora de realitzar els càlculs pràctics i permet alleugerir el nombre dels mateixos. En particular, el mètode proposat es basa en trobar la transformació més probable entre dues imatges a partir del càlcul d'un conjunt de transformacions possibles i de l'estimació de la freqüència i grau d'efectivitat de cadascuna d'elles. Posteriorment, es selecciona el millor candidat d'acord amb la seva versemblança. L'aplicació resultant serveix per transformar els colors de la imatge tal i com es veuria sota les condicions d'il·luminació canòniques.Una vegada el color de les imatges d'una mateixa escena es manté constant, cal procedir a la seva segmentació per extreure'n la informació corresponent a les regions amb color homogeni. En aquesta Tesi es suggereix un algorisme basat en la partició de l'arbre d'expansió mínima d'una imatge mitjançant una mesura local de la probabilitat de les unions entre components. La idea és arribar a una segmentació coherent amb les regions reals, compromís entre particions amb moltes components (sobresegmentades) i amb molt poques (subsegmentades). Un altre objectiu és que l'algorisme sigui prou ràpid com per ser útil en aplicacions de robòtica mòbil. Aquesta característica s'assoleix amb un plantejament local del creixement de regions, tot i que el resultat presenti caràcters globals (color). La possible sobresegmentació es suavitza gràcies al factor probabilístic introduït.L'algorisme de segmentació també hauria de generar segmentacions estables en el temps. Així, l'algorisme referit s'ha ampliat incloent-hi un pas intermedi entre segmentacions que permet de relacionar regions semblants en imatges diferents i propagar cap endavant els reagrupaments de regions fets en anteriors imatges, així si en una imatge unes regions s'agrupen formant-ne una de sola, les regions corresponents en la imatge següent també s'han d'agrupar juntes. D'aquesta manera, dues segmentacions correlatives s'assemblen i es pot mantenir estable la segmentació d'una seqüència.Finalment, es planteja el problema de comparar imatges a partir del seu contingut. Aquesta Tesi es concentra només en la informació de color i, a més de investigar la millor distància entre segmentacions, es busca també mostrar com la invariància de color afecta les segmentacions.Els resultats obtinguts per cada objectiu proposat en aquesta Tesi avalen els punts de vista defensats, i mostren la utilitat dels algorismes, així com el model de color tant per la recuperació espectral com pel càlcul explícit de les transformacions entre colors. / This Thesis endeavors providing a set of techniques for facing the problem of color variation in images taken from a mobile platform and caused by the change in the conditions of lighting among several views of a certain scene taken at different instants and positions. It also treats the problem of segmenting color images in order to use them in tasks associated with the capacities of a mobile robot, such as object identification or image retrieval from a large database.In order to carry out these goals, first transformation among colors due to light variations is mathematically established. Thus, a continuous model for the generation of color is proposed as a natural generalization of other former models. In this way, conditions for the existence, uniqueness, and good behavior of the solutions can be mathematically studied with a great generality, and any type of applications among colors can be expressed independently of the discretization scheme applied. Thus, the intimate relation among the problem of color invariance and that of spectral recovery is made evident and studied in practice too. The developed model is numerically contrasted with those of a least squares linear regression in terms of prediction errors.Once the general model is established, a simplified linear version is chosen instead for carrying out the practical calculations while lightening the number of them. In particular, the proposed method is based on finding the likeliest transformation between two images from the calculation of a set of feasible transformations and the estimation of the frequency and the effectiveness degree of each of them. Later, the best candidate is selected in accordance with its likelihood. The resulting application is then able to transform the image colors as they would be seen under the canonical light.After keeping the image colors from a scene constant, it is necessary to proceed to their segmentation to extract information corresponding to regions with homogeneous colors. In this Thesis, an algorithm based on the partition of the minimum spanning tree of an image through a local measure of the likelihood of the unions among components is suggested. The idea is to arrive at a segmentation coherent with the real regions, a trade-off between partitions with many component (oversegmented) and those with fewer components (subsegmented).Another goal is that of obtaining an algorithm fast enough to be useful in applications of mobile robotics. This characteristic is attained by a local approach to region growing, even though the result still shows global feature (color). The possible oversegmentation is softened thanks to a probabilistic factor.The segmentation algorithm should also generate stable segmentations through time. Thus, the aforementioned algorithm has been widened by including an intermediate step that allows to relate similar regions in different images and to propagate forwards the regrouping of regions made in previous images. This way, if in some image some regions are grouped forming only one bigger region, the corresponding regions in the following image will also be grouped together. In this way, two correlatives segmentations resemble each other, keeping the whole segmented sequence stabler.Finally, the problem of comparing images via their content is also studied in this Thesis, focusing on the color information and, besides investigating which is for our aims the best distance between segmentation, also showing how color constancy affects segmentations. The results obtained in each of the goals proposed in this Thesis guarantee the exposed points of view, and show the utility of the algorithms suggested, as well as the color model for the spectral recovery and the explicit calculation of the transformations among colors.
158

Aplicación de las redes neuronales en los sistemas de control vectorial de los motores de inducción

Sowilam, Gamal 25 September 2000 (has links)
Últimamente se ha incrementado considerablemente la utilización de la inteligencia artificial en los campos de la electrónica de potencia y de los sistemas de control de la velocidad y del posicionamiento. Estos métodos, basados en sistemas expertos, la lógica difusa y las redes neuronales artificiales, necesitan una gran base de datos o conocimientos que describan el funcionamiento del sistema junto a un análisis lógico, en lugar del análisis matemático, para controlar el sistema y facilitar la toma de decisiones. Uno de estos métodos corresponde a las redes neuronales artificiales.En esta tesis doctoral se presenta la aplicación de redes neuronales artificiales en los sistemas de control vectorial y control directo del par para una máquina de inducción. Esta tecnología, relativamente nueva, sirve para poder reemplazar eficientemente algunos equipos analógicos ya existentes. Los datos necesarios para entrenar las redes neuronales artificiales se obtienen, en primer lugar, de los resultados de las simulaciones del sistema formado por el motor y su control, y en segundo lugar, a partir de los resultados experimentales. A tal fin se implementa un modelo del motor de inducción que se prueba con motores de diferentes valores nominales y se controla con diferentes sistema de control: control vectorial por el método indirecto con y sin realimentación de velocidad, control vectorial por el método directo con realimentación de velocidad y control directo del par. Para el caso de los sistemas del control vectorial por el método indirecto, con y sin realimentación de velocidad se han utilizado redes neuronales artificiales de respuesta a impulso finito (FIRANN) para emular algunos bloques de los sistemas del control vectorial tales como la estimación de referencia de corriente estator. Cada red neuronal artificial se ha diseñado, entrenado y probado como una parte del conjunto del sistema de control. Con respecto al control vectorial por el método directo y con realimentación de velocidad, se estima la referencia de la corriente del estator y también se realiza la mayor parte del control vectorial con redes neuronales artificiales FIRANN. Cada red neuronal artificial se ha diseñado, entrenado y probado como una parte del conjunto del sistema de control.Para el sistema de control directo del par se han utilizado redes neuronales artificiales de propagación hacia adelante (MFANN) que emulan la tabla de conmutación del ondulador, la transformación de las tensiones en el sistema de referencia "abc" al sistema de referencia fijado al estator "dq", la transformación de las corrientes de estator en el sistema de referencia "abc" al sistema de referencia fijado al estator "dq" y por último, un estimador de par. Estas cuatro redes neuronales se probaron en línea tanto de forma independiente como conjuntamente. Su comportamiento ha sido bueno en comparación con el sistema sin redes neuronales. Además, se realizó la implementación física del equipo para el control en tiempo real de un motor de inducción por el método directo clásico, y usando redes neuronales mediante una tarjeta dSPACE "DS1103". Este montaje ha permitido hacer las medidas necesarias para poder comparar el comportamiento del sistema bajo las alternativas propuestas. / Recently, the use of artificial intelligence has been increased in the fields of power electronics, and position and speed control systems. These methods, based on expert systems, fuzzy logic and artificial neural networks, require a large data base or knowledge to describe the operation of the system, besides to the logic analysis instead of the mathematical analysis in order to control the system and facilitate the decision tasks. One of these methods are the artificial neural networks.This doctoral thesis shows the aplication of artificial neural networks to the vector control systems and direct torque control of induction machines. This technology is useful to replace some existing analogical equipment in an efficient way. The data needed to train the artificial neural networks is obtained in the first place from the simulation results of the system, and in the second place from the experimental results. For that purpose, it was implemented an induction motor model which is tested with different machine characteristics, and it is controlled with different control systems: indirect method vector control with and without speed feedback, direct method vector control with speed feedback and direct torque control.For indirect method vector control with and without speed feedback, it has been used finite impulse response artificial neural networks (FIRANN) to emulate some blocks of the vector control systems such as the estimation of the stator current. Each artificial neural network has been designed, trained and tested as a part of the control system set.For the case of direct method vector control with speed feedback, the stator current reference and the majority of the vector control is realized also with artificial neural networks FIRANN. Each artificial neural network has been designed, trained and tested as a part of the control system set.In the direct torque control, it has been used feed-forward artificial neural networks (MFANN) to emulate the commutation table of the inverter, to develop the transformation of the voltages from the "abc" reference frame to the "dq" reference frame, and the transformation of the stator currents from the "abc" reference frame to the "dq" reference frame, and finally, to estimate the torque. These four neural networks have been tested online in an independent way and also as a whole. Its performance has been good in comparison with the system without neural networks.Finally, it was realized a physical implementation of the equipment for real time control of an induction motor by the classical method and by artificial neural networks using a dSPACE "DS1103" card. This implementation has allowed realize the measurements to be able to compare the performance of the system under the different proposed alternatives.
159

Surface passivation of crystalline silicon by amorphous silicon carbide films for photovoltaic applications

Ferré Tomàs, Rafel 11 April 2008 (has links)
En aquesta tesi s'estudia la passivació del silici cristal·lí per a la producció de cèl·lules solars d'alta eficiència (> 20%) a baix preu.Actualment la indústria fotovoltaica empra capes de nitrur de silici crescut mitjançant la tècnica PECVD. Com a alternativa, es presenta el carbur de silici amorf (a-SiC), també crescut mitjançant PECVD. Resultats anteriors mostren que la passivacio del silici a partir de carbur de silici amorf son excel·lents quan el material és ric en silici i dopat amb fòsfor. L'alt contingut en silici provoca absorció de la llum a la capa, que no es tradueix en corrent elèctric, fent d'aquesta manera que el material sigui només útil quan s'aplica a la cara no il·luminada de la cèl·lula.L'objectiu d'aquesta tesi és millorar les propietats de passivació del carbur de silici afegint els requisits indispensables en cèl·lules solars: uniformitat, transparència i propietats antireflectants, estabilitat a llarg termini i enfront altes temperatures. A part de les aplicacions tecnològiques també es pretèn entendre millor les propietats fonamentals de passivació.Els principals resultats són: - La passivació millora a mesura que s'incrementa el gruix de la capa de a-SiC, fins arribar a una saturació a partir de 50 nm. El mecanisme responsable es una millor saturació dels defectes de la interficie amb hidrogen. Al contrari del que es pensava a priori, la càrrega el·lèctrica emmagatzemada a la capa es manté constant amb el gruix.- Experiments amb "corona charge" indiquen que l'origen de la càrrega el·lèctrica que produeix la passivació per efecte de camp es troba en la densitat d'estats a la interfície.- No ha estat possible trobar una capa tranparent (rica en carboni) amb bona passivació. La millor aproximació per combinar passivació més transparència és emprar dues capes, una molt prima rica en silici per passivar i l'altra rica en carboni per aconseguir les propietats antireflectants adequades. S'ha optimitzat el gruix de la capa rica en silici per aconseguir un compromís entre la pèrdua de corrent degut a l'absorció de la llum a la capa i les propietats de passivació. Aquesta combinació de doble capa s'ha fet servir per passivar bases tipus p i emissors tipus n amb resultats excel·lents. Finalment, amb la doble capa es va poder fabricar la primera cèl·lula passivada amb carbur de silici amb una eficiencia > 20%.- S'ha desenvolupat un material nou: l'al·leació de silici, carboni i nitrogen dopada amb fòsfor. Aquest material ha donat els millors resultats de passició fins ara obtingut dins el nostre grup en bases tipus p i tipus n i en emissors tipus n. La composició òptima és rica en silici i la combinació de capes dobles amb diferents composicions, com en el cas anterior, torna a donar bons resultats de passivació i transparència. - S'han desenvolupat experiments d'estrès tèrmic a alta temperatura. Les propietats de passivació es veuen fortament afectades desprès de l'estrès si les capes són riques en silici. D'altra banda, les dobles capes mostren una estabilitat molt més alta a l'estrès tèrmic. / The thesis focuses on the study of surface passivation of crystalline silicon to produce high efficiency solar cells (with conversion efficiencies > 20%) at reduced prices. The state of the art in surface passivation is done by thin films of amorphous silicon nitride grown by Plasma Enhanced Chemical Vapour Deposition (PECVD) and it is a very well established material in the photovoltaic field.In this thesis we offer an alternative that is based on amorphous silicon carbide (a-SiC), also grown by PECVD. The passivation properties of silicon carbide have been already studied in our group finding that excellent results can be obtained when the films are rich in silicon, especially for those doped with phosphorus to make a n-type material. Because this feature leads to undesirable absorption of solar light within the films that does not contribute to the photocurrent, silicon carbide would then be relegated to passivate only the rear side of the solar cell.The aim of this work is to improve surface passivation properties developed previously and add compulsory requisites for the application of crystalline solar cells. These requisites are: uniformity, transparency and antireflective properties, stability under long term operation and stability under high temperature steps (allowing screen printing processes). Also it is the willing to provide a better understanding of the fundamental properties.The main results achieved are enumerated hereafter:- Surface passivation improves with the film thickness and then saturates for films thicker than 50 nm. The mechanism responsible for this improvement is not an increase of the electric charge in the film, as in principle could be thought, but a better saturation of defects by the presence of hydrogen. The amount of charge density seems to be independent of the film. - Experiments of corona charge reveal some treats about the nature of the charge density to provide the field effect passivation. The origin of the charge seems to be a continuous density of states at the interface, rather a fixed charge allocated in the film.- None of the attempts using carbon rich films, which are transparent and with antireflective properties, resulted in excellent surface passivation. Such attempts included variation of the deposition parameters, use of remote plasma PECVD with high incorporation of hydrogen, and introduction of nitrogen of in the phosphorus doped a-SiC films. Therefore, up to now it becomes apparent that it is a fundamental property of silicon carbide films the necessity to be rich in silicon to perform surface passivation.- The way to combine surface passivation and antireflective properties was applying stacks of different a-SiC layers: one silicon rich and one carbon rich. The thickness of the silicon rich layer was optimized to reach a trade-off between level of passivation and lost of photocurrent due to the absorption in the film. The stacks were used to passivate p-type bases, with reasonably good results, and n+- type emitters, with very good results. The stacks provided the the first silicon solar a-SiC rear side passivated with efficiency above 20%.- A new material was tested: a ternary alloy of silicon, carbon and nitrogen doped with phosphorus. This material was applied to n- and p-type bases and n+-type emitters, presenting the best results in surface passivation achieved by our group, and comparable to surface passivation record achieved by amorphous silicon carbide. Best composition was rich in silicon, and again stacks of silicon rich and carbon rich films was combined successfully. - Stability against thermal processes was tested on different passivation schemes. After the treatment, the passivation is strongly reduced for single silicon rich films, which were offering good initial results. On the other hand, the stacks with a second carbon rich film maintain reasonably well the surface passivation properties.
160

Fusión de Datos: Imputación y Validación

Juárez Alonso, Carlos Alberto 04 March 2005 (has links)
Las actitudes, el conocimiento y las acciones generalmente se basan en muestras. Algunos basan sus conclusiones en muestras pequeñas y pocas veces toman en cuenta la magnitud de lo que se desconoce. Generalmente se carece de recursos para estudiar más de una parte del problema de interés que pudiera aumentar nuestro conocimiento. Algunas razones para el uso de las técnicas de muestreo son: costo reducido, mayor velocidad, mayor enfoque o perspectiva y mayor exactitud.La fusión de datos surge como una alternativa a la fuente única de datos frente a la necesidad de conseguir el máximo de información posible al menor costo. Tiene como objetivo combinar datos de diferentes fuentes para poder disponer de toda la información en un solo archivo, aunque artificial, con todas las variables de interés. Utiliza lo mejor de la información existente en un archivo para reconstruir la información ausente en otro archivo. Es una estimación estadística de los datos faltantes. Es un medio de limitar la recolección de datos, reconstruyendo la información faltante. No es un problema de análisis estadístico con datos faltantes en el cual se consideran los mecanismos que conducen a la ausencia de datos. En el caso de la fusión de datos, se presentan bloques completos de datos ausentes, en general, muestras independientes.La revisión bibliográfica ha permitido analizar el problema del análisis de datos faltantes como una aproximación al tema de la fusión de datos, considerando que la fusión de datos es un caso particular. En este caso, se está hablando de bloques de datos faltantes y en muchas ocasiones, datos faltantes por diseño.El objetivo de la fusión de datos es por lo tanto, el obtener un solo archivo que pueda ser analizado posteriormente con herramientas de minería de datos. La idea es estimar los valores de las variables no informadas (valores faltantes) a partir de un bloque de variables informadas correlacionadas con el bloque de variables a reconstituir (variables comunes). Es importante hacer notar que no se esta generando nueva información.Parte de este trabajo se dedica a la definición y aproximación del concepto fusión de datos. Se presentan algunos enfoques para el tratamiento de los datos ausentes. Se han revisado, de manera no exhaustiva, algunas técnicas relacionadas con el tema y se muestran aplicaciones de la fusión de datos relacionadas con otras herramientas.Son muchas las técnicas que existen para tratar la reconstrucción de los datos faltantes. En este trabajo, el enfoque se ha hecho sobre la técnica de imputación Hot deck. Con esta técnica se sustituyen valores individuales extraídos de unidades observadas similares. Se basa en el reemplazo de la información faltante en el conjunto de individuos no informados (con datos faltantes) que se llaman receptores, utilizando la información de los individuos informados más parecidos, llamados donantes. Es una práctica común que involucra esquemas elaborados para la selección de las unidades similares para la imputación. Se estudian algunos procedimientos no paramétricos de discriminación para efectuar la búsqueda de los individuos más cercanos (parecidos). Existen distintos algoritmos diseñados para esto. Se ha hecho una revisión de algunos de estos métodos de búsqueda. Este trabajo se basa en el algoritmo de Fukunaga/Narendra. Se muestran los componentes del sistema. Se presentan los fundamentos y las bases que se han seguido para el desarrollo y la implantación del mismo. Se han establecido algunas propuestas no paramétricas para la medición de la calidad de la fusión.La experimentación y prueba de las distintas propuesta se ha hecho dividida en dos partes. En una se ha hecho una selección aleatoria de los individuos para formar un conjunto de donantes y un conjunto de receptores. En la segunda parte, la selección se ha hecho a partir de una característica específica en una variable. Para esto se emplea un archivo sintético creado a partir de un conjunto de datos privados de financiación para el otorgamiento de créditos al consumo. Este archivo general consta de 6692 individuos. El aspecto práctico de este trabajo, ha sido el desarrollo de un sistema de fusión de datos.Aunque mucho está escrito sobre la imputación Hot deck, siempre habrá espacio para proponer nuevos métodos. Evaluar la calidad de la fusión seguirá siendo tema de interés. Queda claro que la fusión de datos satisface la necesidad de muchos de proporcionar una sola fuente de datos completa a los usuarios finales. Sin embargo, se debe tener cuidado al hacer uso de esta información (son estimaciones, no valores reales observados). / Very often, attitudes, knowledge and actions, are base on samples. Some base their conclusions on small samples and are less likely to be aware of the extent of what is unknown. There is frequently a lack of resources to study more than a part of the problem of interest which could increase our knowledge of it. Some reasons for the use of sample techniques are: reduced cost, greater speed, greater scope o perspective and greater accuracy. Data fusion emerges as an alternative to single source data, faced to the need of acquiring the more information as possible at the lower cost. Its objective is to combine data from different sources in order to have the whole information on a single file, though artificial, but with all the variables of interest. It makes use of the best of the current information contained on one file to rebuild the missing information on another file. It's a statistical estimation of the missing data. It is a mean to restrict the gathering of data, rebuilding the missing information. It is not a problem of statistical analysis with missing data, on which, the process that leads to the absence of data are considered. In the case of data fusion, complete blocks of missing data appear, generally, independent samples.The bibliography has allowed analyzing the subject of missing data as an approach to the subject of data fusion, considering that data fusion is a particular case of it. In this case, missing data and sometimes missing by design is what it is all about.Therefore, the objective of data fusion is to get a single file which can be analyzed further with data mining tools. The idea is to estimate the values of the variables with missing data upon a block of variables with the whole information correlated with the variables to be rebuilt. It is important to mention that new information is not being generated. A part of this work is dedicated to the definition and rapprochement to the concept of data fusion. Some ways of treating the problem of missing data are presented. Some techniques related to the subject have been reviewed in a non exhaustive way and some data fusion applications related with other tools is shown.There are many techniques for treating the rebuilding of missing data. This work is focused on the hot deck technique.With this technique, individual units, took from similar observed units are replaced. It is based on the replacement of the missing information in the set of units with missing information called receivers, using the information of units more likely to them called donors. It is a common practice that involves complex outlines for the selection of the similar unit to be used for the imputation.Some non parametric discrimination procedures have been studied to perform the search of the nearest units (the most resembling). There are different algorithms for this purpose. A review of some of these search methods has been made. This work is based on the Fukunaga/Narendra algorithm. The components of the system are shown as well as the foundations and bases followed for the development and implementation. Some non parametric proposals have been made for measuring the quality of the fusion.The experimentation and tests of the system has been made in two parts. In one part, a random selection of the units that makes the set of donors and the set of receivers has been made. In the second part, the selection has been made upon a specific characteristic on a variable. For this purpose, a synthetic file created upon a set of private financing data for the grant of consumer goods credits is used. This general file contains 6692 units.The practical aspect of this work has been the development of a data fusion system. Although many have been written about hot deck imputation, there is always room for new proposals. Evaluating the quality of the fusion is still a subject of interest. It is clear that data fusion fulfill the need of many to provide the final user with a complete single source of data. However, care must be taken with the use of this information (they are estimations, not actual observed values).

Page generated in 0.0697 seconds