• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 12
  • 9
  • 7
  • Tagged with
  • 28
  • 28
  • 28
  • 28
  • 28
  • 17
  • 12
  • 7
  • 6
  • 4
  • 4
  • 4
  • 4
  • 4
  • 4
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
21

Consensus and analia: new challenges in detection and management of security vulnerabilities in data networks

Corral Torruella, Guiomar 10 September 2009 (has links)
A mesura que les xarxes passen a ser un element integral de les corporacions, les tecnologies de seguretat de xarxa es desenvolupen per protegir dades i preservar la privacitat. El test de seguretat en una xarxa permet identificar vulnerabilitats i assegurar els requisits de seguretat de qualsevol empresa. L'anàlisi de la seguretat permet reconèixer informació maliciosa, tràfic no autoritzat, vulnerabilitats de dispositius o de la xarxa, patrons d'intrusió, i extreure conclusions de la informació recopilada en el test. Llavors, on està el problema? No existeix un estàndard de codi obert ni un marc integral que segueixi una metodologia de codi obert per a tests de seguretat, la informació recopilada després d'un test inclou moltes dades, no existeix un patró exacte i objectiu sobre el comportament dels dispositius de xarxa ni sobre les xarxes i, finalment, el nombre de vulnerabilitats potencials és molt extens. El desafiament d'aquest domini resideix a tenir un gran volum de dades complexes, on poden aparèixer diagnòstics inconsistents. A més, és un domini no supervisat on no s'han aplicat tècniques d'aprenentatge automàtic anteriorment. Per això cal una completa caracterització del domini. Consensus és l'aportació principal d'aquesta tesi: un marc integrat que inclou un sistema automatitzat per millorar la realització de tests en una xarxa i l'anàlisi de la informació recollida. El sistema automatitza els mecanismes associats a un test de seguretat i minimitza la durada de l'esmentat test, seguint la metodologia OSSTMM. Pot ser usat en xarxes cablejades i sense fils. La seguretat es pot avaluar des d'una perspectiva interna, o bé externa a la pròpia xarxa. Es recopilen dades d'ordinadors, routers, firewalls i detectors d'intrusions. Consensus gestionarà les dades a processar per analistes de seguretat. Informació general i específica sobre els seus serveis, sistema operatiu, la detecció de vulnerabilitats, regles d'encaminament i de filtrat, la resposta dels detectors d'intrusions, la debilitat de les contrasenyes, i la resposta a codi maliciós o a atacs de denegació de servei són un exemple de les dades a emmagatzemar per cada dispositiu. Aquestes dades són recopilades per les eines de test incloses a Consensus.La gran quantitat de dades per cada dispositiu i el diferent número i tipus d'atributs que els caracteritzen, compliquen l'extracció manual d'un patró de comportament. Les eines de test automatitzades poden obtenir diferents resultats sobre el mateix dispositiu i la informació recopilada pot arribar a ser incompleta o inconsistent. En aquest entorn sorgeix la segona principal aportació d'aquesta tesi: Analia, el mòdul d'anàlisi de Consensus. Mentre que Consensus s'encarrega de recopilar dades sobre la seguretat dels dispositius, Analia inclou tècniques d'Intel·ligència Artificial per ajudar als analistes després d'un test de seguretat. Diferents mètodes d 'aprenentatge no supervisat s'han analitzat per ser adaptats a aquest domini. Analia troba semblances dins dels dispositius analitzats i l'agrupació dels esmentats dispositius ajuda als analistes en l'extracció de conclusions. Les millors agrupacions són seleccionades mitjançant l'aplicació d'índexs de validació. A continuació, el sistema genera explicacions sobre cada agrupació per donar una resposta més detallada als analistes de seguretat.La combinació de tècniques d'aprenentatge automàtic en el domini de la seguretat de xarxes proporciona beneficis i millores en la realització de tests de seguretat mitjançant la utilització del marc integrat Consensus i el seu sistema d'anàlisi de resultats Analia. / A medida que las redes pasan a ser un elemento integral de las corporaciones, las tecnologías de seguridad de red se desarrollan para proteger datos y preservar la privacidad. El test de seguridad en una red permite identificar vulnerabilidades y asegurar los requisitos de seguridad de cualquier empresa. El análisis de la seguridad permite reconocer información maliciosa, tráfico no autorizado, vulnerabilidades de dispositivos o de la red, patrones de intrusión, y extraer conclusiones de la información recopilada en el test. Entonces, ¿dónde está el problema? No existe un estándar de código abierto ni un marco integral que siga una metodología de código abierto para tests de seguridad, la información recopilada después de un test incluye muchos datos, no existe un patrón exacto y objetivo sobre el comportamiento de los dispositivos de red ni sobre las redes y, finalmente, el número de vulnerabilidades potenciales es muy extenso. El desafío de este dominio reside en tener un gran volumen de datos complejos, donde pueden aparecer diagnósticos inconsistentes. Además, es un dominio no supervisado donde no se han aplicado técnicas de aprendizaje automático anteriormente. Por ello es necesaria una completa caracterización del dominio.Consensus es la aportación principal de esta tesis: un marco integrado que incluye un sistema automatizado para mejorar la realización de tests en una red y el análisis de la información recogida. El sistema automatiza los mecanismos asociados a un test de seguridad y minimiza la duración de dicho test, siguiendo la metodología OSSTMM. Puede ser usado en redes cableadas e inalámbricas. La seguridad se puede evaluar desde una perspectiva interna, o bien externa a la propia red. Se recopilan datos de ordenadores, routers, firewalls y detectores de intrusiones. Consensus gestionará los datos a procesar por analistas de seguridad. Información general y específica sobre sus servicios, sistema operativo, la detección de vulnerabilidades, reglas de encaminamiento y de filtrado, la respuesta de los detectores de intrusiones, la debilidad de las contraseñas, y la respuesta a código malicioso o a ataques de denegación de servicio son un ejemplo de los datos a almacenar por cada dispositivo. Estos datos son recopilados por las herramientas de test incluidas en Consensus. La gran cantidad de datos por cada dispositivo y el diferente número y tipo de atributos que les caracterizan, complican la extracción manual de un patrón de comportamiento. Las herramientas de test automatizadas pueden obtener diferentes resultados sobre el mismo dispositivo y la información recopilada puede llegar a ser incompleta o inconsistente. En este entorno surge la segunda principal aportación de esta tesis: Analia, el módulo de análisis de Consensus. Mientras que Consensus se encarga de recopilar datos sobre la seguridad de los dispositivos, Analia incluye técnicas de Inteligencia Artificial para ayudar a los analistas después de un test de seguridad. Distintos métodos de aprendizaje no supervisado se han analizado para ser adaptados a este dominio. Analia encuentra semejanzas dentro de los dispositivos analizados y la agrupación de dichos dispositivos ayuda a los analistas en la extracción de conclusiones. Las mejores agrupaciones son seleccionadas mediante la aplicación de índices de validación. A continuación, el sistema genera explicaciones sobre cada agrupación para dar una respuesta más detallada a los analistas de seguridad.La combinación de técnicas de aprendizaje automático en el dominio de la seguridad de redes proporciona beneficios y mejoras en la realización de tests de seguridad mediante la utilización del marco integrado Consensus y su sistema de análisis de resultados Analia. / As networks become an integral part of corporations and everyone's lives, advanced network security technologies are being developed to protect data and preserve privacy. Network security testing is necessary to identify and report vulnerabilities, and also to assure enterprise security requirements. Security analysis is necessary to recognize malicious data, unauthorized traffic, detected vulnerabilities, intrusion data patterns, and also to extract conclusions from the information gathered in the security test. Then, where is the problem? There is no open-source standard for security testing, there is no integral framework that follows an open-source methodology for security testing, information gathered after a security test includes large data sets, there is not an exact and objective pattern of behavior among network devices or, furthermore, among data networks and, finally, there are too many potentially vulnerabilities. The challenge of this domain resides in having a great volume of data; data are complex and can appear inconsistent diagnostics. It is also an unsupervised domain where no machine learning techniques have been applied before. Thus a complete characterization of the domain is needed.Consensus is the main contribution of this thesis. Consensus is an integrated framework that includes a computer-aided system developed to help security experts during network testing and analysis. The system automates mechanisms related to a security assessment in order to minimize the time needed to perform an OSSTMM security test. This framework can be used in wired and wireless networks. Network security can be evaluated from inside or from outside the system. It gathers data of different network devices, not only computers but also routers, firewalls and Intrusion Detection Systems (IDS). Consensus manages many data to be processed by security analysts after an exhaustive test. General information, port scanning data, operating system fingerprinting, vulnerability scanning data, routing and filtering rules, IDS response, answer to malicious code, weak passwords reporting, and response to denial of service attacks can be stored for each tested device. This data is gathered by the automated testing tools that have been included in Consensus.The great amount of data for every device and the different number and type of attributes complicates a manually traffic pattern finding. The automated testing tools can obtain different results, incomplete or inconsistent information. Then data obtained from a security test can be uncertain, approximate, complex and partial true. In this environment arises the second main contribution of this thesis: Analia, the data analysis module of Consensus. Whereas Consensus gathers security data, Analia includes Artificial Intelligence to help analysts after a vulnerability assessment. Unsupervised learning has been analyzed to be adapted to this domain. Analia finds resemblances within tested devices and clustering aids analysts in the extraction of conclusions. Afterwards, the best results are selected by applying cluster validity indices. Then explanations of clustering results are included to give a more comprehensive response to security analysts.The combination of machine learning techniques in the network security domain provides benefits and improvements when performing security assessments with the Consensus framework and processing its results with Analia.
22

Contributions to Formal Communication Elimination for System Models with Explicit Parallelism

Babot Pagès, Francesc Xavier 09 October 2009 (has links)
Els mètodes de verificació formal s'estan usant cada vegada més en la indústria per establir la correctessa i trobar els errors en models de sistemes; per exemple la descripció de hardware, protocols, programes distribuïts, etc. En particular, els verificadors de models ho fan automàticament per sistemes d'estats finits, per-o estan limitats degut al problema de l'explosió d'estats; i la verificació formal interactiva, l'àrea d'aquesta tesi, es necessita.L'enfocament de la verificació automàtica treballa sobre el sistema de transicions del model, el qual defineix la seva semàntica. Aquest sistema de transicions té sovint molts estats, i sempre una mida gran comparada amb la mida del model del sistema, el qual és sempre infinit. Aquestes consideracions suggereixen un enfocament de verificació estàtica com els d'aquesta tesi, evitant els sistemes de transicions, treballant directament sobre el model del sistema, en principi, la complexitat computacional hauria de ser menor. L'enfocament estàtic d'aquest treball es fa sobre models de sistemes expressats en notació imperativa amb paral·lelisme explícit, sentències de comunicacions síncrones i variables d'emmagatzematge locals.Els raonaments d'equivalència són molt empleats per números, matrius i altres camps. Tanmateix, per programes imperatius amb paral·lelisme, comunicacions i variables, encara que potencialment sigui un mètode de verificació molt intuïtiu, no han estat massa explorats. La seqüencialització formal via l'eliminació de comunicacions internes, l'àrea d'aquesta tesi, és una demostració basada en el raonament estàtic d'equivalències que, donat que disminueix la magnitud del vector d'estats, pot complementar altres mètodes de demostració. Es basa en l'aplicació d'un conjunt de lleis , apropiades per tal propòsit, com reduccions de reescriptura del model del sistema. Aquestes depenen de la noció d'equivalència i de les suposicions de justícia.Aquesta tesi contribueix a la quasi inexplorada àrea de l'eliminació de comunicacions formal i seqüencialització de models de sistema. Les lleis estan definides sobre una equivalència feble: equivalència d'interfície. L'eliminació de comunicacions est-a limitada a models sense seleccions, per exemple models en els quals les comunicacions internes no estan dins de l'àmbit de sentències de selecció. Aplicacions interessants existeixen dins d'aquest marc. Les lleis són vàlides només per justícia feble o sense justícia. Aquesta ha estat desenvolupada seguint la semàntica proposada per Manna i Pnueli per a sistemes reactius [MP91, MP95]. S'han formulat les condicions d'aplicabilitat per les lleis de la pròpia eliminació de comunicacions. A més a més, es proposa un procediment de construcció de demostracions per l'eliminació de comunicacions, el qual intenta aplicar automàticament les lleis de la eliminació. També s'ha dissenyat un conjunt de procediments de transformació, els quals garanteixen que la transformació equivalent sempre correspon a l'aplicació d'una seqüència de lleis. Degut a que la construcció de les demostracions és impracticable, normalment impossible, sense l'ajuda d'una eina, s'ha desenvolupat un demostrador interactiu per la construcció semiautomàtica de la seqüencialització de models de sistemes i demostracions d'eliminació. Tant els procediments de transformació com els de l'eliminació de comunicacions estan integrats en l'eina. Amb l'ajuda del demostrador s'ha construït la demostració de seqüencialització d'un model, no trivial, de processador pipeline. Per aquest exemple s'ha assolit una reducció, respecte del model original, de la cota superior del nombre d'estats de 2−672.Malgrat l'enorme quantitat d'esforç dedicat a l'àrea, abans i durant la tesi, encara queda molt treball per a que l'eliminació de comunicacions i la seqüencialització sigui realment un mètode pràctic. No obstant els resultats d'aquesta tesi han establert els fonaments i han donat l'estímul necessari per continuar l'esforç. / Los métodos de verificación formal se están usando cada vez más en la industria para establecer la corrección y encontrar los errores en modelos de sistemas; por ejemplo, la descripción de hardware, protocolos, programas distribuidos, etc. En particular, los verificadores de modelos lo hacen automáticamente para sistemas de estados finitos, pero están limitados debido al problema de la explosión de estados; y la verificación formal interactiva, el área de esta tesis, es necesaria.El enfoque de la verificación automática trabaja sobre el sistema de transiciones del modelo, el cual define su semántica. Este sistema de transiciones tiene a menudo muchos estados, y siempre un tamaño grande comparado con el tamaño del modelo del sistema, el cual es siempre infinito. Estas consideraciones sugieren un enfoque de verificación estática como los de esta tesis, evitando los sistemas de transiciones, trabajando directamente sobre el modelo del sistema, en principio, la complejidad computacional tendría que ser menor. El enfoque estático de este trabajo se lleva a cabo sobre modelos de sistemas expresados en notación imperativa con paralelismo explícito, sentencias de comunicaciones síncronas y variables de almacenamiento locales.Los razonamientos de equivalencia son muy empleados para números, matrices y otros campos. Sin embargo, para programas imperativos con paralelismo, comunicaciones y variables, aún teniendo la potencialidad de ser un método de verificación muy intuitivo, no han sido muy explorados. La secuencialización formal vía la eliminación de comunicaciones internas, el área de esta tesis, es una demostración basada en el razonamiento estático de equivalencias que, ya que disminuye la magnitud del vector de estados, puede complementar otros métodos de demostración. Se basa en la aplicación de un conjunto de leyes, apropiadas para tal propósito, como reducciones de reescritura del modelo del sistema. Éstas dependen de la noción de equivalencia y de las suposiciones de justicia.Esta tesis contribuye a la casi inexplorada área de la eliminación de comunicaciones formal y secuencialización de modelos de sistema. Las leyes están definidas sobre una equivalencia débil: equivalencia de interfaz. La eliminación de comunicaciones está limitada a modelos sin selecciones, por ejemplo modelos en los cuales las comunicaciones internas no están dentro del ámbito de sentencias de selección. Aplicaciones interesantes existen dentro de este marco. Las leyes son válidas sólo para justicia débil o sin justicia. Ésta ha sido desarrollada siguiendo la semántica propuesta por Manna y Pnueli para sistemas reactivos [MP91, MP95]. Se han formulado las condiciones de aplicabilidad para las leyes de la propia eliminación de comunicaciones. Además, se propone un procedimiento de construcción de demostraciones para la eliminación de comunicaciones, el cual intenta aplicar automáticamente las leyes de la eliminación. También se ha diseñado un conjunto de procedimientos de transformación, los cuales garantizan que la transformación equivalente siempre corresponde a la aplicación de una secuencia de leyes. Debido a que la construcción de las demostraciones es impracticable, normalmente imposible, sin la ayuda de una herramienta, se ha desarrollado un demostrador interactivo para la construcción semiautomática de la secuencialización de modelos de sistemas y demostraciones de eliminación. Tanto los procedimientos de transformación como los de la eliminación de comunicaciones están integrados en la herramienta. Con la ayuda del demostrador se ha construido la demostración de secuencialización de un modelo, no trivial, de procesador pipeline. Para este ejemplo se ha logrado una reducción, respecto del modelo original, de la cota superior del número de estados de 2−672.A pesar de la enorme cantidad de esfuerzo dedicado al área, antes y durante esta tesis, todavía queda mucho trabajo para que la eliminación de comunicaciones y la secuencialización sea realmente un método práctico. Sin embargo los resultados de esta tesis han establecido los cimientos y han dado el estímulo necesario para continuar el esfuerzo. / Formal verification methods are increasingly being used in industry to establish the correctness of, and to find the flaws in, system models; for instance, descriptions of hardware, protocols, distributed programs, etc. In particular, model checking does that automatically for finite-state systems, but it is limited in scope due to the state explosion problem; and interactive formal verification, the broad area of this thesis, is needed.Automatic verification approaches work on the transition system of the model, which defines its semantics. This transition system has often infinitely many states, and always a large size compared to the size of the system model, which is always finite. These considerations suggest that static verification approaches such as those of this thesis, avoiding the transition system, working directly on the system model would have less computational complexity, in principle. The static approach of this work is carried out on system models expressed in imperative notations with explicit parallelism and synchronous communication statements, and with local storage variables.Equivalence reasoning is heavily used for numbers, matrices, and other fields. However, for imperative programs with parallelism, communications, and variables, although having the potentiality of being a very intuitive verification method, it has not been much explored. Formal sequentialization via internal communication elimination, the area of this thesis, is a static equivalence reasoning proof that, since it decreases the size of the state vector, could complement other proof methods. It is based on the application of a set of laws, suitable for that purpose, as rewriting reductions to a system model. These proofs need both proper communication elimination laws and auxiliary basic laws. These depend on the notion of equivalence and on the fairness assumptions.This thesis contributes to the almost unexplored area of formal communication elimination and system model sequentialization. The laws are defined over a weak equivalence: interface equivalence. Communication elimination is confined to selection-free models, i.e. models none of whose inner communications are within the scope of selection statements. Interesting applications already exist within this framework. The laws are valid only with weak fairness or no fairness. It has been developed following the same semantics as Manna and Pnueli for reactive systems [MP91, MP95]. Applicability conditions for the proper communication elimination laws are derived. In addition, a communication elimination proof construction procedure, which attempts to apply the elimination laws automatically is proposed. A set of transformation procedures, guaranteeing that the equivalence transformation always corresponds to the application of a sequence of laws have been designed as well. Since the construction of elimination proofs is impractical, even impossible, without a tool, an interactive prover for semi-automatic construction of system model sequentialization and elimination proofs has been developed. Both transformation and communication elimination procedures are integrated within the tool. As a non-trivial example, a sequentialization proof of a pipelined processor model, has been constructed with the help of the prover. Areduction, with respect to the original model, of 2−672 on the upper bound on the number of states has been achieved in this example.In spite of the huge amount of effort already devoted to the area, before and during this thesis, much work still needs to be done until communication elimination and sequentialization become a practical method. Nevertheless the results of this thesis have established its foundations and given the necessary encouragement for continuing the effort.
23

New Challenges in Quality of Services Control Architectures in Next Generation Networks

Vallejo Blanxart, Àlex 16 November 2010 (has links)
A mesura que Internet i les xarxes IP s'han anat integrant dins la societat i les corporacions, han anat creixent les expectatives de nous serveis convergents així com les expectatives de qualitat en les comunicacions. Les Next Generation Networks (NGN) donen resposta a les noves necessitats i representen el nou paradigma d'Internet a partir de la convergència IP. Un dels aspectes menys desenvolupats de les NGN és el control de la Qualitat del Servei (QoS), especialment crític en les comunicacions multimèdia a través de xarxes heterogènies i/o de diferents operadors. A més a més, les NGN incorporen nativament el protocol IPv6 que, malgrat les deficiències i esgotament d'adreces IPv4, encara no ha tingut l'impuls definitiu.Aquesta tesi està enfocada des d'un punt de vista pràctic. Així doncs, per tal de poder fer recerca sobre xarxes de proves (o testbeds) que suportin IPv6 amb garanties de funcionament, es fa un estudi en profunditat del protocol IPv6, del seu grau d'implementació i dels tests de conformància i interoperabilitat existents que avaluen la qualitat d'aquestes implementacions. A continuació s'avalua la qualitat de cinc sistemes operatius que suporten IPv6 mitjançant un test de conformància i s'implementa el testbed IPv6 bàsic, a partir del qual es farà la recerca, amb la implementació que ofereix més garanties.El QoS Broker és l'aportació principal d'aquesta tesi: un marc integrat que inclou un sistema automatitzat per gestionar el control de la QoS a través de sistemes multi-domini/multi-operador seguint les recomanacions de les NGN. El sistema automatitza els mecanismes associats a la configuració de la QoS dins d'un mateix domini (sistema autònom) mitjançant la gestió basada en polítiques de QoS i automatitza la negociació dinàmica de QoS entre QoS Brokers de diferents dominis, de forma que permet garantir QoS extrem-extrem sense fissures. Aquesta arquitectura es valida sobre un testbed de proves multi-domini que utilitza el mecanisme DiffServ de QoS i suporta IPv6.L'arquitectura definida en les NGN permet gestionar la QoS tant a nivell 3 (IP) com a nivell 2 (Ethernet, WiFi, etc.) de forma que permet gestionar també xarxes PLC. Aquesta tesi proposa una aproximació teòrica per aplicar aquesta arquitectura de control, mitjançant un QoS Broker, a les noves xarxes PLC que s'estan acabant d'estandarditzar, i discuteix les possibilitats d'aplicació sobre les futures xarxes de comunicació de les Smart Grids.Finalment, s'integra en el QoS Broker un mòdul per gestionar l'enginyeria del tràfic optimitzant els dominis mitjançant tècniques de intel·ligència artificial. La validació en simulacions i sobre un testbed amb routers Cisco demostra que els algorismes genètics híbrids són una opció eficaç en aquest camp.En general, les observacions i avenços assolits en aquesta tesi contribueixen a augmentar la comprensió del funcionament de la QoS en les NGN i a preparar aquests sistemes per afrontar problemes del món real de gran complexitat. / A medida que Internet y las redes IP se han ido integrando dentro de la sociedad y las corporaciones, han ido creciendo las expectativas de nuevos servicios convergentes así como las expectativas de calidad en las comunicaciones. Las Next Generation Networks (NGN) dan respuesta a las nuevas necesidades y representan el nuevo paradigma de Internet a partir de la convergencia IP. Uno de los aspectos menos desarrollados de las NGN es el control de la Calidad del Servicio (QoS), especialmente crítico en las comunicaciones multimedia a través de redes heterogéneas y/o de diferentes operadores. Además, las NGN incorporan nativamente el protocolo IPv6 que, a pesar de las deficiencias y agotamiento de direcciones IPv4, aún no ha tenido el impulso definitivo.Esta tesis está enfocada desde un punto de vista práctico. Así pues, con tal de poder hacer investigación sobre redes de prueba (o testbeds) que suporten IPv6 con garantías de funcionamiento, se hace un estudio en profundidad del protocolo IPv6, de su grado de implementación y de los tests de conformancia e interoperabilidad existentes que evalúan la calidad de estas implementaciones. A continuación se evalua la calidad de cinco sistemas operativos que soportan IPv6 mediante un test de conformancia y se implementa el testbed IPv6 básico, a partir del cual se realizará la investigación, con la implementación que ofrece más garantías.El QoS Broker es la aportación principal de esta tesis: un marco integrado que incluye un sistema automatitzado para gestionar el control de la QoS a través de sistemas multi-dominio/multi-operador siguiendo las recomendaciones de las NGN. El sistema automatiza los mecanismos asociados a la configuración de la QoS dentro de un mismo dominio (sistema autónomo) mediante la gestión basada en políticas de QoS y automatiza la negociación dinámica de QoS entre QoS brokers de diferentes dominios, de forma que permite garantizar QoS extremo-extremo sin fisuras. Esta arquitectura se valida sobre un testbed de pruebas multi-dominio que utiliza el mecanismo DiffServ de QoS y soporta IPv6. La arquitectura definida en las NGN permite gestionar la QoS tanto a nivel 3 (IP) o como a nivel 2 (Ethernet, WiFi, etc.) de forma que permite gestionar también redes PLC. Esta tesis propone una aproximación teórica para aplicar esta arquitectura de control, mediante un QoS Broker, a las noves redes PLC que se están acabando de estandardizar, y discute las posibilidades de aplicación sobre las futuras redes de comunicación de las Smart Grids.Finalmente, se integra en el QoS Broker un módulo para gestionar la ingeniería del tráfico optimizando los dominios mediante técnicas de inteligencia artificial. La validación en simulaciones y sobre un testbed con routers Cisco demuestra que los algoritmos genéticos híbridos son una opción eficaz en este campo.En general, las observaciones y avances i avances alcanzados en esta tesis contribuyen a augmentar la comprensión del funcionamiento de la QoS en las NGN y en preparar estos sistemas para afrontar problemas del mundo real de gran complejidad. / The steady growth of Internet along with the IP networks and their integration into society and corporations has brought with it increased expectations of new converged services as well as greater demands on quality in communications. The Next Generation Networks (NGNs) respond to these new needs and represent the new Internet paradigm from the IP convergence. One of the least developed aspects in the NGNs is the Quality of Service (QoS) control, which is especially critical in the multimedia communication through heterogeneous networks and/or different operators. Furthermore, the NGNs natively incorporate the IPv6 protocol which, despite its shortcomings and the depletion of IPv4 addresses has not been boosted yet.This thesis has been developed with a practical focus. Therefore, with the aim of carrying out research over testbeds supporting the IPv6 with performance guarantees, an in-depth study of the IPv6 protocol development has been conducted and its degree of implementation and the existing conformance and interoperability tests that evaluate these implementations have been studied. Next, the quality of five implementations has been evaluated through a conformance test and the basic IPv6 testbed has been implemented, from which the research will be carried out. The QoS Broker is the main contribution to this thesis: an integrated framework including an automated system for QoS control management through multi-domain/multi-operator systems according to NGN recommendations. The system automates the mechanisms associated to the QoS configuration inside the same domain (autonomous system) through policy-based management and automates the QoS dynamic negotiation between peer QoS Brokers belonging to different domains, so it allows the guarantee of seamless end-to-end QoS. This architecture is validated over a multi-domain testbed which uses the QoS DiffServ mechanism and supports IPv6.The architecture defined in the NGN allows QoS management at level 3 (IP) as well as at level 2 (e.g. Ethernet, WiFi) so it also facilitates the management of PLC networks. Through the use of a QoS Broker, this thesis proposes a theoretical approach for applying this control architecture to the newly standardized PLC networks, and discusses the possibilities of applying it over the future communication networks of the Smart Grids.Finally, a module for managing traffic engineering which optimizes the network domains through artificial intelligence techniques is integrated in the QoS Broker. The validations by simulations and over a Cisco router testbed demonstrate that hybrid genetic algorithms are an effective option in this area.Overall, the advances and key insights provided in this thesis help advance our understanding of QoS functioning in the NGNs and prepare these systems to face increasingly complex problems, which abound in current industrial and scientific applications.
24

Optimització perceptiva dels sistemes de síntesi de la parla basats en selecció d’unitats mitjançant algorismes genètics interactius actius

Formiga Fanals, Lluís 27 April 2011 (has links)
Els sistemes de conversió de text en parla (CTP-SU) s'encarreguen de produir veu sintètica a partir d'un text d'entrada. Els CTP basats en selecció d'unitats (CTP-SU) recuperen la millor seqüència d'unitats de veu enregistrades prèviament en una base de dades (corpus). La recuperació es realitza mitjançant algorismes de programació dinàmica i una funció de cost ponderada. La ponderació de la funció de cost es realitza típicament de forma manual per part d'un expert. No obstant, l'ajust manual resulta costós des d'un punt de vista de coneixement prèvi, i imprecís en la seva execució. Per tal d'ajustar els pesos de la funció de cost, aquesta tesi parteix de la prova de viabilitat d'ajust perceptiu presentada per Alías (2006) que empra algorismes genètics interactius actius (active interactive Genetic Algorithm - aiGA). Aquesta tesi doctoral investiga les diferents problemàtiques que es presenten en aplicar els aiGAs en l'ajust de pesos d'un CTP-SU en un context real de selecció d'unitats. Primerament la tesi realitza un estudi de l'estat de l'art en l'ajust de pesos. Tot seguit, repassa la idoneïtat de la computació evolutiva interactiva per realitzar l'ajust revisant amb profunditat el treball previ. Llavors es presenten i es validen les propostes de millora. Les quatre línies mestres que guien les contribucions d'aquesta tesi són: la precisió en l'ajust dels pesos, la robustesa dels pesos obtinguts, l'aplicabilitat de la metodologia per qualsevol funció de cost i el consens dels pesos obtinguts incorporant el criteri de diferents usuaris. En termes de precisió la tesi proposa realitzar l'ajust perceptiu per diferents tipus (clústers) d'unitats respectant les seves peculiaritats fonètiques i contextuals. En termes de robustesa la tesi incorpora diferents mètriques evolutives (indicadors) que avaluen aspectes com l'ambigüitat en la cerca, la convergència d'un usuari o el nivell de consens entre diferents usuaris. Posteriorment, per estudiar l'aplicabilitat de la metodologia proposada s'ajusten perceptivament diferents pesos que combinen informació lingüística i simbòlica. La última contribució d'aquesta tesi estudia l'idoneïtat dels models latents per modelar les preferències dels diferents usuaris i obtenir una solució de consens. Paral•lelament, per fer el pas d'una prova de viabilitat a un entorn real de selecció d'unitats es treballa amb un corpus d'extensió mitjana (1.9h) etiquetat automàticament. La tesi permet concloure que l'aiGA a nivell de clúster és una metodologia altament competitiva respecte les altres tècniques d'ajust presents en l'estat de l'art. / Los sistemas de conversión texto-habla (CTH-SU) se encargan de producir voz sintética a partir de un texto de entrada. Los CTH basados en selección de unidades (CTH-SU) recuperan la mejor secuencia de unidades de voz grabadas previamente en una base de datos (corpus). La recuperación se realitza mediante algoritmos de programación dinámica y una función de coste ponderada. La ponderación de la función de coste se realiza típicamente de forma manual por parte de un experto. Sin embargo, el ajuste manual resulta costoso desde un punto de vista de conocimiento previo e impreciso en su ejecución. Para ajustar los pesos de la función de coste, esta tesis parte de la prueba de viabilidad de ajuste perceptivo presentada por Alías (2006) que emplea algoritmos genéticos interactivos activos (active interactive Genetic Algorithm - aiGA). Esta tesis doctoral investiga las diferentes problemáticas que se presentan al aplicar los aiGAs en el ajuste de pesos de un CTH-SU en un contexto real de selección de unidades. Primeramente la tesis realiza un estudio del estado del arte en el ajuste de pesos, posteriormente repasa la idoneidad de la computación evolutiva interactiva para realizar el ajuste revisando en profundidad el trabajo previo. Entonces se presentan y se validan las propuestas de mejora. Las cuatro líneas maestras que guían las contribuciones de esta tesis son: la precisión en el ajuste de los pesos, la robustez de los pesos obtenidos, la aplicabilidad de la metodología para cualquier función de coste y el consenso de los pesos obtenidos incorporando el criterio de diferentes usuarios. En términos de precisión la tesis propone realizar el ajuste perceptivo por diferentes tipos (clusters) de unidades respetando sus peculiaridades fonéticas y contextuales. En términos de robustez la tesis incorpora diferentes métricas evolutivas (indicadores) que evalúan aspectos como la ambigüedad en la búsqueda, la convergencia de un usuario o el nivel de consenso entre diferentes usuarios. Posteriormente, para estudiar la aplicabilidad de la metodología propuesta se ajustan perceptivamente diferentes pesos que combinan información lingüística y simbólica. La última contribución de esta tesis estudia la idoneidad de los modelos latentes para modelar las preferencias de los diferentes usuarios y obtener una solución de consenso. Paralelamente, para dar el paso de una prueba de viabilidad a un entorno real de selección de unidades se trabaja con un corpus de extensión media (1.9h) etiquetado automáticamente. La tesis permite concluir que el aiGA a nivel de cluster es una metodología altamente competitiva respecto a las otras técnicas de ajuste presentes en el estado del arte. / Text-to-Speech Systems (TTS) produce synthetic speech from an input text. Unit Selection TTS (US-TTS) systems are based on the retrieval of the best sequence of recorded speech units previously recorded into a database (corpus). The retrieval is done by means of dynamic programming algorithm and a weighted cost function. An expert typically performs the weighting of the cost function by hand. However, hand tuning is costly from a standpoint of previous training and inaccurate in terms of methodology. In order to properly tune the weights of the cost function, this thesis continues the perceptual tuning proposal submitted by Alías(2006) which uses active interactive Genetic Algorithms (aiGAs). This thesis conducts an investigation to the various problems that arise in applying aiGAs to the weight tuning of the cost function. Firstly, the thesis makes a deep revision to the state-of-the-art in weight tuning. Afterwards, the thesis outlines the suitability of Interactive Evolutionary Computation (IEC) to perform the weight tuning making a thorough review of previous work. Then, the proposals of improvement are presented. The four major guidelines pursued by this thesis are: accuracy in adjusting the weights, robustness of the weights obtained, the applicability of the methodology to any subcost distance and the consensus of weights obtained by different users. In terms of precision cluster-level perceptual tuning is proposed in order to obtain weights for different types (clusters) of units considering their phonetic and contextual properties. In terms of robustness of the evolutionary process, the thesis presents different metrics (indicators) to assess aspects such as the ambiguity within the evolutionary search, the convergence of one user or the level of consensus among different users. Subsequently, to study the applicability of the proposed methodology different weights are perceptually tuned combining linguistic and symbolic information. The last contribution of this thesis examines the suitability of latent models for modeling the preferences of different users and obtains a consensus solution. In addition, the experimentation is carried out through a medium size corpus (1.9h) automatically labelled in order fill the gap between the proof-of-principle and a real unit selection scenario. The thesis concludes that aiGAs are highly competitive in comparison to other weight tuning techniques from the state-of-the-art.
25

Cellular Nonlinear Networks: optimized implementation on FPGA and applications to robotics

Albó Canals, Jordi 18 June 2012 (has links)
L'objectiu principal d'aquesta tesi consisteix a estudiar la factibilitat d'implementar un sensor càmera CNN amb plena funcionalitat basat en FPGA de baix cost adequat per a aplicacions en robots mòbils. L'estudi dels fonaments de les xarxes cel•lulars no lineals (CNNs) i la seva aplicació eficaç en matrius de portes programables (FPGAs) s'ha complementat, d'una banda amb el paral•lelisme que s'estableix entre arquitectura multi-nucli de les CNNs i els eixams de robots mòbils, i per l'altre banda amb la correlació dinàmica de CNNs i arquitectures memristive. A més, els memristors es consideren els substituts dels futurs dispositius de memòria flash per la seva capacitat d'integració d'alta densitat i el seu consum d'energia prop de zero. En el nostre cas, hem estat interessats en el desenvolupament d’FPGAs que han deixat de ser simples dispositius per a la creació ràpida de prototips ASIC per esdevenir complets dispositius reconfigurables amb integració de la memòria i els elements de processament general. En particular, s'han explorat com les arquitectures implementades CNN en FPGAs poden ser optimitzades en termes d’àrea ocupada en el dispositiu i el seu consum de potència. El nostre objectiu final ens ah portat a implementar de manera eficient una CNN-UM amb complet funcionament a un baix cost i baix consum sobre una FPGA amb tecnología flash. Per tant, futurs estudis sobre l’arquitectura eficient de la CNN sobre la FPGA i la interconnexió amb els robots comercials disponibles és un dels objectius d'aquesta tesi que se seguiran en les línies de futur exposades en aquest treball. / El objetivo principal de esta tesis consiste en estudiar la factibilidad de implementar un sensor cámara CNN con plena funcionalidad basado en FPGA de bajo coste adecuado para aplicaciones en robots móviles. El estudio de los fundamentos de las redes celulares no lineales (CNNs) y su aplicación eficaz en matrices de puertas programables (FPGAs) se ha complementado, por un lado con el paralelismo que se establece entre arquitectura multi -núcleo de las CNNs y los enjambres de robots móviles, y por el otro lado con la correlación dinámica de CNNs y arquitecturas memristive. Además, los memristors se consideran los sustitutos de los futuros dispositivos de memoria flash por su capacidad de integración de alta densidad y su consumo de energía cerca de cero. En nuestro caso, hemos estado interesados en el desarrollo de FPGAs que han dejado de ser simples dispositivos para la creación rápida de prototipos ASIC para convertirse en completos dispositivos reconfigurables con integración de la memoria y los elementos de procesamiento general. En particular, se han explorado como las arquitecturas implementadas CNN en FPGAs pueden ser optimizadas en términos de área ocupada en el dispositivo y su consumo de potencia. Nuestro objetivo final nos ah llevado a implementar de manera eficiente una CNN-UM con completo funcionamiento a un bajo coste y bajo consumo sobre una FPGA con tecnología flash. Por lo tanto, futuros estudios sobre la arquitectura eficiente de la CNN sobre la FPGA y la interconexión con los robots comerciales disponibles es uno de los objetivos de esta tesis que se seguirán en las líneas de futuro expuestas en este trabajo. / The main goal of this thesis consists in studying the feasibility to implement a full-functionality CNN camera sensor based on low-cost FPGA device suitable for mobile robotic applications. The study of Cellular Nonlinear Networks (CNNs) fundamentals and its efficient implementation on Field Programmable Gate Arrays (FPGAs) has been complemented, on one side with the parallelism established between multi-core CNN architecture and swarm of mobile robots, and on the other side with the dynamics correlation of CNNs and memristive architectures. Furthermore, memristors are considered the future substitutes of flash memory devices because of its capability of high density integration and its close to zero power consumption. In our case, we have been interested in the development of FPGAs that have ceased to be simple devices for ASIC fast prototyping to become complete reconfigurable devices embedding memory and processing elements. In particular, we have explored how the CNN architectures implemented on FPGAs can be optimized in terms of area occupied on the device or power consumption. Our final accomplishment has been implementing efficiently a fully functional reconfigurable CNN-UM on a low-cost low-power FPGA based on flash technology. Therefore, further studies on an efficient CNN architecture on FPGA and interfacing it with commercially-available robots is one of the objectives of this thesis that will be followed in the future directions exposed in this work.
26

Disseny de seqüències PN usant algoritmes genètics, ajust del control difús i optimització de l'estructura multiresolutiva per a la sincronització d'un receptor DS-SS en canal ionosfèric de llarga distància

Alsina Pagès, Rosa Maria 16 July 2012 (has links)
L'estructura multiresolutiva proposada per Moran [1] té com a objectiu obtenir l'equilibri entre el cost computacional de l'adquisició sèrie i l'eficiència de l'adquisició paral•lela en sistemes d'espectre eixamplat de seqüència directa. L'adquisició i el posterior tracking són dos processos clau en la desmodulació del senyal d'espectre eixamplat, puix que sense una correcta sincronització aquesta és inviable. L'estructura multiresolutiva mostrà en la seva primera proposta un bon comportament en un canal ionosfèric de 800km [2], però el problema al que s'enfronta ara és més complex. Un canal ionosfèric des de l'Antàrtida a Catalunya, d'una longitud de 12700km, amb unes condicions de canal més agreujades per la distància i la variabilitat horària de la ionosfera en el trajecte de les ones. És amb aquest objectiu que aquest treball de tesi presenta millores a aquest algorisme d'adquisició i de seguiment amb els ulls posats en el problema a resoldre. S'han dissenyat seqüències PN adaptades a les necessitats de l'estructura multiresolutiva usant estratègies evolutives [3,4] i algorismes genètics [5], demanant a les seqüències pseudoaleatòries l'acompliment de més requisits que els originals de les seqüències PN. D'altra banda, també s'ha dissenyat un sistema d'estimació de la qualitat de l'adquisició i de control basat en lògica difusa [6], que permeti donar garanties de la robustesa de l'adquisició i alhora, millorar les prestacions de l'estructura reduint-ne el cost computacional. Finalment, s'ha realitzat un refinament del funcionament de l'estructura multiresolutiva, ajustant-ne els paràmetres d'aprenentatge dels filtres adaptatius de la mateixa per al canal ionosfèric i afegint-li la prestació de funcionar com a detector RAKE, que millora la qualitat de les dades desmodulades. Aquests nous dissenys i millores han estat contrastats amb l'estructura multiresolutiva original [1] i amb d'altres algorismes d'adquisició adaptatius basats en filtres LMS [7,8] i s'ha demostrat que les aportacions realitzades en aquest treball permeten obtenir un millor rendiment en les condicions de transmissió abordades. [1] J. A. Morán. Sistema ràpid d’adquisició per transmissió DS-SS sobre canal ionosfèric. Tesi Doctoral, Enginyeria i Arquitectura La Salle. Universitat Ramon Llull, Barcelona (Espanya), 2001. [2] J.A. Morán, J.C. Socoró, X. Jové, J.L. Pijoan i F. Tarrés. Multiresolution Adaptive Structure for acquisition in DS-SS receivers. International Conference on Acoustics, Speech and Signal Processing (ICASSP). Salt Lake City (EUA), 2001. [3] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipiender biologischen Evolution. Frommann-Holzboog, Alemanya, 1973. [4] H.P. Schwefel. Evoluitonsstrategie und numerische Optimierung. Tesi Doctoral, Technische Universitat Berlin, Berlin (Alemanya), 1975. [5] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, 1989. [6] L.A. Zadeh. Fuzzy Sets. IEEE Trans. on Information and Control, 8:338–353, 1965. [7] M.G. El-Tarhuni. Application of Adaptive Filtering to Direct-Sequence Spread-Spectrum Code Synchronization. Tesi Doctoral, Carleton University, 1997. [8] M. Han, T. Yu, C. Kang i D. Hong. A New Adaptive Code-Acquisition Algorithm Using Parallel Subfilter Structure. IEEE Transactions on Vehicular Technology, 55(6):1790–1796, Novembre 2006. / La estructura multiresolutiva propuesta por Moran [1] tiene como objetivo obtener el equilibrio entre el coste computacional de la adquisición serie y la eficiencia de la adquisición paralela en sistemas de espectro ensanchado de secuencia directa. La adquisición y el posterior tracking son dos procesos clave en la demodulación de la señal de espectro ensanchado, puesto que sin una correcta sincronización ésta es inviable. La estructura multiresolutiva mostró en su primera propuesta un buen comportamiento en un canal ionosférico de 800km [2], pero el problema al que se enfronta ahora es más complejo. Un canal ionosférico desde la Antártida a Catalunya, con una longitud de 12700km, con unas condiciones de canal más agravadas por la distancia y la variabilidad horaria de la ionosfera en el trayecto de las ondas. Con este objetivo, este trabajo de tesis presenta mejoras a este algoritmo de adquisición y de seguimiento con la mirada puesta en el problema a resolver. Se han diseñado secuencias PN adaptadas a las necesidades de la estructura multiresolutiva usando estrategias evolutivas [3,4] y algoritmos genéticos [5], pidiendo a las secuencias pseudoaleatorias más requisitos que los habituales en las secuencias PN. Por otro lado, también se ha diseñado un sistema de estimación de la calidad en la adquisición y de control basado en lógica difusa [6], que permita dar garantías de la robustez en la adquisición y a su vez, mejorar las prestaciones de la estructura reduciendo el coste computacional. Finalmente, se ha realizado un ajuste del funcionamiento de la estructura multiresolutiva, ajustándose los parámetros de aprendizaje de los filtros adaptativos para el canal ionosférico y añadiendo la prestación de funcionar como detector RAKE, que mejora la calidad de los datos demodulados. Estos nuevos diseños y mejoras se han contrastado con la estructura multiresolutiva original [1] y con otros algoritmos de adquisición adaptativos basados en filtros LMS [7,8] y se ha demostrado que las aportaciones realizadas en este trabajo permiten obtener un mejor rendimiento en las condiciones de transmisión abordadas. [1] J. A. Morán. Sistema ràpid d’adquisició per transmissió DS-SS sobre canal ionosfèric. Tesis Doctoral, Enginyeria i Arquitectura La Salle. Universitat Ramon Llull, Barcelona (España), 2001. [2] J.A. Morán, J.C. Socoró, X. Jové, J.L. Pijoan i F. Tarrés. Multiresolution Adaptive Structure for acquisition in DS-SS receivers. International Conference on Acoustics, Speech and Signal Processing (ICASSP). Salt Lake City (EUA), 2001. [3] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipiender biologischen Evolution. Frommann-Holzboog, Alemanya, 1973. [4] H.P. Schwefel. Evoluitonsstrategie und numerische Optimierung. Tesis Doctoral, Technische Universitat Berlin, Berlin (Alemanya), 1975. [5] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, 1989. [6] L.A. Zadeh. Fuzzy Sets. IEEE Trans. on Information and Control, 8:338–353, 1965. [7] M.G. El-Tarhuni. Application of Adaptive Filtering to Direct-Sequence Spread-Spectrum Code Synchronization. Tesis Doctoral, Carleton University, 1997. [8] M. Han, T. Yu, C. Kang i D. Hong. A New Adaptive Code-Acquisition Algorithm Using Parallel Subfilter Structure. IEEE Transactions on Vehicular Technology, 55(6):1790–1796, Noviembre 2006. / The multiresolutive structure proposed by Moran [1] attempts to reach a compromise between the computational cost of serial acquisition schemes and acquisition efficiency of parallel systems in direct-sequence spread spectrum acquisition. Acquisition and subsequent tracking are two key processes in the signal demodulation, since without proper synchronization demodulation is impossible. The multiresolutive structure in Moran’s first proposal showed a good performance on an ionospheric channel of 800km [2], but the problem we face now is more complex. A ionospheric radio channel from the Antarctica to Catalonia, 12700km in length, with worsen channel conditions due to distance and time variability of the ionosphere along the paths of the radio waves. This thesis presents improvements to this algorithm acquisition and tracking system in the aim of facing those hard channel conditions. PN sequences are designed to satisfy the needs of the multiresolutive structure [ABM05, AFSB07] using evolutionary strategies [3, 4] and genetic algorithms [5], through adding more requirements than is usually demanded. On the other hand, a fuzzy logic [6] control block has been implemented to estimate the quality of acquisition and control, evaluate the robustness of the acquisition and improve the performance of the structure by reducing its computational load. Finally, the multiresolutive structure has been adjusted, setting new values for the adaptive filter convergence parameters that refer to the ionospheric radio channel and improving the demodulated data using a RAKE detector. The new multiresolutive structure has been compared to the original multiresolutive structure [1] and to other LMS-based adaptive acquisition algorithms [7,8]. The results show that the new multiresolutive structure is competitive when comparing the original structure and also in relation to other adaptive acquisition algorithms found in state-of-the-art. [1] J. A. Morán. Sistema ràpid d’adquisició per transmissió DS-SS sobre canal ionosfèric. PhD Thesis, Enginyeria i Arquitectura La Salle. Universitat Ramon Llull, Barcelona (Espanya), 2001. [2] J.A. Morán, J.C. Socoró, X. Jové, J.L. Pijoan i F. Tarrés. Multiresolution Adaptive Structure for acquisition in DS-SS receivers. International Conference on Acoustics, Speech and Signal Processing (ICASSP). Salt Lake City (EUA), 2001. [3] I. Rechenberg. Evolutionsstrategie: Optimierung technischer Systeme nach Prinzipiender biologischen Evolution. Frommann-Holzboog, Alemanya, 1973. [4] H.P. Schwefel. Evoluitonsstrategie und numerische Optimierung. Tesi Doctoral, Technische Universitat Berlin, Berlin (Alemanya), 1975. [5] D. E. Goldberg. Genetic Algorithms in Search, Optimization and Machine Learning. Addison-Wesley, 1989. [6] L.A. Zadeh. Fuzzy Sets. IEEE Trans. on Information and Control, 8:338–353, 1965. [7] M.G. El-Tarhuni. Application of Adaptive Filtering to Direct-Sequence Spread-Spectrum Code Synchronization. PhD Thesis, Carleton University, 1997. [8] M. Han, T. Yu, C. Kang i D. Hong. A New Adaptive Code-Acquisition Algorithm Using Parallel Subfilter Structure. IEEE Transactions on Vehicular Technology, 55(6):1790–1796, November 2006.
27

Cortocircuitos en redes AT e impactos en distribución MT

Nicolau González, Guillermo 04 July 2012 (has links)
L’extensa implantació del control digital als entorns industrials, científics, comercials, professionals i domèstics ha revelat, d’ençà dues dècades, la gran sensibilitat d’aquests dispositius davant sobtats i breus descensos de tensió al subministrament elèctric de xarxa: aturades de plantes a processos productius, re – arrancades a processadors i sistemes de telecomunicació, etc.; i la causa sol esdevenir aparentment inexplicable pels usuaris. La normalització de les conseqüències, però, pot equivaler a un dia sencer de producció nul•la. L’ínfima correlació mostrada pels fenòmens esmentats amb anomalies al sistema elèctric proper (un client pot patir sèries conseqüències, per bé que el client veí només ha percebut una oscil•lació a l’enlluernat, i tots dos comparteixen la mateixa escomesa) sumada amb l’absència contrastada d’interrupció elèctrica suposà, al començament, un major grau d’incertesa, no només pels consumidors; també per a les empreses elèctriques. Fou necessari analitzar el problema en les seves vessants “microscòpica” i “macroscòpica” per a determinar la causa eficient: registrar la forma d’ona al punt de subministrament afectat i fer l’inventari de tots els incidents al Sistema Elèctric del mateix moment. La causa: els sots de tensió produïts per incidents elèctrics a xarxes remotes respecte el subministrament. Davallades sobtades (entre el 80 i el 10% del valor nominal) i ràpides (entre 10 ms i 1 s) al valor eficaç de la tensió subministrada, sense pas per “Zero”, produïdes, principalment, per curt - circuits perfectament detectats i eliminats a xarxes d’Alta Tensió (AT), molt allunyats de la conseqüència observada. A Catalunya, hom comptabilitzen afectacions davant curt - circuits a les interconnexions amb l’Aragó, Castelló i França. La present Tesi Doctoral estableix: • La metodologia per a modelar el Sistema Elèctric de Potència; • La sistematització del binomi causa (curt - circuit) – efecte (sot de tensió); • La personalització estadística de risc pel sot de tensió segons comarques; • Un sistema de protecció eficaç per a limitar la durada dels sots. La metodologia ha estat enfocada a la utilització sistemàtica, tal que per a cada curt - circuit esdevingut a la xarxa AT es pugui establir, en temps real, las capçaleres de subministrament afectades pel sot de tensió, així com la magnitud i la durada del mateix. L’entorn d’aplicació triat ha estat el Sistema Elèctric de Catalunya, per bé que la metodologia i sistemàtica són exportables, de forma natural, a qualsevol altre sistema elèctric trifàsic de corrent altern. / La implantación masiva del control digital en entornos industriales, científicos, comerciales, profesionales y domésticos ha puesto de manifiesto, durante los últimos veinte años, la gran sensibilidad de los mismos ante súbitos y breves descensos de tensión en la alimentación eléctrica procedente de la red: paradas de planta en procesos productivos, re – arranques en procesadores y sistemas de telecomunicación tienen lugar; y la causa de los mismos suele ser aparentemente inexplicable para los usuarios. La normalización de las consecuencias, en ocasiones, equivale a un día de producción nula. La escasa correlación mostrada por dichos fenómenos con anomalías en el sistema eléctrico cercano (un cliente padece consecuencias serias, mientras que el cliente vecino solamente ha percibido una oscilación en el alumbrado y ambos se alimentan del mismo tramo eléctrico) sumada con la ausencia contrastada de interrupción eléctrica supuso, en los inicios, un mayor grado de incertidumbre tanto para los consumidores como para las empresas eléctricas. Fue necesario analizar el problema a nivel “microscópico” y “macroscópico” para determinar la causa eficiente: registrar la forma de onda en el punto de suministro afectado y revisar todos los incidentes habidos en el Sistema Eléctrico en dicho instante. La causa: los huecos de tensión producidos por incidentes eléctricos en redes alejadas del suministro. Descensos súbitos (entre el 80 y el 10% del valor nominal) y rápidos (entre 10 ms y 1 s) en el valor eficaz de la tensión suministrada, sin paso por “cero” de la misma, producidos, principalmente, por cortocircuitos perfectamente detectados y eliminados en redes de Alta Tensión (AT), y situados muy lejos de la consecuencia observada. En el caso de Catalunya, se han contabilizado afectaciones ante cortocircuitos en interconexiones con Aragón, Castellón de la Plana y Francia. La presente Tesis Doctoral establece: • La metodología para modelar el Sistema Eléctrico de Potencia; • La sistematización para el binomio causa (cortocircuito) – efecto (hueco); • La personalización del riesgo estadístico de hueco vs. comarcas; • Un sistema protectivo eficaz para limitar duración de los huecos. Dicha metodología se ha orientado a la utilización sistemática, tal que para cada cortocircuito que tenga lugar en la red AT pueda establecerse, en tiempo real, las cabeceras de suministro afectadas por hueco de tensión, la magnitud y la duración del mismo. Como entorno de aplicación, se ha utilizado el Sistema Eléctrico de Catalunya, si bien la metodología y sistematización son exportables, de forma natural, a cualquier otro sistema eléctrico trifásico de corriente alterna. / The massive introduction of digital control in industrial, scientific, commercial, professional and domestic environments has revealed, over the last twenty years, the great sensitivity of them to sudden and short voltage dips in the electrical power grid: shutdowns of productive process plants, re - starts of processors and telecommunications systems take place, and the cause of them is often apparently inexplicable to the users. The normalization of the consequences sometimes is equivalent to a day without production. The weak correlation shown by these phenomena with anomalies in the nearby electrical system (i.e. in the same portion of a common distribution network, a customer may suffer serious consequences, while the adjacent customer has only percept a swing in the lighting) together with the absence of electrical power interruption represented, in the beginning, a great degree of uncertainty for both consumers and utilities. It was necessary to analyze the problem at the "microscopic" and "macroscopic" levels to determine the efficient cause: record the waveform at the affected plants and review all the disturbances occurred in the Power System at the same instant of time. The cause: voltage dips caused by electrical disturbances away from the supply. Sudden decreases (between 80 and 10% of the nominal value) and fast (between 10 ms and 1 s) in the supplied rms voltage, produced mainly by short-circuits perfectly detected and eliminated in High Voltage (HV) networks, and located far away from the observed consequence. In the case of Catalonia, affectations due to short-circuits in interconnects with Aragon, Castellón de la Plana and France have been recorded. This thesis provides: • A methodology useful to model the Power System; • A systematic analysis for cause – effect: from short – circuit to voltage dip; • A particularization voltage dip statistic risk for each county; • A reliable protective system to ensure time – limitation for voltage dips. The presented methodology is oriented to the systematic use, such that for every short - circuit that takes place in the HV network, the magnitude and duration of voltage dips that appear in the distribution can be established in real-time. As the application framework, the Catalan Power System is used, although the methodology and systematization are exportable, to any other alternating three-phase power system.
28

Metodología de los mapas de concordancia para la estratificación de variables cuantitativas: aplicación a la asignatura de Medidas Electrónicas

Badia Folguera, David 06 November 2012 (has links)
Es desenvolupa una metodologia que combina algoritmes exploratoris i iteratius que pren com a base el concepte de concordança del coeficient de correlació W de Kendall. A partir de conjunts complexos d'ítems i les seves puntuacions (activitats d'avaluació, problemes, pràctiques, indicadors de rendiment, mesuraments i, en general, qualsevol variable quantitativa) s'aconsegueixen identificar conjunts concordants, és a dir, estructures explicatives de la dificultat del conjunt de ítems. La lectura d'aquests conjunts es pot fer de dues maneres gràcies a la informació que proporcionen els algoritmes creats: a) Transversal, de manera que els conjunts concordants formen el "esquelet de dificultat" del problema i són, per tant, referències per estudiar la resta de puntuacions en altres ítems. b) Longitudinal, mitjançant l'estudi del que anomenem Mapes de Concordança, els quals mostren l'evolució dels conjunts concordants en anar incorporant elements en cada iteració, i detectant per tant els ítems discordants respecte a conjunts estables donats. L'aplicació d'aquesta metodologia és molt àmplia, i és susceptible de ser posada en pràctica en qualsevol camp de les ciències on es realitzin mesures i es vulgui observar les variacions creuades entre individus. En aquesta investigació s'aplica a l'assignatura de Laboratori de mesures electròniques. Els resultats aporten llum a la manera de millorar les pràctiques existents i de construir-ne de noves en el futur. / Se desarrolla una metodología que combina algoritmos exploratorios e iterativos que toma como base el concepto de concordancia del coeficiente de correlación W de Kendall. A partir de conjuntos complejos de ítems y sus puntuaciones (actividades de evaluación, problemas, prácticas, indicadores de rendimiento, mediciones y, en general, cualquier variable cuantitativa) se consiguen identificar conjuntos concordantes, es decir, estructuras explicativas de la dificultad del conjunto de ítems. La lectura de estos conjuntos puede hacerse de dos maneras gracias a la información que proporcionan los algoritmos creados: a) Transversal, de manera que los conjuntos concordantes forman el “esqueleto de dificultad” del problema y son, por tanto, referencias para estudiar el resto de puntuaciones en otros ítems. b) Longitudinal, mediante el estudio de lo que denominamos Mapas de Concordancia, los cuales muestran la evolución de los conjuntos concordantes al ir incorporando ítems en cada iteración, y detectando por tanto los ítems discordantes respecto a conjuntos estables dados. La aplicación de dicha metodología es muy amplia, siendo susceptible de ser puesta en práctica en cualquier campo de las ciencias donde se realicen mediciones y se quiera observar las variaciones cruzadas entre individuos. En la presente investigación se aplica a la asignatura de Laboratorio de medidas electrónicas. Los resultados arrojan luz sobre la manera de mejorar las prácticas existentes y de construir otras nuevas en el futuro. / We have developed a new methodology that combines both exploratory and iterative algorithms which is based on the concept of concordance of the correlation coefficient W of Kendall. Starting from complex sets of items and their scores (assessment activities, problems, practices, performance indicators, measurements and, in general, any quantitative variable) it is possible to identify consistent sets, i.e., structures that explain the difficulty of the set of items. Reading these sets can be done in two different ways thanks to the information provided by the algorithms created: a) Transversal, so that the concordant sets form the "backbone difficulty" of the problem and, therefore, they become references to study the remaining scores on other items. b) Longitudinal, by studying what we call concordance maps, which show the evolution of the consistent sets when new items are incorporated after each iteration and thus detecting the discordant items with regard to given stable sets. The application of this methodology is very broad, being useful in any field of science where measurements are carried out and you may want to see cross-variations among individuals. In this research it has been applied to the subject Electronic Measurements Laboratory. The results point to different ways to improve the existing practices and create new ones in the future.

Page generated in 0.1921 seconds