• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 367
  • 83
  • 46
  • 1
  • Tagged with
  • 497
  • 486
  • 125
  • 96
  • 77
  • 45
  • 44
  • 44
  • 42
  • 40
  • 40
  • 40
  • 40
  • 39
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
281

Energy-efficient wireless communication schemes and real-time middleware for machine-to-machine networks

Predojev, Tatiana 06 October 2014 (has links)
Esta tesis estudia sistemas Machine-to-Machine (M2M) en los que se ejecutan tareas de manera autónoma sin, o con mínima intervención humana. Los sistemas M2M están formados por dispositivos desplegados en un entorno que recolectan información relacionada con una tarea y la envían a aplicaciones para su proceso. Las aplicaciones optimizan estas tareas y responden a los dispositivos con comandos de control. Idealmente, después de configurar las políticas de tareas, los humanos son excluidos del lazo de control. Un importante caso de uso en M2M es la automatización de la red eléctrica, también conocido como Smart Grid, que se trata en esta tesis. Muchos escenarios M2M requieren dispositivos de bajo bitrate, bajo coste y que puedan ser fácilmente desplegables y mantenidos. Una solución adecuada son los dispositivos inalámbricos, alimentados por batería y de capacidades limitadas (con reducida potencia de procesado y memoria). Un bajo mantenimiento requiere años de vida, que sólo pueden conseguirse con protocolos de comunicación altamente eficientes energéticamente. En esta tesis nos centramos principalmente en las capas MAC y de enlace (especialmente en esquemas Cooperative Automatic Repeat Request) para mejorar la eficiencia energética de los dispositivos. Proponemos y evaluamos extensiones de Cooperative MAC para varios estándares como IEEE 802.11, IEEE 802.15.4 y sus revisiones MAC. El transmisor radio de los dispositivos puede ponerse en estado de reposo cuando está inactivo, llevando a cortos periodos de activación (duty-cycle) en dispositivos de bajo bitrate, consiguiendo así un ahorro energético considerable. Dado que la capa MAC controla los estados de reposo de los transmisores radio, los esquemas de Duty-Cycle MAC son el pilar de las comunicaciones energéticamente eficientes. Por ello, en esta tesis diseñamos, analizamos y evaluamos esquemas Cooperative and Duty-Cycled ARQ (CDC-ARQ). CDC-ARQ se basa en la (re)transmisión dinámica de paquetes (dynamic packet forwarding) dependiendo del estado del canal inalámbrico. Cuantificamos las ganancias considerando enlaces inalámbricos de baja potencia con modelos realistas, que sufren efectos de apantallamiento (shadowing) desvanecimientos (fading) de canal, y presentamos las condiciones bajo las cuales CDC-ARQ consiguen mejores resultados que las técnicas estándar de forwarding. Finalmente, determinamos estrategias óptimas de selección de enlace y retransmisión para direct, multi-hop y CDC-ARQ forwarding. Los esquemas de comunicación inalámbricos energéticamente eficientes son adecuados, por ejemplo, para automatización de edificios y hogar, contribuyendo a un buen uso de la energía eléctrica en dichos escenarios. Después de considerar el entorno de dispositivos, la tesis se centra en las aplicaciones, al otro lado de los sistemas M2M. Las aplicaciones típicamente intercambian datos sobre amplias zonas con varios dispositivos remotos. Las técnicas de computación distribuida, estandarizadas e implementadas en plataformas middleware para sistemas M2M, facilitan este intercambio de datos. Los requisitos de comunicación de estas aplicaciones son diversos en términos de latencia, número de actualizaciones, número de dispositivos asociados, etc. Mientras que las soluciones middleware existentes tales como ETSI M2M satisfacen los requisitos de ciertas aplicaciones, dichas soluciones son inadecuadas para los requisitos de latencia de transmisión en tiempo real. Esta tesis propone y analiza modificaciones del ETSI M2M que mejoran el rendimiento en tiempo real. El análisis se ejemplifica con tres aplicaciones Smart Grid, una relacionada con la automatización del hogar y edificios, y las otras dos con la monitorización y control del flujo de potencia de la red eléctrica. / This thesis studies emerging Machine-to-Machine (M2M) systems that execute automated tasks without, or with minimum human intervention. M2M systems consist of devices deployed in the field to collect task-related information and send it to remote applications for processing. The applications optimise the tasks and issue control commands back to the devices. Ideally, after configuring the task policies, humans are excluded from the control loop. A prominent and urgent M2M use case concentrates on the automation of the electric power grid, also known as Smart Grid, that is considered in the thesis. Many M2M scenarios require devices that are low-rate, low-cost and can be easily deployed and maintained. A fitting solution are wireless, battery-powered and resource-constrained devices (with limited processing power and memory). Low-maintenance requires years of lifetime, that can only be achieved with unprecedented energy efficiency of communication protocols. Specifically, we focus on the MAC and link layers in this thesis (especially on the Cooperative Automatic Repeat Request schemes) to improve the energy efficiency of the devices. Cooperative MAC extensions to the various standard technologies such as IEEE 802.11, IEEE 802.15.4 and its MAC amendments are proposed and evaluated. The radio transceiver of a device can be put to sleep state when inactive, yielding very low duty-cycles for low-rate devices, and thus achieving significant energy savings. Since the MAC layer controls the radio transceiver sleep states, duty-cycled MAC schemes are the cornerstone of the energy-efficient communication schemes. To that end, Cooperative and Duty-Cycled ARQ (CDC-ARQ) scheme has been designed, analysed and evaluated in this thesis. CDC-ARQ is based on dynamic packet forwarding depending on the current state of the wireless channel. The benefits are quantified by considering realistic wireless low-power links that experience shadowing and multipath fading channel effects. The conditions under which CDC-ARQ outperforms the standard forwarding techniques are presented. Finally, optimal link selection and retransmission strategies are determined for direct, multi-hop or CDC-ARQ forwarding. The studied energy-efficient wireless schemes are suitable e.g. for home and building automation which can contribute to the efficient use of the electric power in homes and buildings. After considering the device domain, the focus of this thesis turns to the applications at the other end of the M2M system. The applications typically exchange data over wide areas with many remote devices. Distributed computing techniques facilitate this data exchange, standardised and implemented in the middleware platform for M2M systems. The communication requirements of these applications are diverse in terms of data latency, update rate, number of associated devices etc. While the existing middleware solutions such as ETSI M2M fully support communication requirements of some applications, the solution is inadequate when it comes to the real-time latency constraint. Some suitable upgrades that improve the real-time performance of data exchange in ETSI M2M middleware are analysed in the thesis. The analysis is exemplified with three Smart Grid applications, one related to the home and building automation and the other two concerned with monitoring and control of the power flow in the electric grid.
282

Self-managed resources in network virtualisation environments

Mijumbi, Rashid 06 November 2014 (has links)
Network virtualisation is a promising technique for dealing with the resistance of the Internet to architectural changes, enabling a novel business model in which infrastructure management is decoupled from service provision. It allows infrastructure providers (InPs) who own substrate networks (SNs) to lease chunks of them out to service providers who then create virtual networks (VNs), which can then be re-leased out or used to provide services to end-users. However, the different VNs should be initialised, in which case virtual links and nodes must be mapped to substrate nodes and paths respectively. One of the challenges in the initialisation of VNs is the requirement of an efficient sharing of SN resources. Since the profitability of InPs depends on how many VNs are able to be allocated simultaneously onto the SN, the success of network virtualisation will depend, in part, on how efficiently VNs utilise physical network resources. This thesis contributes to efficient resource sharing in network virtualisation by dividing the problem into three sub-problems: (1) mapping virtual nodes and links to substrate nodes and paths i.e. virtual network embedding (VNE), (2) dynamic managing of the resources allocated to VNs throughout their lifetime (DRA), and (3) provisioning of backup resources to ensure survivability of the VNs. The constrained VNE problem is NP-Hard. As a result, to simplify the solution, many existing approaches propose heuristics that make assumptions (e.g. a SN with infinite resources), some of which would not apply in practical environments. This thesis proposes an improvement in VNE by proposing a one-shot VNE algorithm which is based on column generation (CG). The CG approach starts by solving a restricted version of the problem, and thereafter refines it to obtain a final solution. The objective of a one-shot mapping is to achieve better resource utilisation, while using CG significantly enhances the solution time complexity. In addition current approaches are static in the sense that after the VNE stage, the resources allocated are not altered for the entire lifetime of the VN. The few proposals that do allow for adjustments in original mappings allocate a fixed amount of node and link resources to VNs throughout their life time. Since network load varies with time due to changing user demands, allocating a fixed amount of resources based on peak load could lead to an inefficient utilisation of overall SN resources, whereby, during periods when some virtual nodes and/or links are lightly loaded, SN resources are still reserved for them, while possibly rejecting new VN requests. The second contribution of this thesis are a set of proposals that ensure that SN resources are efficiently utilised, while at the same making sure that the QoS requirements of VNs are met. For this purpose, we propose self-management algorithms in which the SN uses time-difference machine learning techniques to make autonomous decisions with respect to resource allocation. Finally, while some scientific research has already studied multi-domain VNE, the available approaches to survivable VNs have focused on the single InP environment. Since in the more practical situation a network virtualisation environment will involve multiple InPs, and because an extension of network survivability approaches from the single to multi domain environments is not trivial, this thesis proposes a distributed and dynamic approach to survivability in VNs. This is achieved by using a multi-agent-system that uses a multi-attribute negotiation protocol and a dynamic pricing model forming InPs coalitions supporting SNs resource backups. The ultimate objective is to ensure that virtual network operators maximise profitability by minimising penalties resulting from QoS violations. / La virtualització de xarxes es una tècnica prometedora per afrontar la resistència d'Internet als canvis arquitectònics, que permet un nou model de negoci en el que la gestió de la infraestructura de xarxa es desacobla de la provisió del servei. Això permet als proveïdors de infraestructura (InPs), propietaris de la xarxa física substrat (SN), llogar segments d'aquesta als proveïdors dels serveis, que crearan xarxes virtuals (VNs) que a l'hora poden re-llogar-se o utilitzar-se per donar servei a usuaris finals. No obstant això, les diferents VNs s'han d'inicialitzar assignant els seus nodes i enllaços als del substrat. Un dels reptes d'aquest procés es el requisit de fer un ús eficient dels recursos de la SN. Donat que el benefici d'un InP depèn del nombre de xarxes virtuals que puguin allotjar-se simultàniament en la SN, l'èxit de la virtualització de xarxes depèn en part de quan eficient es l’ús dels recursos de la xarxa física per part de les VNs. Aquesta Tesi contribueix a la millora de l’eficiència en la compartició de recursos en la virtualització de xarxes dividint el problema en tres sots problemes: (1) assignació de nodes i enllaços virtuals a nodes i enllaços del substrat (VNE), (2) gestió dinàmica dels recursos assignats a les VNs al llarg de la seva vida útil (DRA) i (3) aprovisionament de recursos de backup per assegurar la supervivència de les VNs. La naturalesa del problema VNE el fa “NP-Hard". En conseqüència, per simplificar la solució, moltes de les propostes son heurístiques que es basen en hipòtesis (per exemple, SN amb recursos il•limitats) de difícil compliment en escenaris reals. Aquesta Tesi proposa una millora al problema VNE mitjan_cant un algorisme “one-shot VNE" basat en generació de columnes (CG). La solució CG comena resolent una versió restringida del problema, per tot seguit refinar-la i obtenir la solució final. L'objectiu del “one-shot VNE" es aconseguir millorar l’ús dels recursos, mentre que CG redueix significativament la complexitat temporal del procés. D'altre banda, les solucions actuals son estàtiques, ja que els recursos assignats en la fase VNE no es modifiquen durant tot el temps de vida útil de la VN. Les poques propostes que permeten reajustar l’assignació inicial, es basen en una assignació fixe de recursos a les VNs. No obstant això, degut a que la càrrega de la xarxa varia a conseqüència de la demanda canviant dels usuaris, assignar una quantitat fixe de recursos basada en situacions de càrrega màxima esdevé en ineficiència per infrautilització en períodes de baixa demanda, mentre que en tals períodes de demanda baixa, el tenir recursos reservats, pot originar rebutjos de noves VNs. La segona contribució d'aquesta Tesi es un conjunt de propostes que asseguren l’ús eficient dels recursos de la SN, garantint a la vegada els requeriments de qualitat de servei de totes les VNs. Amb aquesta finalitat es proposen algorismes d’autogestió en els que la SN utilitza tècniques d'aprenentatge de màquines per a materialitzar decisions autònomes en l’assignació dels recursos. Finalment, malgrat que diversos estudis han tractat ja el problema VNE en entorn multi-domini, les propostes actuals de supervivència de xarxes virtuals s'han limitat a contexts d'aprovisionament per part d'un sol InP. En canvi, a la pràctica, la virtualització de xarxes comportarà un entorn d'aprovisionament multi-domini, i com que l’extensió de solucions de supervivència d'un sol domini al multi-domini no es trivial, aquesta Tesi proposa una solució distribuïda i dinàmica per a la supervivència de VNs. Això s'aconsegueix amb un sistema multi-agent que utilitza un protocol de negociació multi-atribut i un model dinàmic de preus per formar coalicions d'InPs que proporcionaran backups als recursos de les SNs. L'objectiu últim es assegurar que els operadors de xarxes virtuals maximitzin beneficis minimitzant les penalitzacions per violació de la QoS. / La virtualización de redes es una técnica prometedora para afrontar la resistencia de Internet a cambios arquitectónicos, que permite un nuevo modelo de negocio en el que la gestión de la infraestructura está desacoplada del aprovisionamiento del servicio. Esto permite a los proveedores de infraestructuras (InPs), propietarios de la red física subyacente (SN), alquilar segmentos de la misma a los proveedores de servicio, los cuales crearán redes virtuales (VNs), que a su vez pueden ser realquiladas o usadaspara proveer el servicio a usuarios finales. Sin embargo, las diferentes VNs deben inicializarse, mapeando sus nodos y enlaces en los del substrato. Uno de los retos de este proceso de inicialización es el requisito de hacer un uso eficiente de los recursos de la SN. Dado que el benecio de los InPs depende de cuantas VNs puedan alojarse simultáneamente en la SN, el éxito de la virtualización de redes depende, en parte, de cuan eficiente es el uso de los recursos de red físicos por parte de las VNs. Esta Tesis contribuye a la compartición eficiente de recursos para la virtualización de redes dividiendo el problema en tres sub-problemas: (1) mapeo de nodos y enlaces virtuales sobre nodos y enlaces del substrato (VNE), (2) gestión dinámica de los recursos asignados a las VNs a lo largo de su vida útil (DRA), y (3) aprovisionamiento de recursos de backup para asegurar la supervivencia de las VNs. La naturaleza del problema VNE lo hace “NP-Hard". En consecuencia, para simplificar la solución, muchas de las actuales propuestas son heurísticas que parten de unas suposiciones (por ejemplo, SN con recursos ilimitados) de difícil asumir en la práctica. Esta Tesis propone una mejora al problema VNE mediante un algoritmo “one-shot VNE" basado en generación de columnas (CG). La solución CG comienza resolviendo una versión restringida del problema, para después refinarla y obtener la solución final. El objetivo del “one-shot VNE" es mejorar el uso de los recursos, a la vez que con CG se reduce significativamente la complejidad temporal del proceso. Por otro lado,las propuestas actuales son estáticas, ya que los recursos asignados en la fase VNE no se alteran a lo largo de la vida útil de la VN. Las pocas propuestas que permiten reajustes del mapeado original ubican una cantidad fija de recursos a las VNs. Sin embargo, dado que la carga de red varía con el tiempo, debido a la demanda cambiante de los usuarios, ubicar una cantidad fija de recursos basada en situaciones de pico conduce a un uso ineficiente de los recursos por infrautilización de los mismos en periodos de baja demanda, mientras que en esta situación, al tener los recursos reservados, pueden rechazarse nuevas solicitudes de VNs. La segunda contribución de esta Tesis es un conjunto de propuestas para el uso eficiente de los recursos de la SN, asegurando al mismo tiempo la calidad de servicio de las VNs. Para ello se proponen algoritmos de auto-gestión en los que la SN usa técnicas de aprendizaje de máquinas para materializar decisiones autónomas en la asignación de recursos. Finalmente, aunque determinadas investigaciones ya han estudiado el problema multi-dominio VNE, las propuestas actuales de supervivencia de redes virtuales se han limitado a un entorno de provisión de infraestructura de un solo InP. Sin embargo, en la práctica, la virtualización de redes comportará un entorno de aprovisionamiento con múltiples InPs, y dado a que la extensión de las soluciones de supervivencia de un entorno único a uno multi-dominio no es trivial, esta Tesis propone una solución distribuida y dinámica a la supervivencia de VNs. Esto se consigue mediante un sistema multi-agente que usa un protocolo de negociación multi-atributo y un modelo dinámico de precios para conformar coaliciones de InPs para proporcionar backups a los recursos de las SNs. El objetivo último es asegurar que los operadores de VNs maximicen su beneficio minimizando la penalización por violación de la QoS.
283

Redesign Support Framework for Complex Technical Processes

López Arévalo, Iván 05 November 2005 (has links)
Els processos industrials requereixen avaluacions periòdiques per a verificar la seva correcta operació en termes tècnics i econòmics. Aquestes avaluacions són necessàries a causa de els canvis en els mercats i en la legislació ambiental i de seguretat. Per a satisfer aquestes demandes és necessari investigar les alternatives dels processos que permetin l'ús òptim dels recursos existents amb la mínima inversió econòmica possible. Aquesta tasca es coneix com redisseny, que és un procediment per a determinar possibles canvis en un procés existent per a millorar-lo pel en alguna mètrica, tal com econòmica, ambiental, de seguretat, etc. En aquesta tesi es proposa un marc d'ajuda al redisseny per a processos tècnics. Aquest marc fa ús d'una representació jeràrquica de models múltiples del procés que es re dissenyarà en conjunció amb un motor que raonament basat en casos per a ajudar a decidir quins elements del procés han de ser modificats. El marc consisteix en quatre etapes principals: adquisició de la descripció del disseny, identificació de candidats, generació d'alternatives, i adaptació i avaluació d'alternatives.El procés original es modela jeràrquicament emprant conceptes de mitjans-fins i parts-tot. Així el coneixement sobre el comportament, l'estructura, la funció i l'objectiu de cadascuna de les parts del procés es genera i s'emmagatzema automàticament. Donat les noves especificacions o requisits que el procés ha de satisfer, el sistema troba les parts del procés que ha de ser redissenyades. S'utilitza una llibreria de casos per a obtenir seccions alternatives del procés que es puguin adaptar per a substituir parts del procés original. Per tant, el marc proposat permet modelar el procés, identificar els components de procés viables a redissenyar, obtenir components alternatius i finalment adaptar aquests components alternatius en el procés original. Aquest procediment es pot veure com activitat d'enginyeria inversa on es generen models abstractes en diversos nivells a partir d'una descripció detallada d'un procés existent per a reduir la seva complexitat. El marc ha estat implementat i provat en el domini d'Enginyeria Química. / Los procesos industriales requieren evaluaciones periódicas para verificar su correcta operación en términos técnicos y económicos. Estas evaluaciones son necesarias debido a los cambios en los mercados y en la legislación ambiental y de seguridad. Para satisfacer estas demandas es necesario investigar las alternativas de los procesos que permitan el uso óptimo de los recursos existentes con la mínima inversión económica posible. Esta tarea se conoce como rediseño, que es un procedimiento para determinar posibles cambios en un proceso existente para mejorarlo con respecto a alguna métrica, tal como económica, ambiental, de seguridad, etc.En esta tesis se propone un marco de ayuda al rediseño para procesos técnicos. Este marco emplea una representación jerárquica de modelos múltiples del proceso que se rediseñará en conjunción con un motor que razonamiento basado en casos para ayudar a decidir qué elementos del proceso deben ser modificados. El marco consiste en cuatro etapas principales: adquisición de la descripción del diseño, identificación de candidatos, generación de alternativas, y adaptación y evaluación de alternativas. El proceso original se modela jerárquicamente empleando conceptos de medios-fines y partes-todo. Así el conocimiento sobre el comportamiento, la estructura, la función y el objetivo de cada una de las parte del proceso se genera y se almacena automáticamente. Dado las nuevas especificaciones o requisitos que el proceso debe satisfacer, el sistema encuentra las partes del proceso que debe ser rediseñadas. Se utiliza una librería de casos para obtener secciones alternativas del proceso que se puedan adaptar para sustituir partes del proceso original. Por lo tanto, el marco propuesto permite modelar el proceso, identificar los componentes de proceso viables a rediseñar, obtener componentes alternativos y finalmente adaptar estos componentes alternativos en el proceso original. Este procedimiento se puede ver como actividad de ingeniería inversa donde se generan modelos abstractos en diversos niveles a partir de una descripción detallada de un proceso existente para reducir su complejidad. El marco ha sido implementado y probado en el dominio de Ingeniería Química. / Industrial processes require periodic evaluations to verify their correct operation, both in technical and economical terms. These evaluations are necessary due to changes in the markets, and in safety and environmental legislation. In order to satisfy these demands it is necessary to investigate process alternatives that allow the optimal use of existing resources with the minimum possible investment. This task is known as redesign, which is a procedure to determine possible changes to an existing process in order to improve it with respect to some metric, such as economical, environmental, safety, etc.A redesign support framework for technical processes is proposed in this thesis. This framework employs a multiple-model hierarchical representation of the process to be redesigned together with a case-based reasoning engine that helps to decide which elements of the process should be modified. The framework consists of four main stages: acquisition of the design description, identification of candidates, generation of alternatives, and adaptation and evaluation of alternatives.The original process is modelled hierarchically exploiting means-end and part-whole concepts, and thus knowledge about the behaviour, structure, function and intention of each part of the process is automatically generated and stored. Given the new specifications or requirements that the process must fulfil, the system finds the parts of the process which must be redesigned and a case library is used to obtain alternative process sections which can be adapted to substitute parts of the original process. Therefore, the proposed framework allows to model the process, to identify process components suitable for redesign, to obtain alternative components, and finally, to adapt these components into the original process. This procedure can be seen as a reverse engineering activity where abstract models at different levels are generated from a detailed description of an existing process to reduce its complexity. The framework has been implemented and tested on the Chemical Engineering domain.
284

Actualització consistent de bases de dades deductives

Mayol Sarroca, Enric 03 April 2000 (has links)
En aquesta tesi, proposem un nou mètode per a l'actualització consistent de bases de dades deductives. Donada una petició d'actualització, aquest mètode tradueix de forma automàtica aquesta petició en el conjunt de totes les possibles formes d'actualitzar la base de dades extensional de forma que la petició sigui satisfeta i que no es violi cap restricció d'integritat. Aquest nostre mètode està basat en un conjunt de regles que defineixen la diferència entre dos estats consecutius de la base de dades. Aquesta diferència es determina definint explícitament les insercions, esborrats i les modificacions que es poden induir com a conseqüència de l'aplicació d'una actualització a la base de dades. El mètode està basat en una extensió del procediment de resolució SLDNF. Sigui D una base de dades deductiva, A(D) la base de dades augmentada associada, U una petició inicial d'actualització i T un conjunt d'actualitzacions de fets bàsics. Direm que el conjunt T satisfà la petició d'actualització U i no viola cap restricció d'integritat de D si, utilitzant la resolució SLDNF, l'objectiu  U  ¬Ic té èxit amb el conjunt d'entrada A(D)  T. Així doncs, el mètode consistirà en fer tenir èxit a les derivacions SLDNF fracassades. Per a fer-ho, s'inclouran al conjunt T aquelles actualitzacions de fets bàsics que cal realitzar per tal de que la derivació assoleixi l'èxit. Les diferent formes com es pot assolir aquest èxit es corresponen a les diferents solucions a la petició d'actualització U. El mètode proposat es demostra que és correcte i complet. En aquest sentit, es garanteix que donada una petició d'actualització U, el mètode obté totes les possibles formes de satisfer aquesta petició i que, a la vegada, se satisfacin les restriccions d'integritat definides a la base de dades. A diferència d'altres mètodes, el nostre gestiona les modificacions de fets com un nou tipus d'actualització bàsic. Aquest nou tipus d'actualització, junt amb la demostració de correctesa i completesa, és una de les principals aportacions del nostre mètode respecte els mètodes apareguts recentment. La segona gran aportació del nostre mètode és el fet d'utilitzar tècniques per a millorar l'eficiència del procés de traducció de vistes i del procés de manteniment de restriccions d'integritat. Per a millorar l'eficiència del procés de manteniment de restriccions d'integritat, proposem una tècnica per a determinar l'ordre en què cal comprovar les restriccions d'integritat. Aquesta tècnica està basada en la generació en temps de compilació del anomenat Graf de Precedències, el qual estableix les relacions entre violadors i reparadors potencials d'aquestes restriccions. Aquest Graf és utilitzat en temps d'execució per a determinar l'ordre en què es comproven i reparen les restriccions d'integritat. Aquest ordre redueix el nombre de vegades que cada restricció d'integritat ha de ser comprovada (i reparada) després de reparar qualsevol altre restricció. Per a millorar l'eficiència del procés d'actualització de vistes, proposem fer una anàlisi de la petició d'actualització, del contingut de la base de dades i de les regles de la base de dades augmentada abans d'iniciar la traducció de la petició d'actualització U. Aquesta anàlisi té com a objectiu el minimitzar el nombre d'accessos al contingut de base de dades que cal realitzar per a traduir la petició d'actualització, i per altra banda, aquesta anàlisi també ha de permetre determinar quines alternatives no podran donar lloc a una traducció vàlida a la petició U, permetent així, considerar únicament aquelles alternatives que sí proporcionaran una traducció vàlida a U. / Deductive databases generalize relational databases by including not only base facts and integrity constraints, but also deductive rules. Several problems may arise when a deductive database is updated. The problems that are addressed in this thesis are those of integrity maintenance and view updating. Integrity maintenance is aimed to ensure that, after a database update, integrity constraints remain satisfied. When these integrity constraints are violated by some update, such violations must be repaired by performing additional updates. The second problem we deal with is view updating. In a deductive database, derived facts are not explicitly stored into the database and they are deduced from base facts using deductive rules. Therefore, requests to update view (or derived) facts must be appropriately translated into correct updates of the underlying base facts. There is a close relationship between updating a deductive database and maintaining integrity constraints because, in general, integrity constraints can only be violated when performing an update. For instance, updates of base facts obtained as a result of view updating could violate some integrity constraint. On the other hand, to repair an integrity constraint could require to solve the view update problem when integrity constraint may be defined by some derived predicate.In this thesis, we propose a method that deals satisfactorily and efficiently with both problems in an integrated way. In this sense, given an update request, our method automatically translates it into all possible ways of changing the extensional database such that the update request is satisfied and no integrity constraint is violated. Concretely, we formally define the proposed method and we prove its soundness and completeness. The method is sound and complete in the sense that it provides all possible ways to satisfy an update request and that each provided solution satisfies the update request and does not violate any integrity constraint. Moreover, to compare how our method extends previous work in the area, we have proposed a general framework that allows us to classify and to compare previous research in the field of view updating and integrity constraint maintenance. This framework is based on taking into account five relevant dimensions that participate into this process, i.e. the kind of update requests, the database schema considered, the problem addressed, the solutions obtained and the technique used to obtain these solutions. Efficiency issues are also addressed in our approach, either for integrity maintenance as well as for view updating.To perform integrity maintenance efficiently, we propose a technique for determining the order in which integrity constraints should be handled. This technique is based on the generation at compile time of a graph, the Precedence Graph, which states the relationships between potential violations and potential repairs of integrity constraints. This graph is used at run-time to determine the proper order to check and repair integrity constraints. This order reduces significantly the number of times that each integrity constraint needs to be reconsidered after any integrity constraint repair. To improve efficiency during view updating, we propose to perform an initial analysis of the update request, the database contents and the rules of the database. The purpose of this analysis is to minimize the number of accesses to the base facts needed to translate a view update request and to explore only relevant alternatives that may lead to valid solutions of the update request. Furthermore, a detailed comparison with respect to some methods for integrity maintenance that consider efficiency issues is also provided, showing several contributions of our approach.
285

Introducing linguistic knowledge into statistical machine translation.

Gispert Ramis, Adrià 26 January 2007 (has links)
Aquesta tesi està dedicada a l'estudi de la utilització de informació morfosintàctica en el marc dels sistemes de traducció estocàstica, amb l'objectiu de millorar-ne la qualitat a través de la incorporació de informació lingüística més enllà del nivell simbòlic superficial de les paraules.El sistema de traducció estocàstica utilitzat en aquest treball segueix un enfocament basat en tuples, unitats bilingües que permeten estimar un model de traducció de probabilitat conjunta per mitjà de la combinació, dins un entorn log-linial, de cadenes d'n-grames i funcions característiques addicionals. Es presenta un estudi detallat d'aquesta aproximació, que inclou la seva transformació des d'una implementació d'X-grames en autòmats d'estats finits, més orientada a la traducció de veu, cap a l'actual solució d'n-grames orientada a la traducció de text de gran vocabulari. La tesi estudia també les fases d'entrenament i decodificació, així com el rendiment per a diferents tasques (variant el tamany dels corpora o el parell d'idiomes) i els principals problemes reflectits en les anàlisis d'error.La tesis també investiga la incorporació de informació lingüística específicament en aliniament per paraules. Es proposa l'extensió mitjançant classificació de formes verbals d'un algorisme d'aliniament paraula a paraula basat en co-ocurrències, amb resultats positius. Així mateix, s'avalua de forma empírica l'impacte en qualitat d'aliniament i de traducció que s'obté mitjançant l'etiquetatge morfològic, la lematització, la classificació de formes verbals i el truncament o stemming del text paral·lel.Pel que fa al model de traducció, es proposa un model de tractament de les formes verbals per mitjà d'un model de instanciació addicional, i es realitzen experiments en la direcció d'anglès a castellà. La tesi també introdueix un model de llenguatge d'etiquetes morfològiques del destí per tal d'abordar problemes de concordança. Finalment, s'estudia l'impacte de la derivació morfològica en la formulació de la traducció estocàstica mitjançant n-grames, avaluant empíricament el possible guany derivat d'estratègies de reducció morfològica. / This Ph.D. thesis dissertation addresses the use of morphosyntactic information in order to improve the performance of Statistical Machine Translation (SMT) systems, providing them with additional linguistic information beyond the surface level of words from parallel corpora.The statistical machine translation system in this work here follows a tuple-based approach, modelling joint-probability translation models via log-linear combination of bilingual n-grams with additional feature functions. A detailed study of the approach is conducted. This includes its initial development from a speech-oriented Finite-State Transducer architecture implementing X-grams towards a large-vocabulary text-oriented n-grams implementation, training and decoding particularities, portability across language pairs and tasks, and main difficulties as revealed in error analyses.The use of linguistic knowledge to improve word alignment quality is also studied. A cooccurrence-based one-to-one word alignment algorithm is extended with verb form classification with successful results. Additionally, we evaluate the impact in word alignment and translation quality of Part-Of-Speech, base form, verb form classification and stemming on state-of-art word alignment tools.Furthermore, the thesis proposes a translation model tackling verb form generation through an additional verb instance model, reporting experiments in English-to-Spanish tasks. Disagreement is addressed via incorporating a target Part-Of-Speech language model. Finally, we study the impact of morphology derivation on Ngram-based SMT formulation, empirically evaluating the quality gain that is to be gained via morphology reduction.
286

Evaluación de la calidad de los sitios web con información sanitaria en castellano

Conesa Fuentes, Mª Carmen 27 April 2010 (has links)
Se considera que Internet es la principal fuente de información científica y de salud en el mundo, convirtiéndose en uno de los medios más importantes para encontrar y publicar información.Una de las características de Internet es la facilidad para publicar información en la red, tanto información fiable como no,lo que hace que su calidad sea discutible. El objetivo principal de la presente investigación se basa, en conocer la calidad de los sitios web sanitarios mediante la aplicación de diferentes cuestionarios atendiendo a diferentes criterios. Es un estudio descriptivo transversal. La población diana u objeto, son los principales sitios web de información sanitaria incluyendo los sitios web institucionales.El grado de accesibilidad de los sitios web evaluados es muy bajo. Concretamente, sólo un 7,7% de los sitios web cumple la Prioridad 1, la Prioridad 2 la cumplió un sitio web y ningún sitio web cumplió la Prioridad 3.Ninguno de los sitios web evaluados alcanzó la puntuación máxima de calidad de los test aplicados: el test de Acreditación de la Agencia de salud de Andalucía, el código HonCode y el test de Bermúdez et al.La calidad de los sitios web sanitarios no es la que esperábamos, es mucho más baja. Igualmente ocurre con los servicios regionales de salud que no destacan del resto de sitios web sanitarios, por su calidad. Creemos que se debería de intervenir a través de un consenso de criterios básicos para sitios web sanitarios y a través del adiestramiento del usuario. / Internet is the main scientific and health information source in the world, becoming one of the most important means for finding and publishing information. A characteristic of Internet is the ability to publish information on the net, either reliable or not, which means that its quality is questionable. The main objective of the present research is based on knowing the quality of the health web pages through the use of several questionnaires attending to different criteria. It is a transveral descriptive study. Target or object population were the main health information web pages, including Health Institutional webs.The accesibility degree of the several web evaluated was very low. Concretely, only 7.7% of web sites complies with Priority 1, Priority 2 was completed for a web site and no site met the Priority 3. No web page evaluated reached the maximum quality socre on every test applied: test for Accreditation of Health Agency of Andalusia, the HONcode and Bermudez et al. test. Quality of our evaluated web pages was not as expected, because it was very much lower. Also applies to regional health services because they do not stand out from the rest of the other health websites for their quality.We believe that it should intervene through a consensus of basic standards for health web sites and through the training of the user.
287

Economics of Internet interdomain interconnections

De Castro Arribas, Ignacio 20 July 2015 (has links)
Aquesta tesi estudia els aspectes econòmics de la interconnexió entre Ases, identifica desafiaments que amenacen el futur d'Internet i proposa solucions per resoldre'ls. Primerament vam realitzar el primer estudi analític i empíric sobre el peering remot, un tipus emergent d'interconnexió que relaxa les limitacions geogràfiques dels Ases i facilita interconnexions a un menor cost. Després vam presentar CIPT i T4P, dos nous tipus d'interconnexions que redueixen els costos d'interconnexió entre xarxes. Ja que algunes de les limitacions són inherents a la present arquitectura d'Internet, vam finalitzar la tesi proposant Route Bazaar, una nova arquitectura d'Internet que, inspirada en el mecanisme de block chain i les eines criptogràfiques típiques de les criptomonedas, proveeix un marc contractual per realitzar tipus d'interconnexions molt flexibles. / Internet es un ecosistema en continua evolución. Formado por una multitud de redes o Sistemas Autónomos (Ases), los acuerdos de interconexión son una pieza esencial de Internet, que permite que los usuarios finales disfruten de conectividad global. La vertiginosa adopción de Internet, el desmesurado crecimiento de su trafico y las crecientes demandas por una mayor calidad de servicio son un desafío que produce constantes conflictos sobre los acuerdos económicos entre las redes y cuestiona la capacidad de Internet para proveer servicios críticos. Esta tesis estudia los aspectos económicos de la interconexión entre Ases, identifica desafíos que amenazan el futuro de Internet y propone soluciones para resolverlos. Primeramente realizamos el primer estudio analítico y empírico sobre el peering remoto, un tipo emergente de interconexión que relaja las limitaciones geográficas de los Ases y facilita interconexiones a un menor coste. Después presentamos CIPT y T4P, dos nuevos tipos de interconexiones que reducen los costes de interconexión entre redes. Puesto que algunas de las limitaciones son inherentes a la presente arquitectura de Internet, finalizamos la tesis proponiendo Route Bazaar, una nueva arquitectura de Internet que, inspirada en el mecanismo de block chain y las herramientas criptográficas típicas de las criptomonedas, provee un marco contractual para realizar tipos de interconexiones muy flexibles. / The Internet is an evolving ecosystem where a multitude of interconnected networks, or Ases (Autonomous Systems), support global connectivity of end users. By providing economic incentives for routing traffic on behalf of other networks, interconnection agreements between ASes are a cornerstone of the Internet. However, rapid Internet adoption, unrelenting traffic growth, and increasing demands for quality and performance are challenging to cope with, provoke recurrent conflicts over the economic settlement of interconnections, and question the capacity of the Internet to provide critical services. This thesis studies the economic aspects of the interconnections between ASes, identifies challenges hampering the future of the Internet, and proposes solutions to resolve them. We begin by presenting the first analytical and empirical study on remote peering, an emerging type of interconnections that relaxes the geographical constraints of ASes and also facilitates interconnections at a lower cost. Then we introduce CIPT and T4P, two novel interconnection arrangements that reduce traffic delivery costs for the ASes. Because some of the limitations are inherent to the current Internet architecture we end this thesis presenting Route Bazaar, a new Internet architecture that, inspired by the use of the block chain mechanism and cryptographic tools in cryptocurrencies, provides a contractual framework for flexible interconnections with rich policies.
288

Bioinformatics methods for the genomics and metabolomics analysis of immune-mediated inflammatory diseases

Alonso, Arnald 28 September 2015 (has links)
During the last decade, genomics have been widely used to the characterization of the molecular basis of common diseases. Genome-wide association studies (GWAS) have been highly successful in characterizing the genetic variation that influences human traits including the susceptibility to common diseases. In metabolomics, recent improvements of analytical technologies have enabled the analysis of complete metabolomic profiles. Using this approach, high-throughput metabolomics studies have already demonstrated a high potential for the discovery of disease biomarkers. The use of powerful high-throughput measurement technologies has resulted in the generation of large datasets of biological variation. In order to extract relevant biological information from this data, highly specialized bioinformatics methods are required. This thesis is focused on the development of new methodological tools to improve the processing of genomics and metabolomics high-throughput data. These new tools have been used in the analysis framework of the Immune-Mediated Inflammatory Diseases (IMIDs) Consortium. The IMID Consortium is a large Spanish network of biomedical researchers on autoimmune diseases, which holds one of the largest collections of biological samples from this group of diseases, as well as healthy controls. The first analysis tool that has been developed is a computationally efficient algorithm for simultaneous genotyping of single nucleotide polymorphisms (SNPs) and copy number variants (CNVs) using microarray data. This bioinformatics tool, called GStream, integrates the genotyping of both types of genomic variants into a single processing pipeline. We demonstrate that the developed algorithms provide a significant increase in genotyping accuracy and call rate when compared to previous algorithms. Using GStream, the researchers performing large-scale GWASs will not only benefit from the combined and fast genotyping of SNPs and CNVs but, more importantly, they will also improve the accuracy and therefore the statistical power of their studies. The second tool that was developed during this thesis was FOCUS, a bioinformatics framework that provides a complete data analysis workflow for high-throughput metabolomics studies based on one-dimensional nuclear magnetic resonance (NMR). FOCUS workflow includes quality control, peak alignment, peak picking and metabolite identification. The algorithms included in FOCUS were designed to overcome several technical challenges that can dramatically affect the quality of the results. FOCUS allows users to easily obtain high-quality NMR feature matrices, which are ready for chemometric analysis, as well as metabolite identification scores for each peak that greatly simplify the biological interpretation of the results. When tested against previous NMR data processing methodologies, FOCUS clearly showed a superior performance, even in datasets with high levels of spectral unalignment. he final research work included in this thesis is a GWAS in Crohn's disease (CD) clinical phenotypes. CD is the most prevalent chronic inflammatory disease of the bowel, and is characterized by segmental and transmural inflammation of the gastrointestinaltract. CD is a highly heterogeneous disease, with patients showing different degrees of severity. The identification of the genetic basis associated with disease severity is therefore a major objective in CD translational research. The present PhD thesis includes the first GWAS of clinically relevant phenotypes in CD. A total of 17 phenotypes associated with different clinical complications were analyzed. In this study, we identified new genetic regions significantly associated to complicated disease course, disease location, mild disease course, and erythema nodosum. These findings are of high relevance since they show the existence of a genetic component for disease heterogeneity that is independent of the genetic variation associated with susceptibility to CD. / Durant la darrera dècada, la genòmica ha jugat un paper clau en la caracterització de la base molecular de les malalties complexes. Els estudis d'associació de genoma complet (GWAS) han permès caracteritzar les regions genètiques que influencien fenotips humans tals com la susceptibilitat a desenvolupar malalties complexes. En metabolòmica, millores en les tecnologies analítiques han impulsat l'obtenció de perfils metabolòmics en grans cohorts de mostres. Els estudis resultants han demostrat també un gran potencial per a identificar biomarcadors d'utilitat en malalties humanes. L'aplicació de les tecnologies high-throughput permet generar grans conjunts de dades de variació biològica i l'extracció de la informació rellevant requereix l'aplicació de potents eines bioinformàtiques. Aquesta tesi es centra en el desenvolupament de nous mètodes per a millorar i agilitzar el processat de dades genòmiques i metabolòmiques high-throughput, així com la seva posterior implementació en forma d'aplicacions bioinformàtiques. Aquestes aplicacions s'han incorporat al flux d'anàlisi del consorci IMID (malalties inflamatòries mediades per immunitat). Aquest consorci és una xarxa espanyola d'investigadors biomèdics amb l'interès comú de l'estudi de malalties autoimmunes i disposa d'una de les col·leccions de mostres més extenses de pacients d'aquestes malalties. La primera eina bioinformàtica implementada consisteix en un conjunt d'algoritmes que integren el genotipat de polimorfismes de nucleòtid simple i variacions de nombre de còpies sobre dades de microarrays de genotipat. Aquesta eina, anomenada GStream, incorpora de forma eficient tot el flux d'anàlisi necessari per al genotipat en GWAS. S'ha demostrat que els algoritmes desenvolupats milloren significativament la precisió del genotipat i augmenten el nombre de variants genètiques identificades respecte a les metodologies anteriors. La utilització d'aquesta eina permet doncs ampliar el nombre de variants genètiques analitzades, incrementant de forma significativa el poder estadístic dels estudis genètics GWAS. La segona eina desenvolupada ha estat FOCUS. Es tracta d'una eina bioinformàtica integrada que inclou totes les etapes de processat d'espectres de ressonància magnètica nuclear per a estudis de metabolòmica. El flux d'anàlisi inclou el control de qualitat, l'alineament/quantificació de pics espectrals i la identificació dels metabolits associats als pics quantificats. Tots els algoritmes han estat dissenyats per a corregir els biaixos que limiten considerablement la qualitat dels resultats i que són un dels reptes tècnics de la metabolòmica actual. FOCUS obté una matriu numèrica d'alta qualitat llesta per a l'anàlisi quimiomètric, i genera uns scores d'identificació que simplifiquen la interpretació biològica dels resultats. FOCUS ha assolit un rendiment significativament superior al de metodologies prèvies. Aquesta tesi conclou amb el primer GWAS de fenotips clínics de malaltia de Crohn. Aquesta malaltia IMID és la malaltia inflamatòria intestinal de major prevalença i és molt heterogènia, amb pacients que presenten graus molt diferents de gravetat. La identificació de variants genètiques associades als fenotips d'aquesta malaltia és, per tant, un dels objectius més rellevants per a la investigació translacional. Un total de 17 fenotips han estat analitzats utilitzant cohorts de descobriment i validació per tal d'identificar i replicar loci de risc associats a cadascun d'ells. Els resultats de l'estudi han permès identificar, per primer cop, regions genètiques associades a l'evolució de la malaltia i a la seva localització. Aquests resultats són de gran rellevància ja que no tan sols han permès identificar noves vies biològiques associades a fenotips clínics, sinó que també demostren, per primer cop, la existència d'un component genètic de la heterogeneïtat a la malaltia de Crohn i que és independent de la variació genètica associada al risc de patir la malaltia.
289

Priority realloc : a threefold mechanism for route and resources allocation in EONs

Dantas, Joana Sócrates 17 July 2015 (has links)
Cotutela Universitat Politècnica de Catalunya i Escola Politécnica da Universidade de São Paulo / Backbone networks are responsible for long-haul data transport serving many clients with a large volume of data. Since long-haul data transport service must rely on a robust high capacity network the current technology broadly adopted by the industry is Wavelength Division Multiplexing (WDM). WDM networks enable one single fiber to operate with multiple high capacity channels, drastically increasing the fiber capacity. In WDM networks each channel is associated with an individual wavelength. Therefore a whole wavelength capacity is assigned to a connection, causing waste of bandwidth in case the connection bandwidth requirement is less than the channel total capacity. In the last half decade, Elastic Optical Networks (EON) have been proposed and developed based on the flexible use of the optical spectrum known as the flexigrid. EONs are adaptable to clients requirements and may enhance optical networks performance. For these reasons, research community and data transport providers have been demonstrating increasingly high interest in EONs which are likely to replace WDM as the universally adopted technology in backbone networks in the near future. EONs have two characteristics that may limit its efficient resources use. The spectrum fragmentation, inherent to the dynamic EON operation, decreases the network capacity to assign resources to connection requests increasing network blocking probability. The spectrum fragmentation also intensifies the denial of service to higher rate request inducing service unfairness. Due to the fact EONs were just recently developed and proposed, the aforementioned issues were not yet extensively studied and solutions are still being proposed. Furthermore, EONs do not yet provide specific features as differentiated service mechanisms. Differentiated service strategies are important in backbone networks to guarantee client's diverse requirements in case of a network failure or the natural congestion and resources contention that may occur at some periods of time in a network. Impelled by the foregoing facts, this thesis objective is three-fold. By means of developing and proposing a mechanism for routing and resources assignment in EONs, we intend to provide differentiated service while decreasing fragmentation level and increasing service fairness. The mechanism proposed and explained in this thesis was tested in an EON simulation environment and performance results indicated that it promotes beneficial performance enhancements when compared to benchmark algorithms. / Redes backbone sao responsáveis pelo transporte de dados à longa distância que atendem a uma grande quantidade de clientes com um grande volume de dados. Como redes backbone devem basear-se em uma rede robusta e de alta capacidade, a tecnologia atual amplamente adotada pela indústria é Wavelength Division Multiplexing (WDM). Redes WDM permitem que uma única fibra opere com múltiplos canais de alta largura de banda, aumentando drasticamente a capacidade da fibra. Em redes WDM cada canal está associado a um comprimento de onda particular. Por conseguinte, toda capacidade do comprimento de onda é atribuída a uma única conexão, fazendo com que parte da largura de banda seja desperdiçada no caso em que a requisição de largura de banda da conexão seja menor do que a capacidade total do canal. A partir da metade da última década, as Redes Ópticas Elásticas (Elastic Optical Networks - EON) têm sido propostas e desenvolvidas com base no uso flexível do espectro óptico conhecido como flexigrid. EONs são adaptáveis às requisiçes por banda dos clientes e podem, portanto, melhorar o desempenho das redes ópticas. Por estas razões, EONs têm recebido cada vez mais interesse dos meios de pesquisa e provedores de serviço e provavelmente substituirão WDM como a tecnologia universalmente adotada pela indústria em redes backbone. EONs têm duas características que podem limitar a utilização eficiente de recursos. A fragmentação do espectro, inerente à operação dinâmica das EONs, pode diminuir a capacidade da rede em distribuir recursos ao atender às solicitações por conexões aumentando a probabilidade de bloqueio na rede. A fragmentação do espectro também intensifica a negação de serviço às solicitações por taxa de transmissão mais elevada, gerando injustiça no serviço prestado. Como EONs foram desenvolvidas recentemente, respostas às questões acima mencionadas ainda estão sob estudo e soluções continuam sendo propostas na literatura. Além disso, EONs ainda não fornecem funções específicas como um mecanismo que proveja diferenciação de serviço. Estratégias de diferenciação de serviço são importantes em redes backbone para garantir os diversos requisitos dos clientes em caso de uma falha na rede ou do congestionamento e disputa por recursos que podem ocorrer em alguns períodos em uma rede. Impulsionada pelos fatos anteriormente mencionados, esta tese possui três objetivos. Através do desenvolvimento e proposta de um mecanismo de roteamento e atribuição de recursos para EONs, temos a intenção de disponibilizar diferenciação de serviço, diminuir o nível de fragmentação de espectro e aumentar a justiça na distribuição de serviços. O mecanismo proposto nesta tese foi testado em simulações de EONs. Resultados indicaram que o mecanismo proposto promove benefícios através do aprimoramento da performance de uma rede EON quando comparado com algoritmos de referência. / Les xarxes troncals son responsables per el transport de dades a llarga distància que serveixen a una gran quantitat de clients amb un gran volum de dades. Com les xarxes troncals han d'estar basades en una xarxa robusta i d'alta capacitat, la tecnologia actual àmpliament adoptada per la indústria és el Wavelength Division Multiplexing (WDM). Xarxes WDM permeten operar amb una sola fibra multicanal d'alt ample de banda, el que augmenta molt la capacitat de la fibra. A les xarxes WDM cada canal est a associat amb una longitud d'ona particular. En conseqüència, tota la capacitat del canal es assignada a una sola connexió, fent que part dels recurs siguin perduts en el cas en que l'ample de banda sol licitada sigui menys que la capacitat total del canal. A gairebé deu anys les xarxes òptiques elàstiques (Elastic Optical Networks -EON) son propostes i desenvolupades basades en el ús visible de l'espectre òptic conegut com Flexigrid. EONs són adaptables a les sol·licituds per ample de banda dels clients i per tant poden millorar el rendiment de les xarxes òptiques. Per aquestes raons, EONs han rebut cada vegada més interès en els mitjans d’investigació i de serveis i, probablement, han de reemplaçar el WDM com la tecnologia universalment adoptada en les xarxes troncals. EONs tenen dues característiques que poden limitar l'ús eficient dels recursos seus. La fragmentació de l'espectre inherent al funcionament dinàmic de les EONs, pot disminuir la capacitat de la xarxa en distribuir els recursos augmentant la probabilitat de bloqueig de connexions. La fragmentació de l'espectre també intensifica la denegació de les sol·licituds de servei per connexions amb una major ample de banda, el que genera injustícia en el servei ofert. Com les EONs s'han desenvolupat recentment, solucions als problemes anteriors encara estan en estudi i les solucions segueixen sent proposades en la literatura. D'altra banda, les EONs encara no proporcionen funcions especifiques com mecanisme de diferenciació de provisió de serveis. Estratègies de diferenciació de servei són importants en les xarxes troncals per garantir les diverses necessitats dels clients en cas d'una fallada de la xarxa o de la congestió i la competència pels recursos que es poden produir en alguns períodes. Impulsada pels fets abans esmentats, aquesta tesi te tres objectius. A través del desenvolupament i proposta d'un mecanisme d'enrutament i assignació de recursos per EONs, tenim la intenció d'oferir la diferenciació de serveis, disminuir el nivell de fragmentació de l'espectre i augmentar l'equitat en la distribució dels serveis. El mecanisme proposat en aquesta tesi ha estat provat en simulacions EONs. Els resultats van indicar que el mecanisme promou millores en el rendiment de la EON, en comparació amb els algoritmes de referència.
290

Descripción y evaluación de un sistema basado en reglas para la extracción automática de contextos definitorios

Alarcón Martínez, Rodrigo 28 September 2009 (has links)
Material addicional: http://hdl.handle.net/10230/6295 / El desarrollo de herramientas computacionales de ayuda en tareas lexicográficas y terminográficas es un creciente interés dentro del campo del procesamiento del lenguaje natural. Algunas herramientas se han desarrollado para la extracción automática de términos en textos especializados. Además, algunos estudios se han enfocado en el desarrollo de métodos para adquirir conocimiento definitorio sobre términos, tomando en cuenta la idea de que los términos suelen definirse en estructuras denominadas contextos definitorios, donde se emplean una serie de patrones que pueden ser reconocidos automáticamente. Partiendo de esta premisa, en esta tesis presentamos un sistema basado en reglas lingüísticas para la extracción de contextos definitorios sobre textos especializados en español. Este sistema esta formado por cuatro procesos: la extracción de ocurrencias de patrones definitorios; el filtro de contextos no relevantes; la identificación de los elementos constitutivos en los candidatos, es decir, el término y la definición; y la organización jerárquica de los resultados con el fin de encontrar los mejores candidatos. / The development of computational tools to help on lexicography and terminography tasks is indeed a growing interest on natural language processing field. Some tools have been developing for the extraction of terms from specialised texts. In addition, some studies have been focused on developing methods for acquiring definitional knowledge about terms, considering that the terms are commonly defined in structures called definitional contexts, which employ some patterns that can be automatically identified. Taking into account this premise, in this thesis we present a system based on linguistic rules for the extraction of definitional contexts in Spanish specialised texts. The system includes four processes: the extraction of textual fragments with definitional patterns; the filtering of non-relevant contexts; the identification of the constituent elements in the candidates, i.e., terms and definitions; and the ranking of the results to identify the best candidates.

Page generated in 0.1022 seconds