• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 15
  • 5
  • 5
  • 4
  • Tagged with
  • 61
  • 44
  • 34
  • 33
  • 16
  • 16
  • 13
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contribución al estudio y diseño de mecanismos avanzados de servicio de flujos semi-elásticos en internet con garantías de calidad de servicio extremo a extremo

Postigo Boix, Marcos 25 April 2003 (has links)
Los servicios y aplicaciones ofrecidos en Internet demandan, con mayor frecuencia, un determinado nivel de servicio para su correcto funcionamiento. Esto supone el desarrollo de mecanismos que permitan ofrecer calidad de servicio diferenciada entre extremos distantes de la red. En una red con estas características el coste debido al uso de este servicio diferenciado es mayor que el de utilizar el modo tradicional de transferencia best-effort. Ello obliga a los usuarios a realizar un uso responsable de los recursos reservados. Por tanto, será crucial reservar sólo aquellos recursos estrictamente necesarios para lograr un mínimo coste.En este trabajo de Tesis Doctoral, se aborda el problema de minimizar los recursos reservados para una transmisión de un flujo semi-elástico. Este tipo de flujo se caracteriza por necesitar la reserva de más o menos recursos en función del estado de la red, por lo que se plantea el diseño de un sistema cliente-servidor capaz de realizar de forma automática las reservas estrictamente necesarias. Para ello, se propone un mecanismo de control de la ocupación de la memoria del cliente que permite determinar los periodos en que es necesario utilizar un modo de transferencia best-effort (aquellos en los que la ocupación garantiza la disponibilidad de datos en recepción), y los periodos en que se necesita un modo de transferencia con reserva de recursos para garantizar el llenado de dicha memoria. Del análisis de este mecanismo, se deducen expresiones para el coste de transmisión en función de los diversos parámetros que afectan a la ocupación de la memoria del cliente. De estos parámetros destaca especialmente la tasa de llegada de datos, que depende del estado de la red, y el umbral máximo de ocupación que indica cuándo se puede transmitir en modo best-effort. Gracias al correcto dimensionado de este umbral máximo, el cliente es capaz de minimizar los recursos reservados de la red. Para calcular este umbral, uno de los problemas que se plantea es la necesidad de una estimación inicial de la tasa de llegada de datos en modo best-effort. Para ello, se propone el uso de un umbral inicial que permita pasar a modo best-effort y realizar así, la estimación de esta tasa. Por otra parte, se propone también el uso de un mecanismo que mejora la minimización del coste de transmisión cuando la variabilidad de la tasa de llegada de paquetes en modo best-effort es grande, sin incrementar desmesuradamente la cantidad de señalización asociada necesaria.Finalmente, se propone un mecanismo para dar servicio de forma simultánea a varios clientes. Concretamente, se estudia mediante simulación un caso homogéneo, donde todos los clientes presentan los mismos requisitos. El esquema propuesto permite dar servicio simultáneo a un número determinado de clientes reservando recursos, mientras que el resto se sirve en modo best-effort. Del estudio se determina la existencia de un valor óptimo para el número de clientes a los que se da servicio en modo de reserva de recursos, que minimiza la señalización extra necesaria para gestionar el servicio.Asimismo, como complemento adicional para realizar este trabajo, se ha desarrollado una implementación del sistema cliente servidor de flujos semi-elásticos en el simulador ns-2, y además otra implementación real en lenguaje C sobre sistema Linux. / Internet services and applications are increasingly demanding appropriate levels of service for their adequate operation. That supposes the development of new mechanisms to allow end-to-end differentiated quality of service. In these networks, the cost of using this differentiated service is consequently higher than the employment of the well-known best-effort delivery mode, which requires users to make a responsible use of the reserved resources. Therefore, it is essential to reserve only those resources strictly necessary to achieve the minimum cost.This Thesis work deals with the problem of minimizing reserved resources in a semi-elastic flow transmission. This type of flow is characterized for requiring the reservation of more or less resources depending on network conditions, and for this reason, it is considered the design of a client-server system to reserve automatically the required demanded resources. Hence, it is proposed a method to control the client memory occupancy that determines when it is necessary to use a best-effort delivery mode (those periods when occupancy guarantees data availability in the client side), and when to use a resource reservation delivery mode to guarantee enough data entering into the client memory. From the analysis of this method, it is deduced the transmission cost, which depends on several parameters directly involved with client memory occupancy. Among these parameters, the delivery data rate and the maximum occupancy threshold, that indicates when it is possible to send data using best-effort mode, are the most significant ones. Thanks to the correct dimensioning of this maximum threshold, the client is able to minimize reserved network resources. To calculate this threshold, it is necessary to acquire an initial estimate for the best-effort delivery rate. To achieve this, it is proposed the use of an initial threshold to force a change to best-effort mode to obtain this estimate. In addition, it is proposed the use of a mechanism to improve the minimization cost for high delivery rate variability, without excessively increasing the signalling associated to the switching of transmission modes.Finally, it is proposed a method to serve simultaneously various clients. A homogeneous case is studied by simulation, in which all clients have the same requirements. This method allows a particular number of clients to be served by reserving resources, while the rest use best-effort mode. From this study, it is determined the existence of an optimum value for the number of simultaneous clients to be served by using resource reservation, that minimizes extra signalling to manage this service.Furthermore, as an aid to complement this research work, it has been developed an implementation of a client-server system for semi-elastic flows using ns-2, and additionally, a real implementation using C programming language in a Linux system.
32

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).
33

Auslegung und Optimierung einer Bestrahlungseinrichtung für die Bor-Neutroneneinfangtherapie an autotransplantierten Organen

Wortmann, Birgit 11 January 2018 (has links) (PDF)
Es besteht ein großer Bedarf an einer Therapie für Krebserkrankungen mit diffusen, nicht operablen Metastasen an vitalen Organen. Bei Metastasenbildung werden die Patienten im Allgemeinen nicht für eine Transplantation mit Spenderorganen vorgesehen. Das bedeutet, bei Nichtansprechen einer Chemotherapie gibt es derzeit keine Therapiealternative für diese Patienten. Wenn eine Transplantation der betroffenen Organe möglich ist, besteht eine Chance für die Anwendung eines neuen therapeutischen Konzeptes. Dieses Konzept basiert auf der Bestrahlung des isolierten Organs (Autotransplantation) mittels der Bor-Neutronen-Einfang-Therapie (BNCT). Das betreffende Organ des Patienten wird dabei zeitweise explantiert und in diesem Zeitraum einer Bestrahlungstherapie unterzogen. Diese Therapieform erfordert kein Spenderorgan und es kann dementsprechend auch zu keinen Abstoßungsreaktionen des Immunsystems durch körperfremdes Gewebe kommen. Erstmalig wurde dieses Verfahren im Dezember 2001 an der Universität Pavia an einem Patienten erfolgreich durchgeführt und damit die prinzipielle Machbarkeit belegt. Bis heute wurde in Pavia noch ein weiterer Patient mit diesem Verfahren behandelt. Nach diesen ersten Heilungsversuchen ist es jetzt erforderlich den therapeutischen Nutzen der Methode reproduzierbar nachzuweisen und diese dann für die Routineanwendung verfügbar zu machen. Das ist eine wesentliche Voraussetzung für die erfolgreiche Einführung dieser Therapieform. Im Rahmen dieser Arbeit soll eine für diese Therapieform optimierte Bestrahlungseinrichtung entwickelt werden. Als Referenzorgan wird die Leber betrachtet, aufgrund ihrer hohen Wahrscheinlichkeit für eine Metastasenbildung, des Mangels an Spenderorganen und fehlender Therapiealternativen. Als geeignete Referenzneutronenquelle bietet sich der TRIGA-Reaktor an. Für diesen Reaktortyp wird die Bestrahlungseinrichtung mit technischen Details und Abmessungen konzipiert.
34

Einfluss der Strahlenqualität auf die Adaptive Antwort nach Bestrahlung von Schilddrüsenzellen mit offenen Radionukliden und externer Bestrahlung

Schweitzer, Susanne 24 October 2017 (has links) (PDF)
Der Umgang mit ionisierender Strahlung in der medizinischen Diagnostik und Therapie ge-winnt ständig an Bedeutung. Welche Auswirkungen dabei geringe Dosen ionisierender Strahlung auf biologische Systeme haben, ist daher relevant und Gegenstand der Forschung. Die Adaptive Antwort kann in der Strahlenbiologie den Niedrig-Dosis-Effekten zugeordnet werden. Dieser Effekt, der auch als Präkonditionierung bezeichnet wird, beschreibt den protektiven Effekt, den eine niedrig dosierte Vorbestrahlung auf eine hoch dosierte Folgebestrahlung hat. Die Adaptive Antwort lässt sich beispielsweise durch Reduzierung von DNA-Schäden oder ein verbessertes Zellüberleben nachweisen. Die protektive Wirkung vor einer hohen Dosis tritt nur in einem begrenzten Zeitfenster zur Vorbestrahlung auf. In dieser Arbeit erfolgte der Nachweis der Adaptiven Antwort an Rattenschilddrüsenzellen, die über einen Natriumiodidsymporter (NIS) verfügen. Nach einer niedrig dosierten Vorbestrahlung und einem bestimmten Erholungsintervall erfolgte dazu jeweils eine zweite Bestrahlung mit einer therapeutisch wirksamen Dosis. Als biologischer Endpunkt wurde das klonogene Zellüberleben (Koloniebildungstest) gewählt. Die Bestrahlung erfolgte mit Röntgenstrahlung und 99mTc. Das 99mTc wird über den NIS in die Zellen aufgenommen. Diese intrazelluläre Radionuklidaufnahme kann durch Zugabe von Perchlorat fast vollständig blockiert werden. So konnte mit 99mTc sowohl ein intrazellulärer als auch ein extrazellulärer Bestrahlungsmodus realisiert werden. Durch die Untersuchung des Uptakes wurde jeweils das Ausmaß der intrazellulären Radionuklidaufnahme bestimmt. Ziel dieser Arbeit war es, die Adaptive Antwort durch Kombination und Variation der Bestrahlungssequenzen Rönt-genstrahlung, 99mTc und 99mTc mit Perchlorat nachzuweisen. Zur Einschätzung der Radiotoxizität wurden Dosis-Wirkungs-Kurven der Bestrahlungsmoda-litäten erstellt. Dabei konnten linear-quadratische bzw. lineare Dosis-Wirkungs-Beziehungen nachgewiesen werden. Die intrazelluläre Aufnahme von 99mTc führte im Vergleich zur extra-zellulären Bestrahlung durch Inkubation mit Perchlorat bei gleichen Aktivitätskonzentrationen zu stark verminderten Überlebensfraktionen. Die Ergebnisse wurden verwendet, um geeignete Dosisbereiche zum Nachweis der Adaptiven Antwort zu ermitteln. Die Adaptive Antwort wurde zunächst durch zweimalige Bestrahlung durch die gleiche Strah-lenqualität nachgewiesen. Für Röntgenstrahlung, 99mTc und 99mTc mit Perchlorat wurden je-weils die Vorbestrahlungsdosen von 0,01 Gy bis 0,75 Gy und die Erholungszeiten von 2 h bis 24 h untersucht. Nachbestrahlt wurde bei Röntgenstrahlung und 99mTc mit 2 Gy und bei 99mTc mit Perchloratinkubation mit 1 Gy. Der Nachweis eines höheren Zellüberlebens durch die Vorbestrahlung gelang bei allen drei Bestrahlungsmodalitäten. Die Adaptive Antwort war jeweils bei 0,025 Gy und 0,05 Gy Vorbestrahlungsdosis und nach 6 h Erholungszeit am stärksten ausgeprägt. Nach 10 h war jeweils keine protektive Wirkung nach Vorbestrahlung mehr nachweisbar. Im Folgenden wurden die Bestrahlungsmodalitäten untereinander variiert. So wurde Rönt-genstrahlung mit 99mTc, sowie Röntgenstrahlung mit 99mTc und Perchlorat kombiniert und die Sequenzen jeweils variiert. Als Vorbestrahlungsdosen wurden 0,025 Gy und 0,05 Gy gewählt. Die Zeitfenster zwischen Vor- und Nachbestrahlung betrugen 4 h; 6 h und 24 h. Bei allen 4 Kombinationen konnte nach 6 h Erholungszeit eine Adaptive Antwort nachgewiesen werden. Die größte protektive Wirkung konnte in allen Versuchen durch 0,05 Gy Vorbestrahlung erreicht werden. Entsprechend der Zielsetzung konnte in dieser Arbeit die Adaptive Antwort unabhängig von der Bestrahlungsmodalität und deren Sequenz bei Vor- und Nachbestrahlung nachgewiesen werden. Insbesondere gelangen der Vergleich und die Kombination aus extra- und intrazellu-lärer Bestrahlung. Es konnte bestätigt werden, dass der durch die Vorbehandlung induzierte protektive Effekt nur in einem begrenzten Zeitfenster bestehen bleibt. Des Weiteren zeichnete sich eine Abhängigkeit des Ausmaßes der Adaptiven Antwort von der Vorbestrahlungsdosis ab. Die Ergebnisse bestätigen die aktuell anerkannte Hypothese, die die Adaptive Antwort als Teil einer allgemeinen Stressantwort der Zelle auf verschiedene Noxen sieht (Calabrese, et al., 2007). Im Hinblick auf moderne Therapieansätze in der Onkologie, wie CIERT oder der Radiorezeptortherapie, ist der Einfluss der Niedrig-Dosis-Effekte, wie der Adaptiven Antwort, auf das Behandlungsergebnis jedoch eher vernachlässigbar. Die angewandte Induktionsdosis sowohl durch eine Röntgenuntersuchung als auch durch eine Szintigraphie ist zu gering bzw. bei der fraktionierten Strahlentherapie zu hoch, um eine Adaptive Antwort zu induzieren. Weiterhin ist das Zeitfenster für die Ausbildung der Protektion in der Praxis nicht gegeben.
35

Evaluation, Analysis and adaptation of web prefetching techniques in current web

Doménech i de Soria, Josep 06 May 2008 (has links)
Abstract This dissertation is focused on the study of the prefetching technique applied to the World Wide Web. This technique lies in processing (e.g., downloading) a Web request before the user actually makes it. By doing so, the waiting time perceived by the user can be reduced, which is the main goal of the Web prefetching techniques. The study of the state of the art about Web prefetching showed the heterogeneity that exists in its performance evaluation. This heterogeneity is mainly focused on four issues: i) there was no open framework to simulate and evaluate the already proposed prefetching techniques; ii) no uniform selection of the performance indexes to be maximized, or even their definition; iii) no comparative studies of prediction algorithms taking into account the costs and benefits of web prefetching at the same time; and iv) the evaluation of techniques under very different or few significant workloads. During the research work, we have contributed to homogenizing the evaluation of prefetching performance by developing an open simulation framework that reproduces in detail all the aspects that impact on prefetching performance. In addition, prefetching performance metrics have been analyzed in order to clarify their definition and detect the most meaningful from the user's point of view. We also proposed an evaluation methodology to consider the cost and the benefit of prefetching at the same time. Finally, the importance of using current workloads to evaluate prefetching techniques has been highlighted; otherwise wrong conclusions could be achieved. The potential benefits of each web prefetching architecture were analyzed, finding that collaborative predictors could reduce almost all the latency perceived by users. The first step to develop a collaborative predictor is to make predictions at the server, so this thesis is focused on an architecture with a server-located predictor. The environment conditions that can be found in the web are als / Doménech I De Soria, J. (2007). Evaluation, Analysis and adaptation of web prefetching techniques in current web [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1841
36

Entwicklung einer Proteasomen-basierten Polyepitop-Plasmid-Vakzine am Beispiel des Tumor-assoziierten Antigens MUC1

Hoffmann, Gesa 31 May 2006 (has links)
Peptide aus intrazellulären Pathogenen sowie Tumorantigene aus mutierten oder überexprimierten Proteinen werden MHC I-restringiert auf der Oberfläche von Mammaliazellen präsentiert und dabei von cytotoxischen T-Lymphozyten erkannt. Die Peptidgenerierung erfolgt vorwiegend durch das Ubiquitin/26S Proteasomensystem, das eine zentrale Rolle bei der antitumoralen Immunantwort spielt. In der vorliegenden Arbeit wurde eine Polyepitopvakzine in Form von Plasmid-DNA entwickelt und auf ihre Effizienz untersucht. Als Modellantigen diente MUC1, ein von verschiedenen Adenokarzinomen und hämatologischen Tumoren überexprimiertes Glykoprotein. Ein aus dem MUC1-Protein bekanntes HLA-A2.1-abhängiges Epitop wurde als Polyepitop in verschiedenen Variationen synthetisiert, einer 20S proteasomalen in vitro Degradation unterzogen und seine Verdauprodukte massenspektrometrisch analysiert. Als optimale Sequenz für die Prozessierung des Polyepitops in die gewünschten Einzelepitope erwies sich deren einfache Verknüpfung ohne intervenierende Sequenzen. Zur Untersuchung des Effekts einer Ubiquitinfusion auf die Stabilität des MUC1-Polyepitops wurden anschließend verschiedene Strategien der linearen Fusion von Ubiquitin an das Polyepitop innerhalb eines Plasmids getestet. Durch transiente Transfektion der Plasmide konnte die Stabilität ihrer Translationsprodukte mittels Immunoblotanalysen quantifiziert werden. Die Ergebnisse demonstrieren, daß das Polyepitop durch die N-terminale Fusion von Wildtyp-Ubiquitin am effizientesten degradiert wird, wobei eine Polyubiquitinierung nicht stattzufinden scheint. Die Auswertung der folgenden in vitro Cytotoxizitätsassays sowie der Immunisierungsstudien wurde durch die schwache Affinität des gewählten subdominanten MUC1-Epitops zum HLA-A2.1-Komplex beeinträchtigt. Die vorliegende Arbeit unterstreicht die Bedeutung einer umfassenden Analyse intra- und extrazellulärer Vorgänge bei der Entwicklung einer Plasmidvakzine unter Verwendung subdominanter Epitope. / Peptides from intracellular pathogens as well as tumor antigens from mutated or overexpressed proteins are presented in an MHC class I restricted manner on the surface of mammalian cells and are thereby recognized by cytotoxic T lymphocytes. Peptide generation is mainly carried out by the ubiquitin/26S proteasome system which plays a crucial role in the antitumor immune response. In the present study, a polyepitope vaccine was generated in the form of plasmid DNA and analyzed for its efficiency. As model antigen MUC1, a glycoprotein overexpressed in various adenocarcinomas and hematological tumors, was used. A known HLA-A2.1 restricted epitope from the MUC1 protein was synthesized as a polyepitope in different variations, subjected to a 20S proteasomal in vitro degradation, and its digestion products were analyzed by means of mass spectrometry. The optimal sequence for the processing of the polyepitope into the desired single epitopes was shown to be their simple conjunction without spacer sequences. Different strategies of linear fusion of ubiquitin to the polyepitope within a plasmid were subsequently tested to analyze the effect of ubiquitin fusion on the stability of the MUC1 polyepitope. After transient transfection of the plasmids, the stability of their translation products was quantified by means of immunoblot analyses. The results demonstrate that the polyepitope is degraded most efficiently through N-terminal fusion of wild type ubiquitin, while a polyubiquitination does not seem to occur. The evaluation of the subsequent in vitro cytotoxicity assays and immunization studies was impaired by the low affinity of the selected subdominant MUC1 epitope to the HLA-A2.1 complex. The present study emphasizes the importance of an extensive analysis of intra- and extracellular processes when generating a plasmid vaccine using subdominant epitopes.
37

Modeling TCP/IP software implementation performance and its application for software routers

Lepe Aldama, Oscar Iván 03 December 2002 (has links)
Existen numerosos trabajos que estudian o tratan la realización software de los protocolos de comunicaciones para el acceso a la Internet-TCP/IP. Sin embargo, no conocemos ninguno que modele de forma general y precisa la ejecución de este software.La presente tesis aporta una caracterización detallada de la ejecución de la realización software de los mencionados protocolos sobre un computador personal y bajo un sistema operativo UNIX. Esta caracterización muestra cómo varía el rendimiento del sistema en función de la velocidad de operación de la CPU, las características del subsistema de memoria, el tamaño de los paquetes y otras variables de importancia para la remisión, autenticación y cifrado de paquetes IP.En otros trabajos se proponen adecuaciones o extensiones a la realización software de los mencionados protocolos que permiten que un software router provea de comunicaciones con diversos niveles asegurados de calidad mediante el uso de mecanismos de planificación para la unidad central de procesamiento. Sin embargo, en dichos trabajos no se contempla la planificación del uso del bus de entrada/salida. Los resultados derivados de nuestro modelo demuestran que, para sistemas que usan CPUs con frecuencias de reloj superiores a 1 GHz, la planificación conjunta de la CPU y el bus de entrada salida es indispensable para la provisión de comunicaciones con diversos niveles asegurados de calidad. Dichas frecuencias de reloj son comunes en los sistemas comerciales actuales, por lo que consideramos que es un problema de gran interés. En la tesis proponemos un mecanismo que consigue garantías de utilización del bus de entrada/salida mediante la modificación de los drivers de los interfaces de red. / Three are the main contributions of this work. In no particular order:" A detailed performance study of the software implementation of the TCP/IP protocols suite, when executed as part of the kernel of a BSD operating system over generic PC hardware." A validated queuing network model of the studied system, solved by computer simulation." An I/O bus utilization guard mechanism for improving the performance of software routers supporting QoS mechanisms and built upon PC hardware and software.This document presents our experiences building a performance model of a PC-based software router. The resulting model is an open multiclass priority network of queues that we solved by simulation. While the model is not particularly novel from the system modeling point of view, in our opinion, it is an interesting result to show that such a model can estimate, with high accuracy, not just average performance-numbers but the complete probability distribution function of packet latency, allowing performance analysis at several levels of detail. The validity and accuracy of the multiclass model has been established by contrasting its packet latency predictions in both, time and probability spaces. Moreover, we introduced into the validation analysis the predictions of a router's single queue model. We did this for quantitatively assessing the advantages of the more complex multiclass model with respect to the simpler and widely used but not so accurate, as here shown, single queue model, under the considered scenario that the router's CPU is the system bottleneck and not the communications links. The single queue model was also solved by simulation.Besides, this document addresses the problem of resource sharing in PC-based software routers supporting QoS mechanisms. Others have put forward solutions that are focused on suitably distributing the workload of the CPU-see this chapter's section on "related work". However, the increase in CPU speed in relation to that of the I/O bus-as here shown-means attention must be paid to the effect the limitations imposed by this bus on the system's overall performance. We propose a mechanism that jointly controls both I/O bus and CPU operation. This mechanism involves changes to the operating system kernel code and assumes the existence of certain network interface card's functions, although it does not require changes to the PC hardware. A performance study is shown that provides insight into the problem and helps to evaluate both the effectiveness of our approach, and several software router design trade-offs.
38

Automatic data distribution for massively parallel processors

García Almiñana, Jordi 16 April 1997 (has links)
Massively Parallel Processor systems provide the required computational power to solve most large scale High Performance Computing applications. Machines with physically distributed memory allow a cost-effective way to achieve this performance, however, these systems are very diffcult to program and tune. In a distributed-memory organization each processor has direct access to its local memory, and indirect access to the remote memories of other processors. But the cost of accessing a local memory location can be more than one order of magnitude faster than accessing a remote memory location. In these systems, the choice of a good data distribution strategy can dramatically improve performance, although different parts of the data distribution problem have been proved to be NP-complete.The selection of an optimal data placement depends on the program structure, the program's data sizes, the compiler capabilities, and some characteristics of the target machine. In addition, there is often a trade-off between minimizing interprocessor data movement and load balancing on processors. Automatic data distribution tools can assist the programmer in the selection of a good data layout strategy. These use to be source-to-source tools which annotate the original program with data distribution directives.Crucial aspects such as data movement, parallelism, and load balance have to be taken into consideration in a unified way to efficiently solve the data distribution problem.In this thesis a framework for automatic data distribution is presented, in the context of a parallelizing environment for massive parallel processor (MPP) systems. The applications considered for parallelization are usually regular problems, in which data structures are dense arrays. The data mapping strategy generated is optimal for a given problem size and target MPP architecture, according to our current cost and compilation model.A single data structure, named Communication-Parallelism Graph (CPG), that holds symbolic information related to data movement and parallelism inherent in the whole program, is the core of our approach. This data structure allows the estimation of the data movement and parallelism effects of any data distribution strategy supported by our model. Assuming that some program characteristics have been obtained by profiling and that some specific target machine features have been provided, the symbolic information included in the CPG can be replaced by constant values expressed in seconds representing data movement time overhead and saving time due to parallelization. The CPG is then used to model a minimal path problem which is solved by a general purpose linear 0-1 integer programming solver. Linear programming techniques guarantees that the solution provided is optimal, and it is highly effcient to solve this kind of problems.The data mapping capabilities provided by the tool includes alignment of the arrays, one or two-dimensional distribution with BLOCK or CYCLIC fashion, a set of remapping actions to be performed between phases if profitable, plus the parallelization strategy associated. The effects of control flow statements between phases are taken into account in order to improve the accuracy of the model. The novelty of the approach resides in handling all stages of the data distribution problem, that traditionally have been treated in several independent phases, in a single step, and providing an optimal solution according to our model.
39

Contribución al desarrollo de un entorno seguro de m-commerce

Ponce Vásquez, Diego Arturo 02 July 2002 (has links)
La exitosa implantación de la telefonía móvil a escala mundial presenta una muy importante oportunidad para la expansión del comercio electrónico sobre entornos inalámbricos. El comercio electrónico para móviles, m-Commerce, implica tres aspectos básicos: 1) la negociación y el servicio en la vecindad de cliente, 2) información oportuna y georeferenciada mientras el usuario esta en movimiento, 3) la posibilidad para completar una transacción en cualquier sitio y momento. El usuario debe tener las facilidades siguientes: la negociación y la entrega inmediata, métodos rápidos de micro y de macro pago, y facilidad de uso en el ambiente de móvil. Una de las novedades del comercio móvil es la posibilidad de atraer a clientes en el vecindario hacia un centro de venta y/o servicios proporcionándoles la información apropiada. Existen, sin embargo, una serie de factores que dificultan la implantación y el desarrollo del comercio móvil respecto al comercio electrónico. Esos inconvenientes se relacionan con las características del ambiente inalámbrico: normalmente menor ancho de banda, latencia más baja, menos estabilidad de conexiones, la disponibilidad menos previsible. Y las limitaciones en los equipos móviles: la unidad de procesamiento central menos potente, menos memoria, limitaciones en el consumo de potencia, formato reducido de pantalla, y otras más.La seguridad extremo a extremo entre el servidor de Internet y el terminal móvil es indispensable para aplicaciones de comercio electrónico. La especificación de la capa de seguridad WTLS (Wireless Transport Layer Security de WAP) no proporciona este nivel de seguridad. El uso de WTLS y la seguridad a nivel de la capa de transporte TLS (Transport Layer Security) permite la privacidad en los canales inalámbrico e Internet, pero la seguridad alcanzada no es suficiente para aplicaciones de comercio electrónico; por ello se precisan mecanismos de seguridad extremo a extremo. En esta tesis se propone una alternativa a la arquitectura de la seguridad de WAP para resolver el problema mencionado, basada en la implementación de una capa de seguridad nueva dentro de la capa WAE (Wireless Application Environment). Esto hace posible la seguridad extremo a extremo, compatibilidad con TLS, transparencia ante el usuario, y se evita la traducción y descompresión en la pasarela de WAP. Varios estudios sobre usabilidad de los dispositivos con capacidades de WAP indican que los usuarios se desconectaron debido a tiempos de respuesta lentos y la falta de comodidad en el uso (interfaces no agradables, servicios costosos, . ). Los estudios coincidieron en que las velocidades más rápidas y el uso extendido de equipos móviles de datos promueven el comercio móvil, y que el número de usuarios familiarizados con equipos móviles sube constantemente, particularmente entre usuarios de WAP, de modo que estos usuarios comienzan a ver sus teléfonos móviles como algo más que meros teléfonos. La movilidad del usuario contribuye a hacer las redes inalámbricas más complejas, y constituyen los nuevos paradigmas en el intercambio de información. Las posibilidades que se abren para la Internet inalámbrica constituyen una oportunidad importante para el comercio electrónico. El futuro e impacto social de las tecnologías utilizadas, WAP, GPRS, UMTS, . son cuestionadas habitualmente. En esta tesis se analiza la posibilidad de realizar operaciones de m-Commerce sobre WAP. Por ello, se presentan los mecanismos de seguridad de WTLS (Wireless Transport Layer Security) y se analiza la seguridad extremo a extremo en este protocolo. En redes inalámbricas, existe la necesidad de acelerar la respuesta al usuario, facilitarle el uso en ambientes ruidosos, con desconexión no previsible, sobre dispositivos con formato limitado. Para paliar los problemas relacionados a la entrega de información, facilitar el uso y personalizar el servicio con el cliente, se presenta una propuesta basada en un sistema intermediario. Los objetivos de dicho intermediario son a) reducir el tráfico de datos en el canal inalámbrico delegando tareas tales como la búsqueda, interacción y filtrado de la información al Intermediario aún estando fuera de línea; b) Reutilizar contenidos: reutilizar la información residente en el almacén intermedio mediante un sistema distribuido de caches y proxies; c) Personalizar la información: conociendo previamente el perfil del usuario se puede filtrar y distribuir información en forma predictiva y d) Gestionar la información del estado de los certificados con OCSP (On-line Certificate Status Protocol).
40

A There Dimensional Setting for Strong Discontinuities Modelling in Failure Mechanics

Vieira Chaves, Eduardo Walter 01 April 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar. Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes. Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica. En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. El presente trabajo trata sobre la simulación de la localización de deformaciones en sólidos mediante el método de las discontinuidades fuertes (Strong Discontinuity Approach). Las principales hipótesis de trabajo son la de régimen cuasiestático isotérmico, la de pequeñas deformaciones y rotaciones, y la de homogeneidad e isotropía del material.Esta teoría se desarrolla en el ámbito de la Mecánica de Medios Continuos. En lo referente a la modelización constitutiva, se adopta un modelo de daño isótropo y sus variantes, los cuales pueden utilizarse en la simulación de materiales cuasifrágiles como el hormigón, los cerámicos, las rocas y el hielo.Se presentan los ingredientes básicos de la formulación de elementos finitos con discontinuidades internas en tres dimensiones, además de los ingredientes para la transición del régimen de discontinuidades débiles al de discontinuidades fuertes (modelo de ancho de banda variable).Por otra parte, se realiza un detallado análisis de bifurcación material, el cual nos proporciona la información necesaria para la propagación de discontinuidades.Finalmente, se proponen dos posibles algoritmos de trazado de la discontinuidad.Varios ejemplos numéricos demuestran la eficiencia del método. Además, su concordancia con resultados experimentales se pone de relieve. Este trabajo proporciona las herramientas necesarias para la extensión del método al estudio de ejemplos más complejos que requieren, a su vez, modelos constitutivos más complejos.

Page generated in 0.0287 seconds