• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 15
  • 5
  • 5
  • 4
  • Tagged with
  • 61
  • 44
  • 34
  • 33
  • 16
  • 16
  • 13
  • 10
  • 10
  • 9
  • 9
  • 9
  • 9
  • 9
  • 8
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Contribución al estudio y diseño de mecanismos avanzados de servicio de flujos semi-elásticos en internet con garantías de calidad de servicio extremo a extremo

Postigo Boix, Marcos 25 April 2003 (has links)
Los servicios y aplicaciones ofrecidos en Internet demandan, con mayor frecuencia, un determinado nivel de servicio para su correcto funcionamiento. Esto supone el desarrollo de mecanismos que permitan ofrecer calidad de servicio diferenciada entre extremos distantes de la red. En una red con estas características el coste debido al uso de este servicio diferenciado es mayor que el de utilizar el modo tradicional de transferencia best-effort. Ello obliga a los usuarios a realizar un uso responsable de los recursos reservados. Por tanto, será crucial reservar sólo aquellos recursos estrictamente necesarios para lograr un mínimo coste.En este trabajo de Tesis Doctoral, se aborda el problema de minimizar los recursos reservados para una transmisión de un flujo semi-elástico. Este tipo de flujo se caracteriza por necesitar la reserva de más o menos recursos en función del estado de la red, por lo que se plantea el diseño de un sistema cliente-servidor capaz de realizar de forma automática las reservas estrictamente necesarias. Para ello, se propone un mecanismo de control de la ocupación de la memoria del cliente que permite determinar los periodos en que es necesario utilizar un modo de transferencia best-effort (aquellos en los que la ocupación garantiza la disponibilidad de datos en recepción), y los periodos en que se necesita un modo de transferencia con reserva de recursos para garantizar el llenado de dicha memoria. Del análisis de este mecanismo, se deducen expresiones para el coste de transmisión en función de los diversos parámetros que afectan a la ocupación de la memoria del cliente. De estos parámetros destaca especialmente la tasa de llegada de datos, que depende del estado de la red, y el umbral máximo de ocupación que indica cuándo se puede transmitir en modo best-effort. Gracias al correcto dimensionado de este umbral máximo, el cliente es capaz de minimizar los recursos reservados de la red. Para calcular este umbral, uno de los problemas que se plantea es la necesidad de una estimación inicial de la tasa de llegada de datos en modo best-effort. Para ello, se propone el uso de un umbral inicial que permita pasar a modo best-effort y realizar así, la estimación de esta tasa. Por otra parte, se propone también el uso de un mecanismo que mejora la minimización del coste de transmisión cuando la variabilidad de la tasa de llegada de paquetes en modo best-effort es grande, sin incrementar desmesuradamente la cantidad de señalización asociada necesaria.Finalmente, se propone un mecanismo para dar servicio de forma simultánea a varios clientes. Concretamente, se estudia mediante simulación un caso homogéneo, donde todos los clientes presentan los mismos requisitos. El esquema propuesto permite dar servicio simultáneo a un número determinado de clientes reservando recursos, mientras que el resto se sirve en modo best-effort. Del estudio se determina la existencia de un valor óptimo para el número de clientes a los que se da servicio en modo de reserva de recursos, que minimiza la señalización extra necesaria para gestionar el servicio.Asimismo, como complemento adicional para realizar este trabajo, se ha desarrollado una implementación del sistema cliente servidor de flujos semi-elásticos en el simulador ns-2, y además otra implementación real en lenguaje C sobre sistema Linux. / Internet services and applications are increasingly demanding appropriate levels of service for their adequate operation. That supposes the development of new mechanisms to allow end-to-end differentiated quality of service. In these networks, the cost of using this differentiated service is consequently higher than the employment of the well-known best-effort delivery mode, which requires users to make a responsible use of the reserved resources. Therefore, it is essential to reserve only those resources strictly necessary to achieve the minimum cost.This Thesis work deals with the problem of minimizing reserved resources in a semi-elastic flow transmission. This type of flow is characterized for requiring the reservation of more or less resources depending on network conditions, and for this reason, it is considered the design of a client-server system to reserve automatically the required demanded resources. Hence, it is proposed a method to control the client memory occupancy that determines when it is necessary to use a best-effort delivery mode (those periods when occupancy guarantees data availability in the client side), and when to use a resource reservation delivery mode to guarantee enough data entering into the client memory. From the analysis of this method, it is deduced the transmission cost, which depends on several parameters directly involved with client memory occupancy. Among these parameters, the delivery data rate and the maximum occupancy threshold, that indicates when it is possible to send data using best-effort mode, are the most significant ones. Thanks to the correct dimensioning of this maximum threshold, the client is able to minimize reserved network resources. To calculate this threshold, it is necessary to acquire an initial estimate for the best-effort delivery rate. To achieve this, it is proposed the use of an initial threshold to force a change to best-effort mode to obtain this estimate. In addition, it is proposed the use of a mechanism to improve the minimization cost for high delivery rate variability, without excessively increasing the signalling associated to the switching of transmission modes.Finally, it is proposed a method to serve simultaneously various clients. A homogeneous case is studied by simulation, in which all clients have the same requirements. This method allows a particular number of clients to be served by reserving resources, while the rest use best-effort mode. From this study, it is determined the existence of an optimum value for the number of simultaneous clients to be served by using resource reservation, that minimizes extra signalling to manage this service.Furthermore, as an aid to complement this research work, it has been developed an implementation of a client-server system for semi-elastic flows using ns-2, and additionally, a real implementation using C programming language in a Linux system.
32

Contributions to an advanced design of a Policy Management System

Reyes Muñoz, María Angélica 04 July 2003 (has links)
de la TesisLas redes de hoy en día presentan un gran crecimiento, una alta complejidad de gestión y los nuevos servicios tienen requerimientos cada vez más estrictos. Es por ello que las plataformas de gestión de la década pasada resultan inadecuadas en los nuevos escenarios de red. Esta Tesis es una contribución a los nuevos esquemas de gestión para redes de gran escala, en especial es una contribución a los sistemas de gestión basados en políticas, sin perder por ello, la compatibilidad con los sistemas de gestión que se ocupan actualmente como por ejemplo SNMP, la gestión basada en agentes, etc. Las investigaciones relacionadas hasta ahora con los sistemas de gestión basados en políticas se enfocan principalmente en la gestión de recursos locales y en el control de admisión. La Tesis que se sustenta en este trabajo ofrece una perspectiva de la utilización de las políticas en un contexto más amplio, se propone una arquitectura para la gestión de red utilizando directorios y roles de políticas, analizando las políticas desde su fase de diseño hasta su configuración en los elementos físicos de la redSe considera que la creación de políticas pueden llevarla a cabo diferentes entidades, por ejemplo cuando las crea el administrador de la red, cuando los propios usuarios crean sus políticas (políticas personalizadas), o bien cuando la red basándose en un conjunto de políticas previamente definidas crea a partir de ellas nuevas políticas (metapolíticas). En esta Tesis la representación de las políticas de alto nivel se basa en los modelos propuestos por el IETF y DMTF, el Policy Core Information Model (PCIM) y sus extensiones (PCIMe). Se propone un esquema de clases orientadas a objetos para el almacenamiento de las políticas en un directorio LDAP (Lightweight Directory Access Protocol). Este esquema es una de las contribuciones que está Tesis realiza, la cual se ve reflejada en un draft realizado en conjunción con el grupo de trabajo de políticas del IETF.Debido a que no es posible implementar directamente las políticas de alto nivel en los elementos físicos de la red es necesario establecer un conjunto de parámetros de configuración de red que definan la política que debe aplicarse. Para resolver este mapeo se crearon perfiles SLS (Service Level Specification) basados en la especificación de nivel de servicio que el usuario acuerda con el proveedor de servicio Internet. En la implementación realizada se decidió utilizar cuatro perfiles, sin embargo la granularidad que se elija en la creación de perfiles SLS se deja abierta para que el administrador de la red cree los perfiles necesarios de acuerdo con las características topológicas de la red, los objetivos empresariales, etc.El directorio LDAP que se utiliza como repositorio de políticas almacena cientos o miles de políticas que son necesarias para resolver las diferentes tareas de gestión involucradas en un sistema de redes heterogéneas, esto puede afectar la ejecución del sistema, por lo tanto, se diseñaron métodos basados en roles de políticas para seleccionar la política o el conjunto de políticas adecuado que debe implementarse en la red en un momento especifico. Para resolver los conflictos que puedan ocurrir entre las políticas seleccionadas y evitar inconsistencias en la red, se crearon diversos módulos para la prevención y resolución de conflictos entre políticas. El primer proceso interviene en la creación de las políticas detectando conflictos sintácticos, es decir, se analiza que la política este correctamente diseñada y que pueda ser interpretada sin problemas por la red, posteriormente se verifica que la política pueda implementarse en los elementos de la topología de red que se utilice y que cubra los objetivos empresariales existentes.Para el caso de conflictos que puedan ocurrir en tiempo de ejecución se diseñó un método basado en espacios hiper-geométricos que permiten identificar un conflicto potencial e indicar la política adecuada que debe implementarse en la red. Dicho método está basado en una serie de métricas propuestas para definir cada servicio. Se realiza en la Tesis una aplicación de dicho método para el encaminamiento basado en restricciones de Calidad de Servicio en una red con Servicios Diferenciados y MPLS. / In today's telecommunications world the networks offer several new services involving higher and higher requirements, it means an increment of management complexity that cannot be adequately solved with the management platforms of previous years. This thesis is a contribution to new management schemes for big-scale networks; especially it is a set of contributions to the Policy-Based Management Systems (PBMS) without loosing compatibility with the current management systems such as SNMP, agent-based management, etc.Current research mainly proposes the use of policies to configure network local devices and admission control. This thesis works on a wide perspective about the use of policies. An efficiently architecture for network management on the basis of directories and policy roles is proposed, also there is a full analysis of policies from its design to its implementation in the network elements. The creation of policies can be carried out by different entities, for example network administrators, users (personalized policies) and when the network itself creates own policies based on a previous set of policies (metapolicies). In this thesis the representation of high-level policies is based on the Policy Core Information Model (PCIM) and their extensions (PCIMe) from the DMTF and the IETF. Policies are stored in a directory using the Lightweight Directory Access Protocol (LDAP) via an object oriented classes model designed in this thesis. These results led to an Internet draft for the policy-working group of the IETF.Because of direct implementation of high-level policies in the network elements it is not possible, it is necessary to establish a set of configuration parameters that define the policy that has to be enforced in the network. The methodology to map high-level policies to low-level policies is detailed in this thesis. Mapping processes involve the use of policy roles and profiles that come from Service Level Specifications (SLS) that users agree with the network. The implementation of the management system uses four SLS profiles but it is scalable to allow increasing profiles according to different aspects such as new services offered by the network, topology of the network, business goals, etc.The policy architecture manages heterogeneous interconnected networks, for this reason policy repositories have to be able of storing hundreds or thousands of policies in order to get the desired behavior in the entire network. Due to the fact that policy decision points have to choose adequate policies to apply in the network from a very big set of policies, the network performance could be affected. This thesis proposes an efficient selection and evaluation process on the basis of both, policy roles and the network status in a specific time.To solve possible conflicts that can occur between selected policies and avoid system inconsistencies, a set of models for the prevention and resolution of conflicts between policies is proposed. Prevention process has an algorithm to avoid syntactic conflicts and edition of new policies that produce potential conflicts with previous defined policies. Prevention process also considers congruency among policies, business goals and network topology.Conflict resolution process solves conflicts occurring during the performance of the system, this method is based on hyper geometrical spaces and policy roles to select the adequate policy, from the conflicting policies. These methods are presented in the Thesis with an application in a routing system with Quality of Service (QoS) restrictions into a network scenario based on Differentiated Services and the Multi Protocol Label Switching (MPLS).
33

Auslegung und Optimierung einer Bestrahlungseinrichtung für die Bor-Neutroneneinfangtherapie an autotransplantierten Organen

Wortmann, Birgit 11 January 2018 (has links) (PDF)
Es besteht ein großer Bedarf an einer Therapie für Krebserkrankungen mit diffusen, nicht operablen Metastasen an vitalen Organen. Bei Metastasenbildung werden die Patienten im Allgemeinen nicht für eine Transplantation mit Spenderorganen vorgesehen. Das bedeutet, bei Nichtansprechen einer Chemotherapie gibt es derzeit keine Therapiealternative für diese Patienten. Wenn eine Transplantation der betroffenen Organe möglich ist, besteht eine Chance für die Anwendung eines neuen therapeutischen Konzeptes. Dieses Konzept basiert auf der Bestrahlung des isolierten Organs (Autotransplantation) mittels der Bor-Neutronen-Einfang-Therapie (BNCT). Das betreffende Organ des Patienten wird dabei zeitweise explantiert und in diesem Zeitraum einer Bestrahlungstherapie unterzogen. Diese Therapieform erfordert kein Spenderorgan und es kann dementsprechend auch zu keinen Abstoßungsreaktionen des Immunsystems durch körperfremdes Gewebe kommen. Erstmalig wurde dieses Verfahren im Dezember 2001 an der Universität Pavia an einem Patienten erfolgreich durchgeführt und damit die prinzipielle Machbarkeit belegt. Bis heute wurde in Pavia noch ein weiterer Patient mit diesem Verfahren behandelt. Nach diesen ersten Heilungsversuchen ist es jetzt erforderlich den therapeutischen Nutzen der Methode reproduzierbar nachzuweisen und diese dann für die Routineanwendung verfügbar zu machen. Das ist eine wesentliche Voraussetzung für die erfolgreiche Einführung dieser Therapieform. Im Rahmen dieser Arbeit soll eine für diese Therapieform optimierte Bestrahlungseinrichtung entwickelt werden. Als Referenzorgan wird die Leber betrachtet, aufgrund ihrer hohen Wahrscheinlichkeit für eine Metastasenbildung, des Mangels an Spenderorganen und fehlender Therapiealternativen. Als geeignete Referenzneutronenquelle bietet sich der TRIGA-Reaktor an. Für diesen Reaktortyp wird die Bestrahlungseinrichtung mit technischen Details und Abmessungen konzipiert.
34

Einfluss der Strahlenqualität auf die Adaptive Antwort nach Bestrahlung von Schilddrüsenzellen mit offenen Radionukliden und externer Bestrahlung

Schweitzer, Susanne 24 October 2017 (has links) (PDF)
Der Umgang mit ionisierender Strahlung in der medizinischen Diagnostik und Therapie ge-winnt ständig an Bedeutung. Welche Auswirkungen dabei geringe Dosen ionisierender Strahlung auf biologische Systeme haben, ist daher relevant und Gegenstand der Forschung. Die Adaptive Antwort kann in der Strahlenbiologie den Niedrig-Dosis-Effekten zugeordnet werden. Dieser Effekt, der auch als Präkonditionierung bezeichnet wird, beschreibt den protektiven Effekt, den eine niedrig dosierte Vorbestrahlung auf eine hoch dosierte Folgebestrahlung hat. Die Adaptive Antwort lässt sich beispielsweise durch Reduzierung von DNA-Schäden oder ein verbessertes Zellüberleben nachweisen. Die protektive Wirkung vor einer hohen Dosis tritt nur in einem begrenzten Zeitfenster zur Vorbestrahlung auf. In dieser Arbeit erfolgte der Nachweis der Adaptiven Antwort an Rattenschilddrüsenzellen, die über einen Natriumiodidsymporter (NIS) verfügen. Nach einer niedrig dosierten Vorbestrahlung und einem bestimmten Erholungsintervall erfolgte dazu jeweils eine zweite Bestrahlung mit einer therapeutisch wirksamen Dosis. Als biologischer Endpunkt wurde das klonogene Zellüberleben (Koloniebildungstest) gewählt. Die Bestrahlung erfolgte mit Röntgenstrahlung und 99mTc. Das 99mTc wird über den NIS in die Zellen aufgenommen. Diese intrazelluläre Radionuklidaufnahme kann durch Zugabe von Perchlorat fast vollständig blockiert werden. So konnte mit 99mTc sowohl ein intrazellulärer als auch ein extrazellulärer Bestrahlungsmodus realisiert werden. Durch die Untersuchung des Uptakes wurde jeweils das Ausmaß der intrazellulären Radionuklidaufnahme bestimmt. Ziel dieser Arbeit war es, die Adaptive Antwort durch Kombination und Variation der Bestrahlungssequenzen Rönt-genstrahlung, 99mTc und 99mTc mit Perchlorat nachzuweisen. Zur Einschätzung der Radiotoxizität wurden Dosis-Wirkungs-Kurven der Bestrahlungsmoda-litäten erstellt. Dabei konnten linear-quadratische bzw. lineare Dosis-Wirkungs-Beziehungen nachgewiesen werden. Die intrazelluläre Aufnahme von 99mTc führte im Vergleich zur extra-zellulären Bestrahlung durch Inkubation mit Perchlorat bei gleichen Aktivitätskonzentrationen zu stark verminderten Überlebensfraktionen. Die Ergebnisse wurden verwendet, um geeignete Dosisbereiche zum Nachweis der Adaptiven Antwort zu ermitteln. Die Adaptive Antwort wurde zunächst durch zweimalige Bestrahlung durch die gleiche Strah-lenqualität nachgewiesen. Für Röntgenstrahlung, 99mTc und 99mTc mit Perchlorat wurden je-weils die Vorbestrahlungsdosen von 0,01 Gy bis 0,75 Gy und die Erholungszeiten von 2 h bis 24 h untersucht. Nachbestrahlt wurde bei Röntgenstrahlung und 99mTc mit 2 Gy und bei 99mTc mit Perchloratinkubation mit 1 Gy. Der Nachweis eines höheren Zellüberlebens durch die Vorbestrahlung gelang bei allen drei Bestrahlungsmodalitäten. Die Adaptive Antwort war jeweils bei 0,025 Gy und 0,05 Gy Vorbestrahlungsdosis und nach 6 h Erholungszeit am stärksten ausgeprägt. Nach 10 h war jeweils keine protektive Wirkung nach Vorbestrahlung mehr nachweisbar. Im Folgenden wurden die Bestrahlungsmodalitäten untereinander variiert. So wurde Rönt-genstrahlung mit 99mTc, sowie Röntgenstrahlung mit 99mTc und Perchlorat kombiniert und die Sequenzen jeweils variiert. Als Vorbestrahlungsdosen wurden 0,025 Gy und 0,05 Gy gewählt. Die Zeitfenster zwischen Vor- und Nachbestrahlung betrugen 4 h; 6 h und 24 h. Bei allen 4 Kombinationen konnte nach 6 h Erholungszeit eine Adaptive Antwort nachgewiesen werden. Die größte protektive Wirkung konnte in allen Versuchen durch 0,05 Gy Vorbestrahlung erreicht werden. Entsprechend der Zielsetzung konnte in dieser Arbeit die Adaptive Antwort unabhängig von der Bestrahlungsmodalität und deren Sequenz bei Vor- und Nachbestrahlung nachgewiesen werden. Insbesondere gelangen der Vergleich und die Kombination aus extra- und intrazellu-lärer Bestrahlung. Es konnte bestätigt werden, dass der durch die Vorbehandlung induzierte protektive Effekt nur in einem begrenzten Zeitfenster bestehen bleibt. Des Weiteren zeichnete sich eine Abhängigkeit des Ausmaßes der Adaptiven Antwort von der Vorbestrahlungsdosis ab. Die Ergebnisse bestätigen die aktuell anerkannte Hypothese, die die Adaptive Antwort als Teil einer allgemeinen Stressantwort der Zelle auf verschiedene Noxen sieht (Calabrese, et al., 2007). Im Hinblick auf moderne Therapieansätze in der Onkologie, wie CIERT oder der Radiorezeptortherapie, ist der Einfluss der Niedrig-Dosis-Effekte, wie der Adaptiven Antwort, auf das Behandlungsergebnis jedoch eher vernachlässigbar. Die angewandte Induktionsdosis sowohl durch eine Röntgenuntersuchung als auch durch eine Szintigraphie ist zu gering bzw. bei der fraktionierten Strahlentherapie zu hoch, um eine Adaptive Antwort zu induzieren. Weiterhin ist das Zeitfenster für die Ausbildung der Protektion in der Praxis nicht gegeben.
35

Evaluation, Analysis and adaptation of web prefetching techniques in current web

Doménech i de Soria, Josep 06 May 2008 (has links)
Abstract This dissertation is focused on the study of the prefetching technique applied to the World Wide Web. This technique lies in processing (e.g., downloading) a Web request before the user actually makes it. By doing so, the waiting time perceived by the user can be reduced, which is the main goal of the Web prefetching techniques. The study of the state of the art about Web prefetching showed the heterogeneity that exists in its performance evaluation. This heterogeneity is mainly focused on four issues: i) there was no open framework to simulate and evaluate the already proposed prefetching techniques; ii) no uniform selection of the performance indexes to be maximized, or even their definition; iii) no comparative studies of prediction algorithms taking into account the costs and benefits of web prefetching at the same time; and iv) the evaluation of techniques under very different or few significant workloads. During the research work, we have contributed to homogenizing the evaluation of prefetching performance by developing an open simulation framework that reproduces in detail all the aspects that impact on prefetching performance. In addition, prefetching performance metrics have been analyzed in order to clarify their definition and detect the most meaningful from the user's point of view. We also proposed an evaluation methodology to consider the cost and the benefit of prefetching at the same time. Finally, the importance of using current workloads to evaluate prefetching techniques has been highlighted; otherwise wrong conclusions could be achieved. The potential benefits of each web prefetching architecture were analyzed, finding that collaborative predictors could reduce almost all the latency perceived by users. The first step to develop a collaborative predictor is to make predictions at the server, so this thesis is focused on an architecture with a server-located predictor. The environment conditions that can be found in the web are als / Doménech I De Soria, J. (2007). Evaluation, Analysis and adaptation of web prefetching techniques in current web [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1841
36

Entwicklung einer Proteasomen-basierten Polyepitop-Plasmid-Vakzine am Beispiel des Tumor-assoziierten Antigens MUC1

Hoffmann, Gesa 31 May 2006 (has links)
Peptide aus intrazellulären Pathogenen sowie Tumorantigene aus mutierten oder überexprimierten Proteinen werden MHC I-restringiert auf der Oberfläche von Mammaliazellen präsentiert und dabei von cytotoxischen T-Lymphozyten erkannt. Die Peptidgenerierung erfolgt vorwiegend durch das Ubiquitin/26S Proteasomensystem, das eine zentrale Rolle bei der antitumoralen Immunantwort spielt. In der vorliegenden Arbeit wurde eine Polyepitopvakzine in Form von Plasmid-DNA entwickelt und auf ihre Effizienz untersucht. Als Modellantigen diente MUC1, ein von verschiedenen Adenokarzinomen und hämatologischen Tumoren überexprimiertes Glykoprotein. Ein aus dem MUC1-Protein bekanntes HLA-A2.1-abhängiges Epitop wurde als Polyepitop in verschiedenen Variationen synthetisiert, einer 20S proteasomalen in vitro Degradation unterzogen und seine Verdauprodukte massenspektrometrisch analysiert. Als optimale Sequenz für die Prozessierung des Polyepitops in die gewünschten Einzelepitope erwies sich deren einfache Verknüpfung ohne intervenierende Sequenzen. Zur Untersuchung des Effekts einer Ubiquitinfusion auf die Stabilität des MUC1-Polyepitops wurden anschließend verschiedene Strategien der linearen Fusion von Ubiquitin an das Polyepitop innerhalb eines Plasmids getestet. Durch transiente Transfektion der Plasmide konnte die Stabilität ihrer Translationsprodukte mittels Immunoblotanalysen quantifiziert werden. Die Ergebnisse demonstrieren, daß das Polyepitop durch die N-terminale Fusion von Wildtyp-Ubiquitin am effizientesten degradiert wird, wobei eine Polyubiquitinierung nicht stattzufinden scheint. Die Auswertung der folgenden in vitro Cytotoxizitätsassays sowie der Immunisierungsstudien wurde durch die schwache Affinität des gewählten subdominanten MUC1-Epitops zum HLA-A2.1-Komplex beeinträchtigt. Die vorliegende Arbeit unterstreicht die Bedeutung einer umfassenden Analyse intra- und extrazellulärer Vorgänge bei der Entwicklung einer Plasmidvakzine unter Verwendung subdominanter Epitope. / Peptides from intracellular pathogens as well as tumor antigens from mutated or overexpressed proteins are presented in an MHC class I restricted manner on the surface of mammalian cells and are thereby recognized by cytotoxic T lymphocytes. Peptide generation is mainly carried out by the ubiquitin/26S proteasome system which plays a crucial role in the antitumor immune response. In the present study, a polyepitope vaccine was generated in the form of plasmid DNA and analyzed for its efficiency. As model antigen MUC1, a glycoprotein overexpressed in various adenocarcinomas and hematological tumors, was used. A known HLA-A2.1 restricted epitope from the MUC1 protein was synthesized as a polyepitope in different variations, subjected to a 20S proteasomal in vitro degradation, and its digestion products were analyzed by means of mass spectrometry. The optimal sequence for the processing of the polyepitope into the desired single epitopes was shown to be their simple conjunction without spacer sequences. Different strategies of linear fusion of ubiquitin to the polyepitope within a plasmid were subsequently tested to analyze the effect of ubiquitin fusion on the stability of the MUC1 polyepitope. After transient transfection of the plasmids, the stability of their translation products was quantified by means of immunoblot analyses. The results demonstrate that the polyepitope is degraded most efficiently through N-terminal fusion of wild type ubiquitin, while a polyubiquitination does not seem to occur. The evaluation of the subsequent in vitro cytotoxicity assays and immunization studies was impaired by the low affinity of the selected subdominant MUC1 epitope to the HLA-A2.1 complex. The present study emphasizes the importance of an extensive analysis of intra- and extracellular processes when generating a plasmid vaccine using subdominant epitopes.
37

Magnetresonanztomographisch gestützte laserinduzierte Thermotherapie am Pankreas des Schweins in vivo mit histopathologischer Korrelation

Grabig, Anja 17 August 2006 (has links)
Das Pankreaskarzinom hat bei steigender Inzidenz eine äußerst schlechte Prognose und ist häufig bei Diagnosestellung nicht mehr kurativ operabel. Die laserinduzierte Thermotherapie (LITT) gewann in den letzten Jahren zunehmend an Bedeutung als ein minimal invasives Verfahren zur perkutanen Ablation von parenchymatösen Tumoren. Dabei ist die Magnetresonanztomographie (MRT) eine Methode, mit der eine präzise Prozesskontrolle der Thermoablation und eine suffiziente Erfolgskontrolle zur Verfügung stehen. Ziel der vorliegenden Studie war es, im Tierexperiment die Anwendung der LITT zur Ablation von Pankreasgewebe am Schwein zu erproben, sowie die Möglichkeiten der MRT als Online-Monitoringverfahren mit Hilfe einer histopathologischen Korrelation zu untersuchen. Dazu wurde an 15 Läuferschweinen das Pankreas einer perkutanen laserinduzierten Thermotherapie mit einer Leistung von 5, 10 und 20 Watt sowie zwei mal 5 Watt in Multiapplikatortechnik unter MRT Prozesskontrolle unterzogen. Anschließend wurde das Pankreasgewebe histologische aufgearbeitet und die magnetresonanztomographisch detektierten Läsionen histopathologisch korreliert. Das Auftreten einer schwerwiegenden Komplikation wie einer generalisierten Pankreatitis, Peritonitis oder Blutung wurde nicht beobachtet. Die durchgeführten Korrelationsanalysen zeigen eine hohe Übereinstimmung zwischen magnetresonanztomographisch dokumentiertem Thermoeffekt und histopathologisch verifizierter thermisch induzierter Nekrose. Interessanterweise wurden bei Anwendung von zwei Lasern niedriger Leistung in Multiapplikatortechnik, im Vergleich zur Anwendung von einem Laser mit höherer Leistung, größere Nekrosen induziert. Unsere Ergebnisse zeigen, dass die LITT ein geeignetes und sicheres minimalinvasives Verfahren zur Ablation von Pankreasparenchym unter MRT-Monitoring ist. Weiterführende Untersuchungen zur Durchführbarkeit und Ermittlung der Genauigkeit der MRT als Monitoringverfahren sind erforderlich. / Pancreatic carcinoma has an increasing incidence and a poor prognosis. Frequently at diagnosis pancreatic tumors are surgically unresectable. Laser-induced thermotherapy has become an area of considerable interest during the past few years as a minimally invasive method for percutanous ablation of parenchymatous tumors. With magnetic resonance imaging (MRI) an accurate process control of thermocoagulation and a sufficient control of performance are possible. Control of carcinoma growth of is still a problem. Therefore the aim of this study was to investigate the application of laser induced thermotherapy for ablation of pancreas in a porcine model and the possibility of MRI as an online-monitoring with histopathologic correlation. Laser applicators with energy of 5, 10, 20 and two lasers of 5 watt were placed in the pancreas of 15 female pigs. After sacrifice a pathological examination was performed and histological lesions were correlated with magnetic resonance detected lesions. No serious adverse event like generalized pancreatitis, peritonitis or bleeding was observed. Correlation analysis showed a high correspondence between magnetic resonance documented thermoeffects and histopathologic verified lesions. Thermally induced lesions were best visualised on contrast-enhanced T1-weighted images. Interestingly application of two lasers with each 5 watt, greater lesions were generated than on application of one laser with higher energy. Over a period of 7 days increasing inhomogeneity and contraction of lesions were observed. Our results show that laser-induced thermotherapy of pancreatic tissue was feasible in this porcine model, and online monitoring was practicable. Further studies are necessary to increase the accuracy of online MR imaging of thermal effects.
38

Nicht-invasive Bestimmung der Gewebetemperatur der Arbeitsmuskulatur und des Gehirns bei körperlicher Belastung

Wilfinger, Anke 07 December 2016 (has links)
Hyperthermische Behandlungsverfahren im Bereich der Tumortherapie oder sportmedizinische Fragestellungen zum Einfluss verschiedener Belastungen auf verschiedene Gewebe v.a. die Frage einer möglichen belastungsinduzierten Hyperthermie mit möglicher gesundheitlicher Schädigung usw. verlangen nach einem praktikablen Messverfahren zur Überwachung von Gewebetemperaturen während körperlicher Belastung. In der vorliegenden Arbeit wird der Einfluss körperlicher Belastung bei moderaten Temperaturbedingungen um 21°C auf die Temperaturveränderung zum einen in der Muskulatur, zum anderen im Gehirn untersucht. Es wird eine praktikable Methodik zur Untersuchung von Gewebetemperaturen am Beispiel Muskulatur und Gehirn während bzw. unmittelbar nach körperlicher Belastung mittels Magnetspektroskopie beschrieben. Zur Bestimmung der Gewebetemperatur im M. gastrocnemius während aerober Belastung bei 30 % MVC und anaerober Belastung unter Ischämie bei 60 % MVC wurden an 21 gesunden männlichen Probanden 31P- spektroskopische Untersuchungen Form eines Tretversuches im MRT durchgeführt. Zur Untersuchung der belastungsinduzierten Temperaturentwicklung im Gehirn wurde die 1H-Magnetresonanzspektroskopie (MRS) genutzt. 14 gesunde männliche Probanden wurden während 150 min ohne Flüssigkeitsersatz bei 60 % ihrer individuellen anaeroben Leistungsschwelle auf einem Fahrradergometer belastet. Die Aufzeichnung der Spektren erfolgte zu drei Zeitpunkten prä, post und 3 h post Belastung in drei verschiedenen Voice of Interest (VOI''s) mit einer Grösse von 2 x 2 x 2 cm³= 8ml in der weißen Substanz parietal rechts, in der weißen Substanz parietal links und in der grauen Substanz okzipitoparietal. / Method of treatment using hyperthermia in tumor therapy or questions in sports medicine related to the influence of intensive sport activities on different tissue, especially the question of health effects or threat because of the possibility of load induced hyperthermia, need practicable method to measure brain temperature during physical activity. The influence of physical strain on temperature change in differerent tissue, in brain and in muscle, at moderate temperature about 21° C examinated in the present paper. A viable method using MRS for measuring tissue temperature in muscle and brain during physical aktivity resp. directly after load is described. For examination of the influence of different physical load on the local tissue temperature in musculature 31P-MRS was applied. 21 healthy male test person have been examinated using 31P-MRS during aerobic load with 30 % MVC and anaerobic load under ischemia with 60 % MVC . The load, a especially desingned kick experiment, occured directly in the magnetic resonance tomographic unit. 1H-MRS was used for examination of load induced temperature change in brain. 14 healthy male test person were loaded on cycle-ergometer during 150-min without liquid substitute with 60 % individual anaerobic threshold. MR-spectra observed in three different Voice of Interest (VOI''s) sized 2 x 2 x 2 cm³: grey substance occipitoparietal, white substance partietal on the right and white substance parietal on the left.
39

Modeling TCP/IP software implementation performance and its application for software routers

Lepe Aldama, Oscar Iván 03 December 2002 (has links)
Existen numerosos trabajos que estudian o tratan la realización software de los protocolos de comunicaciones para el acceso a la Internet-TCP/IP. Sin embargo, no conocemos ninguno que modele de forma general y precisa la ejecución de este software.La presente tesis aporta una caracterización detallada de la ejecución de la realización software de los mencionados protocolos sobre un computador personal y bajo un sistema operativo UNIX. Esta caracterización muestra cómo varía el rendimiento del sistema en función de la velocidad de operación de la CPU, las características del subsistema de memoria, el tamaño de los paquetes y otras variables de importancia para la remisión, autenticación y cifrado de paquetes IP.En otros trabajos se proponen adecuaciones o extensiones a la realización software de los mencionados protocolos que permiten que un software router provea de comunicaciones con diversos niveles asegurados de calidad mediante el uso de mecanismos de planificación para la unidad central de procesamiento. Sin embargo, en dichos trabajos no se contempla la planificación del uso del bus de entrada/salida. Los resultados derivados de nuestro modelo demuestran que, para sistemas que usan CPUs con frecuencias de reloj superiores a 1 GHz, la planificación conjunta de la CPU y el bus de entrada salida es indispensable para la provisión de comunicaciones con diversos niveles asegurados de calidad. Dichas frecuencias de reloj son comunes en los sistemas comerciales actuales, por lo que consideramos que es un problema de gran interés. En la tesis proponemos un mecanismo que consigue garantías de utilización del bus de entrada/salida mediante la modificación de los drivers de los interfaces de red. / Three are the main contributions of this work. In no particular order:" A detailed performance study of the software implementation of the TCP/IP protocols suite, when executed as part of the kernel of a BSD operating system over generic PC hardware." A validated queuing network model of the studied system, solved by computer simulation." An I/O bus utilization guard mechanism for improving the performance of software routers supporting QoS mechanisms and built upon PC hardware and software.This document presents our experiences building a performance model of a PC-based software router. The resulting model is an open multiclass priority network of queues that we solved by simulation. While the model is not particularly novel from the system modeling point of view, in our opinion, it is an interesting result to show that such a model can estimate, with high accuracy, not just average performance-numbers but the complete probability distribution function of packet latency, allowing performance analysis at several levels of detail. The validity and accuracy of the multiclass model has been established by contrasting its packet latency predictions in both, time and probability spaces. Moreover, we introduced into the validation analysis the predictions of a router's single queue model. We did this for quantitatively assessing the advantages of the more complex multiclass model with respect to the simpler and widely used but not so accurate, as here shown, single queue model, under the considered scenario that the router's CPU is the system bottleneck and not the communications links. The single queue model was also solved by simulation.Besides, this document addresses the problem of resource sharing in PC-based software routers supporting QoS mechanisms. Others have put forward solutions that are focused on suitably distributing the workload of the CPU-see this chapter's section on "related work". However, the increase in CPU speed in relation to that of the I/O bus-as here shown-means attention must be paid to the effect the limitations imposed by this bus on the system's overall performance. We propose a mechanism that jointly controls both I/O bus and CPU operation. This mechanism involves changes to the operating system kernel code and assumes the existence of certain network interface card's functions, although it does not require changes to the PC hardware. A performance study is shown that provides insight into the problem and helps to evaluate both the effectiveness of our approach, and several software router design trade-offs.
40

Automatic data distribution for massively parallel processors

García Almiñana, Jordi 16 April 1997 (has links)
Massively Parallel Processor systems provide the required computational power to solve most large scale High Performance Computing applications. Machines with physically distributed memory allow a cost-effective way to achieve this performance, however, these systems are very diffcult to program and tune. In a distributed-memory organization each processor has direct access to its local memory, and indirect access to the remote memories of other processors. But the cost of accessing a local memory location can be more than one order of magnitude faster than accessing a remote memory location. In these systems, the choice of a good data distribution strategy can dramatically improve performance, although different parts of the data distribution problem have been proved to be NP-complete.The selection of an optimal data placement depends on the program structure, the program's data sizes, the compiler capabilities, and some characteristics of the target machine. In addition, there is often a trade-off between minimizing interprocessor data movement and load balancing on processors. Automatic data distribution tools can assist the programmer in the selection of a good data layout strategy. These use to be source-to-source tools which annotate the original program with data distribution directives.Crucial aspects such as data movement, parallelism, and load balance have to be taken into consideration in a unified way to efficiently solve the data distribution problem.In this thesis a framework for automatic data distribution is presented, in the context of a parallelizing environment for massive parallel processor (MPP) systems. The applications considered for parallelization are usually regular problems, in which data structures are dense arrays. The data mapping strategy generated is optimal for a given problem size and target MPP architecture, according to our current cost and compilation model.A single data structure, named Communication-Parallelism Graph (CPG), that holds symbolic information related to data movement and parallelism inherent in the whole program, is the core of our approach. This data structure allows the estimation of the data movement and parallelism effects of any data distribution strategy supported by our model. Assuming that some program characteristics have been obtained by profiling and that some specific target machine features have been provided, the symbolic information included in the CPG can be replaced by constant values expressed in seconds representing data movement time overhead and saving time due to parallelization. The CPG is then used to model a minimal path problem which is solved by a general purpose linear 0-1 integer programming solver. Linear programming techniques guarantees that the solution provided is optimal, and it is highly effcient to solve this kind of problems.The data mapping capabilities provided by the tool includes alignment of the arrays, one or two-dimensional distribution with BLOCK or CYCLIC fashion, a set of remapping actions to be performed between phases if profitable, plus the parallelization strategy associated. The effects of control flow statements between phases are taken into account in order to improve the accuracy of the model. The novelty of the approach resides in handling all stages of the data distribution problem, that traditionally have been treated in several independent phases, in a single step, and providing an optimal solution according to our model.

Page generated in 0.0217 seconds