• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 303
  • 32
  • 11
  • 5
  • 3
  • 1
  • Tagged with
  • 364
  • 151
  • 149
  • 139
  • 138
  • 126
  • 67
  • 57
  • 53
  • 45
  • 45
  • 45
  • 41
  • 38
  • 37
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

El tratamiento jurídico y legal de la libertad e indemnidad sexual en el Código Penal peruano

Quiroga Mendoza, Omar Rashid January 2018 (has links)
En la presente tesis se abarca el tema polémico referido al tema de “Cual sería la edad idónea conforme a los lineamientos doctrinales referidos en que la persona que ejerza su libertad sexual debe hacerlo en plena capacidad física y psíquica, es decir que aquella persona pueda comprender lo que implica el desenvolvimiento sexual. A pesar de que el legislador ha considerado que la edad de 14 años seria el nivel o tope limite, además abarcándose en la sociología como ciencia auxiliar, ya que también vemos este rezago configurado en el antiguo código de Murcia, siendo base para ir construyendo el derecho penal como ciencia jurídica. No obstante, los estudios psicológicos que vendrían a ser otra ciencia auxiliadora para la dogmática penal, han demostrado que una persona a los 14 años alcanza un desarrollo físico completo o madurez sexual física más no culmen en el ámbito psíquico y psicológico, y por lo tanto cierta carencia en este requisito primordial. La adolescencia intermedia es en donde se copula tanto el ámbito físico como el psicológico, por lo que pretendemos el regreso al art 173 193 in 3 en base a la edad idónea de los 16 años (adolescencia intermedia) basándonos en el voto del Magistrado Vergara Gotelli. Finalmente se efectuará un análisis del voto de discordia del Magistrado Vergara Gotelli a fin de entender por qué es importante el regreso del artículo 173 inc. 3 del Código Penal. En base a la edad propuesta.
202

Sistema de gestión de inventario basado en la teoría de inventarios y control de producción utilizando tecnología QR, para mejorar la gestión del inventario en la empresa Ecovive SAC

Guevara Diaz, Darwin Omar January 2019 (has links)
El presente trabajo de investigación se desarrollará en la empresa Ecovive SAC donde se plantea un sistema de gestión de inventario basada en la teoría de inventarios y control de la producción, utilizando tecnología QR para mejorar la gestión del inventario de productos o materiales, dado que en la actualidad presenta perdidas de materiales, no cuenta con la información necesaria para los reportes, no se registran en su totalidad las entradas y salidas de los materiales, demora en la generación de reportes para gerencia. Por ello ¿De qué manera se podrá mejorar la gestión de inventarios de productos de la empresa Ecovive SAC?, la presente investigación se justifica porque permitirá controlar mejor los materiales, y brindara información oportuna para la tomar de decisiones, disminución de la carga de trabajo, aumento de la productividad, disminución de los tiempos muertos, para lo cual se utilizara la metodología SCRUM porque es un marco de trabajo para la gestión y desarrollo de software basada en un proceso iterativo e incremental utilizado comúnmente en entornos basados en el desarrollo ágil de software. Para lograr el reconocimiento de los problemas de la empresa Ecovive SAC, se utilizó la técnica de la entrevista con el gerente, supervisor y personal operativo. También se utilizó fichas de observaciones.
203

Implementación de un sistema Web Adaptativo, mediante la generación de boletos electrónicos con soporte QR code, para el control de procesos de compra y reserva de pasajes de una empresa de transporte

Pinedo Chicchon, Maria Keli January 2023 (has links)
La presente investigación está enfocada en el desarrollo de una aplicación Web Adaptativa para efectuar el proceso de reserva y compra de pasajes desde donde se encuentre solo con acceso a internet y de esta manera lograr la fidelización de los clientes de la empresa de transportes en estudio, esto con la finalidad de que se pueda lograr la satisfacción de cada uno de los clientes y que por medio de ellos se mejore la rentabilidad de la empresa. Además de contribuir con la empresa, se lograra que el cliente se identifique con ellos, primero que la reserva de un pasaje no sea un problema para nadie, brindando al cliente un tiempo determinado para poder confirmar su reserva y por último que la compra de un pasaje deje de ser una molestia, evitando las largas colas o la confusión en los datos, dejando de lado la posibilidad de que el cliente no encuentre suficiente comodidad y que este pueda comprar un pasaje interprovincial bajo las preferencias de cada uno. ¿Cómo lo lograremos?, facilitando una Aplicación Web para evitar las molestas colas y que la reserva o compra de un pasaje deje de ser un problema para muchos. Podremos encontrar dentro de la introducción y marco teórico puntos relevantes al tema de investigación para poder tener un mejor conocimiento sobre los temas que estarán involucrados dentro de dicha aplicación. La información que se utilizara para el desarrollo de esta aplicación se obtendrá por medio de encuestas a los clientes, entrevistas al personal de ventanilla y al Administrador general el cual nos permitirá contar con información más precisa de la empresa de Transportes en mención, en el presente trabajo se logró que por medio de la aplicación el tiempo para realizar una compra de pasaje sea menor al empleado de manera manual y presencial, se pudo disminuir los errores por digitación de boletos manuales, ya que los datos serán corroborados por el cliente y luego almacenados dentro de la Base de datos que consolide toda esta información. Se utilizará como metodología de desarrollo la de XP (Extreme Programming), por medio de esta y de cada una de sus fases han permitido el logro de los objetivos planteados.
204

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 22 September 2021 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details the devolopment of a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. This research presents the study of the min-sum algorithm and the design of the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it focused exclusively in the prototyping of the inner LDPC decoder and targets FPGA as platform. A variety of design strategies are applied in the design of the core, including the optimal selection of the architecture and the schedule policy, the design of the control unit as a Algorithmic State Machine (ASM) and the inclusion of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. The selected features for this work are code length of 64800 bits and code rate equal to 1/2. The selected architecture is partially parallel with flooding schedule and operates over binary symbols (Galois field GF(2)). For testing, it assumes a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions. The design has been validated using different verification methodologies according to complexity and predictability of each part or the whole system. Obtained results show the decoder, when configured for a maximum of 10 iterations, has a BER performance of 10-3 at a SNR of 2 dB, having an advantage of 1 dB respect to previous published Works [1]. It uses 60363 slice LUT and 23552 slice registers when synthesized in the Virtex 7 xc7vx550t FPGA from Xilinx, a reduction of 10% in resource usage from [1]. It achieves a maximum frequency operation of 194 Mhz and a throughput of 142.99 Mbps at worst case. The top energy per bit rate is 18.344 nJ/bit.
205

Design of a DVB-S2 compliant LDPC decoder for FPGA

Montaño Gamarra, Guillermo Daniel 19 February 2020 (has links)
Low Density Parity Check codes presents itself as the dominant FEC code in terms of performance, having the nearest performance to the Shannon limit and proving its usefulness in the increasing range of applications and standards that already used it. Low power devices are not except of this rapid development, where it emerges the necessity of decoders of low power without totally sacrificing performance or resource usage. The present work details research for a LDPC decoder compliant with the DVB-S2 standard for digital television, motivated for its already established use in uplink and downlink satellite applications and its great performance at large code lengths. Specifically, this research presents the study of the min-sum algorithm and the elements that conform the core decoder, including both functional units (variable and check nodes), memory blocks and routing network. In the context of DVB-S2, it is focused in the inner LDPC decoder and targets FPGA as platform. Furthermore, a variety of design strategies are considered as part of the scope of this work, including the optimal selection of the architecture and the schedule policy, the basis of the design characteristics of the control unit as a Algorithmic State Machine and the introduction of specialized modules to reduce the number of clock cycles per decoding process, such as early stopping. Under these constrains, it has been selected a set of features for a core design derived from work, such as code length of 64800 bits and code rate equal to 1/2. The proposed architecture is partially parallel with flooding schedule and operation over binary symbols (Galois field GF(2)). It takes the assumption of a channel with AWGN and BPSK modulation, so the demodulator feeds soft decision information of each symbol based on both assumptions.
206

Diseño de decodificadores de altas prestaciones para código LDPC

Angarita Preciado, Fabián Enrique 02 September 2013 (has links)
En esta tesis se han investigado los algoritmos de decodificación para códigos de comprobación de paridad de baja densidad (LDPC) y las arquitecturas para la implementación hardware de éstos. El trabajo realizado se centra en los algoritmos del tipo de intercambio de mensajes para códigos estructurados los cuales se incluyen en varios estándares de comunicaciones. Inicialmente se han evaluado las prestaciones de los algoritmos existentes Sum-product, Min-Sum y las principales variantes de este último (Min-Sum con escalado y Min-Sum con offset). Además, se ha realizado un análisis de precisión finita utilizando los códigos LDPC de los estándares IEEE 802.3an, IEEE 802.11n e IEEE 802.16e. Posteriormente se han propuesto dos algoritmos basados en el algoritmo Min-Sum, denominados Min-Sum entero y Min-Sum modificado con corrección. La complejidad de éstos es menor que las de los algoritmos estudiados anteriormente y además permiten una implementación hardware eficiente. Por otra parte, se han estudiado diferentes métodos de actualización de los algoritmos de decodificación: por inundación, por capas horizontales (layered) y por capas verticales (shuffled), y se ha propuesto un nuevo método por capas verticales entrelazadas (x-shuffled) que consigue mejorar la tasa de decodificación. Tras el estudio algorítmico, se han realizado implementaciones hardwar} con diferentes arquitecturas para los algoritmos y métodos de actualización evaluados y propuestos. En la mayoría de algoritmos implementados se requiere el cálculo de los dos primeros mínimos, por lo que inicialmente se realiza un estudio de las arquitecturas hardware para realizar este cálculo y se ha propuesto una nueva arquitectura de menor complejidad. En segundo lugar se ha realizado una comparación de las prestaciones hardware de los diferentes algoritmos con las arquitecturas de referencia: completamente paralela y parcialmente paralela basada en memorias. También se han propuesto dos arquitecturas enfocadas a la alta velocidad, la cuales se implementan con el algoritmo Sum-Product. La primera es una modificación de la arquitectura Sliced Message-Passing que consigue una reducción en el área de la implementación, y la segunda, es una arquitectura específica para el método de actualización propuesto x-shuffled que alcanza tasas de decodificación muy altas. Finalmente, se han implementado los algoritmos propuestos con la arquitectura layered obteniendo implementaciones hardware eficientes con baja área y muy alta tasa de decodificación. Estas últimas consiguen un ratio entre tasa de decodificación y área mejor que las implementaciones existentes en la literatura. Por último, se ha evaluado el comportamiento de los algoritmos de decodificación estudiados en la zona de baja tasa de error, donde las prestaciones se suelen degradar debido a la aparición de un suelo de error. Para ello se ha implementado un simulador hardware usando dispositivos FPGA. La tasa de datos alcanzada con el simulador hardware diseñado es superior a la de otros simuladores documentados en la literatura. En la zona de baja tasa de error el algoritmo propuesto Min-Sum modificado con corrección presenta un mejor comportamiento que el resto de algoritmos evaluados, consiguiendo bajar el suelo de error varios órdenes de magnitud. / Angarita Preciado, FE. (2013). Diseño de decodificadores de altas prestaciones para código LDPC [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31646
207

Detección de reutilización de código fuente monolingüe y translingüe

Flores Sáez, Enrique 01 July 2016 (has links)
[EN] Automatic detection of source code re-use consists in determining whether a (piece of) code has been created considering another source.Plagiarism and forks in software projects are two examples of types of re-use in source codes. With the advent of the Web and electronic media it has grown enormously the ease of access to source code to be read, copied or modified. This represents a great temptation for developers with the aim of reducing (time or economic) costs, decide to use previously debugged and tested source codes. This phenomenon has caused experts in programming languages to study the problem. The large amount of resources available on the Web makes impossible a manual analysis of suspect source codes of being re-used. Therefore, there is an urgent need to develop automated tools that can accurately detect re-used cases. Automatic re-use detection tools based on natural language processing techniques and information retrieval are able to perform many comparisons of source codes efficiently. In this thesis we propose a set of models that are suitable at both monolingual or crosslingual level. That is, two source codes written in the same, or different, programming language can be compared. Therefore, it allows us to make comparisons between almost any pair of programming languages unlike the proposals of the state of the art. First, we studied the most common changes made by programmers to avoid the detection. To address these changes and improve the detection, we have proposed a set of pre-processing. The models have been evaluated and analysed in real academic settings as well as large-scale scenarios. Finally, our best proposals were compared with some of the state of the art proposals within the same evaluation framework. These tests of our models were performed millions of monolingual and crosslingual comparisons using several techniques that were effective when applied to detection re-use in texts written in natural language. Most of the resources developed in the framework of this thesis are freely available to the scientific community. Using part of these resources, we have set up two evaluation scenarios (monolingual and crosslingual) that are a reference for current and future research works can adjust and compare their proposals. / [ES] La detección automática de reutilización en códigos fuente consiste en determinar si un (fragmento de) código ha sido creado considerando otro como fuente. El plagio y las ramificaciones en proyectos software son dos ejemplos de tipos de reutilización en códigos fuente. Con la llegada de la Web y los medios electrónicos ha crecido enormemente la facilidad de acceso a códigos fuente para ser leídos, copiados o modificados. Esto supone una gran tentación para programadores que, con propósitos de reducir costes (temporales o económicos), deciden utilizar códigos fuente previamente depurados y probados. Este fenómeno ha causado que expertos en lenguajes de programación estudien el problema. La gran cantidad de recursos disponibles en la Web hace imposible un análisis manual de códigos fuente sospechosos de haber sido reutilizados. Por ello, existe una necesidad urgente de desarrollar herramientas automáticas capaces de detectar con precisión los casos de reutilización. Basándose en técnicas del procesamiento del lenguaje natural y recuperación de información, las herramientas de detección automáticas de reutilización son capaces de realizar multitud de comparaciones de códigos fuente de forma eficiente. En esta tesis proponemos un conjunto de modelos que pueden aplicarse indistintamente a nivel monolingüe o translingüe. Es decir, se pueden comparar dos códigos que están escritos en el mismo, o en distinto, lenguaje de programación. Por lo tanto, nos permite realizar comparaciones entre casi cualquier par de lenguajes de programación a diferencia de las propuestas del estado de la cuestión. %que solo se aplican a un grupo muy reducido de lenguajes de programación. Inicialmente, hemos estudiado las modificaciones más comunes realizadas por los programadores para evitar ser detectados. Para tratar estas modificaciones y mejorar la detección, hemos propuesto una serie de preprocesos. Se han evaluado y analizado los modelos tanto en un escenario académico real como en un escenario de detección a gran escala. Finalmente, nuestras mejores propuestas se han comparado con otras propuestas del estado de la cuestión dentro de un mismo marco de evaluación. Estas pruebas de nuestros modelos se han realizado mediante millones de comparaciones tanto a nivel monolingüe como translingüe empleando diversas técnicas que fueron efectivas al aplicarlas sobre textos escritos en lenguaje natural. La mayor parte de los recursos desarrollados en el marco de esta tesis están a libre disposición de la comunidad científica. Utilizando parte de estos recursos, hemos configurado dos escenarios (monolingües y translingües) de evaluación que son un referente para que actuales y futuros trabajos de investigación puedan ajustar y comparar sus propuestas. / [CA] La detecció automàtica de reutilització en codis consisteix a determinar si un (fragment de) codi ha sigut creat considerant un altre com a font. El plagi i les bifurcacions en projectes de programari són dos exemples de tipus de reutilització en codis font. Amb l'arribada de la Web i els mitjans electrònics ha crescut enormement la facilitat d'accés a codis font per a ser llegits, copiats o modificats. Açò suposa una gran temptació per a programadors que amb propòsits de reduir costos (temporals o econòmics) decideixen utilitzar codis font prèviament depurats i provats. Aquest fenomen ha causat que experts en llenguatges de programació estudien aquest problema. La gran quantitat de recursos en la Web fa impossible una anàlisi manual de codis font sospitosos d'haver sigut reutilitzats. Es per aquest motiu que existeix una necessitat urgent de desenvolupar eines automàtiques capaces de detectar amb precisió els casos de reutilització. Basant-se en tecnologies de teoria de llenguatges i recuperació d'informació, les eines de detecció automàtiques de reutilització són capaces de realitzar multitud de comparacions de codis font de forma eficient. En aquesta tesi proposem un conjunt de models que poden aplicar-se indistintament a nivell monolingüe o translingüe. És a dir, es poden comparar dos codis que estan escrits en el mateix, o diferent, llenguatge de programació. Per tant, ens permet realitzar comparacions entre quasi qualsevol parell de llenguatges de programació a diferència de les propostes de l'estat de la qüestió. La nostra experimentació ha seguit un cert paral$\cdot$lelisme entre la detecció de reutilització monolingüe i la translingüe. Inicialment, hem estudiat les modificacions més comunes realitzades pels programadors per evitar ser detectats. Per tractar aquestes modificacions i millorar la detecció, hem proposat una sèrie de preprocesos. S'han avaluat i analitzat els models tant en un escenari acadèmic real com en un escenari de detecció a gran escala. Finalment, hem comparat les nostres millors propostes amb altres propostes de l'estat de la qüestió dins d'un mateix marc d'avaluació. Aquestes proves i comparacions dels nostres models s'han realitzat mitjançant milions de comparacions tant a nivell monolingüe com translingüe emprant diverses tècniques que van ser efectives en aplicar-se sobre textos escrits en lenguatge natural. La major part dels recursos creats en el marc d'aquesta tesi han estat de creació pròpia i estan a lliure disposició de la comunitat científica. Utilitzant part d'aquests recursos, hem proposat dos escenaris (monolingüe i translingüe) d'avaluació que són un referent perquè actuals i futurs treballs d'investigació puguin ajustar i comparar les seves propostes. / Flores Sáez, E. (2016). Detección de reutilización de código fuente monolingüe y translingüe [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/66868
208

Desarrollo y verificación de una plataforma multifísica de altas prestaciones para análisis de seguridad en ingeniería nuclear

Abarca Giménez, Agustín 02 October 2017 (has links)
In recent years, in parallel with advances in computer technology, a multitude of computer tools have been developed through which it is possible to obtain a detailed description of the phenomena occurring in the core of nuclear reactors. The final ob-jective of these new tools is to perform safety analysis using best estimate techniques. The best estimate techniques, as opposed to the conservative ones, allow the operation of the reactor with narrower safety margins, and thus greater core economy. In this context, in this work is developed an multiphysics computer platform that inte-grates simulation codes that cover most of the physics that take place in nuclear reac-tors. For the integration of the different feedback phenomena between thermal-hydraulics, neutronics and heat transfer, a series of couplings have been developed between the codes that compose the platform. All the developments carried out are intended to realistically represent the design and behavior of the nuclear facility, in-cluding the control system, fuel elements and fuel rods. The computer platform includes some of the state-of-the-art codes for reactor analysis. The thermal-hydraulics is covered with a developed coupled code, consisting of the semi-implicit coupling between the TRACE system code and the subchannel code COBRA-TF (CTF), whose parallel version has been created in this work. In transients where three-dimensional neutron calculations are necessary, the explicit coupling be-tween the three-dimensional PARCS core simulator and the subchannel code CTF has been developed. For the analysis of the integrity of the fuel rods, the FRAPCON and FRAPTRAN codes are used, coupling the latter explicitly with CTF. All the developed tools have been included in the same computer platform that en-compasses and coordinates the simulations under the user's guidelines. The platform has enough flexibility to perform safety studies in a multitude of operational or acci-dental scenarios, and it is hoped that in the future it may be used for supporting li-cense calculations. The developed tools have been verified through a series of practical applications in different transient and accidental scenarios in light water reactors. The results obtained have been compared with actual plant measurements and with the results of other simulation codes showing adequate predictive capacity. The work carried out in this doctoral thesis is part of the research line financed by the Ministerio de Economía y Competitividad in the NUC-MULTPHYS project (ENE2012-34585) and the interdisciplinary collaboration projects of the Universitat Politècnica de Valencia COBRA_PAR (PAID-05-11-2810) and Open-NUC (PAID-05-12). / En los últimos años, paralelamente a los avances en tecnología informática, se están desarrollando multitud de herramientas informáticas mediante las que es posible obte-ner una descripción detallada de los fenómenos que tienen lugar en el núcleo de los reactores nucleares. El objeto de estas nuevas herramientas es el de realizar análisis de seguridad en reactores nucleares utilizando técnicas de mejor estimación. Las técnicas de mejor estimación, en contraposición con las conservadoras, permiten la operación del reactor con márgenes de seguridad más estrechos, y por tanto mayor economía del núcleo. En este contexto, en la presente tesis doctoral se desarrolla una plataforma informática que integra códigos informáticos que cubren la mayor parte de las físicas que tienen lugar en los reactores nucleares. Para la integración de los diferentes fenómenos de realimentación entre termohidráulica, neutrónica, mecánica y transmisión de calor se han desarrollado una serie de acoplamientos entre los códigos que componen la plata-forma. Todos los desarrollos realizados tienen por objetivo representar de forma rea-lista el diseño y comportamiento de la instalación nuclear, incluyendo el sistema de control, los elementos y las varillas de combustible. En la plataforma informática se incluyen algunos de los códigos de última generación (estado de arte) para el análisis del comportamiento de reactor. En el plano termohi-dráulico se utiliza el código acoplado desarrollado, formado por el acople semi-implícito entre el código de sistema TRACE y el de subcanal COBRA-TF (CTF), cuya versión paralela ha sido creada en este trabajo. En transitorios en los que resultan ne-cesarios los cálculos de neutrónica tridimensional, se ha desarrollado el acople explíci-to entre el simulador tridimensional de núcleos PARCS y el código de subcanal CTF. Para el análisis de la integridad de las varillas de combustible se emplean los códigos FRAPCON y FRAPTRAN, acoplando este último de forma temporalmente explícita con CTF. Todos los desarrollos realizados se han incluido en una misma plataforma informática que los engloba y coordina las simulaciones bajo las directrices del usuario. La plata-forma posee suficiente flexibilidad para realizar estudios de seguridad en multitud de escenarios operacionales o accidentales, y se desea que en un futuro pueda ser utilizada en cálculos de apoyo a licencia. Las herramientas desarrolladas han sido verificadas mediante una serie de aplicaciones prácticas en distintos transitorios y escenarios acci-dentales en reactores de agua ligera. Los resultados obtenidos se han comparado con medidas reales de planta y con los resultados de otros códigos de simulación mostran-do una adecuada capacidad predictiva. El trabajo realizado en la presente tesis doctoral se enmarca dentro de la línea de in-vestigación financiada por el Ministerio de Economía y Competitividad en el proyec-to NUC-MULTPHYS (ENE2012-34585) y los proyectos de colaboración interdisci-plinar de la Universitat Politècnica de Valencia COBRA_PAR (PAID-05-11-2810) y Open-NUC (PAID-05-12) / En els últims anys, paral·lelament als avanços en tecnologia informàtica, s'estan desenvolupant multitud de ferramentes informàtiques mitjançant les quals és possible obtindre una descripció detallada dels fenòmens que tenen lloc en el nucli dels reactors nuclears. L'objecte final d'aquestes noves ferramentes és el de realitzar anàlisis de segu-retat a reactors nuclears utilitzant tècniques de millor estimació. Les tècniques de mi-llor estimació, en contraposició amb les conservadores, permeten l'operació del reactor amb marges de seguretat més estrets, i per tant una major economia del nucli. En aquest context, en el present treball de tesi es desenvolupa una plataforma in-formàtica que integra codis informàtics que cobreixen la major part de les físiques que tenen lloc als reactors nuclears. Per a la integració dels diferents fenòmens de reali-mentació entre termohidràulica, neutrònica i transmissió de calor s'han desenvolupat una sèrie d'acoblaments entre els codis que componen la plataforma. Tots els desenvo-lupaments realitzats tenen per objectiu representar de forma realista el disseny i com-portament de la instal·lació nuclear, incloent el sistema de control, els elements i les varetes de combustible. A la plataforma informàtica s'inclouen alguns dels codis d'última generació (estat de l'art) per a l'anàlisi del comportament de reactor. En el pla termohidràulic s'utilitza el codi acoblat desenvolupat, format per l'acoblament semi-implícit entre el codi de sis-tema TRACE i el de subcanal COBRA-TF (CTF), en una versió paral·lela creada en aquest treball. En transitoris en els que resulten necessaris els càlculs de neutrònica tridimensional, s'ha desenvolupat l'acoblament explícit entre el simulador tridimensio-nal de nuclis PARCS i el codi de subcanal CTF. Per a l'anàlisi de la integritat de les varetes de combustible s'empren els codis FRAPCON i FRAPTRAN, acoblant aquest últim de forma temporalment explícita amb CTF. Tots els desenvolupaments realitzats s'han inclòs en una mateixa plataforma informàti-ca que els engloba i coordina les simulacions sota les directrius de l'usuari. La plata-forma posseeix suficient flexibilitat per realitzar estudis de seguretat en multitud d'es-cenaris operacionals o accidentals, i es desitja que en un futur pugui ser utilitzada en càlculs de suport a llicència. Les ferramentes desenvolupades han sigut verificades mitjançant una sèrie d'aplicacions pràctiques en diferents transitoris i escenaris acci-dentals en reactors d'aigua lleugera. Els resultats obtinguts s'han comparat amb mesu-res reals de planta i amb els resultats obtinguts amb altres codis de simulació, mostrant una adequada capacitat predictiva. El treball realitzat en la present tesi doctoral s'emmarca dins de la línia d'investigació finançada pel Ministeri d'Economia i Competitivitat en el projecte NUC-MULTPHYS (ENE2012-34585) i els projectes de col·laboració interdisciplinar de la Universitat Politècnica de València COBRA_PAR (PAID-2810.11.05) i Open-NUC (PAID-05-12). / Abarca Giménez, A. (2017). Desarrollo y verificación de una plataforma multifísica de altas prestaciones para análisis de seguridad en ingeniería nuclear [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/88399
209

O segundo peso de Hamming do código de Reed-Muller generalizado / The second hamming weight of generalized Reed-Muller Code

Ávila, Dane Marques de 29 February 2016 (has links)
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior / In this work we present the determination of the second Hamming weight of generalized Reed- Muller codes in most cases (see Teorema 4.6). Our main reference is [13], although we have also used results from [3] and [5]. In the first chapter we describe finite fields e we show how they can be constructed. In chapter 2 we present the basics of coding theory. We define what are error correcting codes, the Hamming metric, the parameters of a code, the equivalence of codes through the concept of isometry, and we briefly present generalized Reed-Muller codes and their parameters. In chapter 3 we present some results from Grobner bases theory and the definition of Affine Cartesian codes, which generalize the generalized Reed-Muller codes. we use tools from Grobner bases theory to determine the dimension and the minimum distance of Affine Cartesian codes. We finish our work in chapter 4, with the determination of the second Hamming weight for generalized Reed-Muller codes in most cases. / Nesse trabalho apresentamos o cálculo do segundo peso de Hamming de códigos de Reed-Muller generalizados na maioria dos casos (v. Teorema 4.6). Nossa referência principal sera [13], embora tenhamos utilizado também resultados de [3] e [5]. No primeiro capítulo descrevemos os corpos finitos e mostramos como podem ser construídos. No capítulo 2 apresentamos os conceitos básicos da teoria de códigos. Nele, definimos o que são os códigos corretores de erros, a métrica de Hamming, os parâmetros de um código, a equivalência de códigos através da noção de isometria, bem como uma breve apresentação dos códigos de Reed-Muller generalizados e seus parâmetros. No capítulo 3 sao apresentados alguns resultados da teoria de Bases de Grobner e a definição dos Códigos Cartesianos Afins, que são uma generalização dos códigos de Reed-Muller generalizados. Usamos ferramentas da teoria de bases de Grobner para determinar a dimensão e distância mínima de Códigos Cartesianos Afins. Para finalizar nosso trabalho, no capítulo 4 determinamos o segundo peso de Hamming do Código de Reed-Muller generalizado na maioria dos casos. / Mestre em Matemática
210

Códigos verificadores e corretores de erros

Santos, Paulo Cesar dos January 2018 (has links)
Orientador: Prof. Dr. Armando Caputi / Dissertação (mestrado) - Universidade Federal do ABC, Programa de Pós-Graduação em Mestrado Profissional em Matemática em Rede Nacional - PROFMAT, Santo André, 2018. / Nesta dissertação, apresentamos os dígitos que verificam erros em códigos numéricos e os códigos que identificam e corrigem erros em informações transmitidas ou armazenadas. Em relação aos dígitos que verificam erros, enfocamos os sistemas modulares, os principais erros que podem ser cometidos na digitação de sequências numéricas e a eficiência do dígito para detectar sua presença. Já em códigos corretores de erros, denotamos os conceitos de um código e sua utilidade em um sistema de comunicação, mostramos como codificar uma informação e depois como decodificá-la corrigindo erros, caso existam. Finalmente, explicitamos algumas aplicações dos dígitos verificadores e códigos corretores de erros para o Ensino Fundamental e Médio. / In this dissertation, we present the digits that verify errors in numerical codes and the codes that identify and correct errors in transmitted or stored information. Regarding the digits that verify errors, we focus on the modular systems, the main errors that can be presented during the typing of numerical sequences and the efficiency of the digit to detect their presence. As for theerror-correcting codes, we denote the concepts of a code and its use in a communication system, we show how to code pieces of information and then how to decode it correcting errors, in case they exist. Finally, we described in details some applications of the verifier digits and error correction codes for Elementary and Middle School.

Page generated in 0.0415 seconds