• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 11
  • 2
  • Tagged with
  • 13
  • 6
  • 5
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Proyecciones de hogares: una aplicación para Venezuela al horizonte 2021

Yépez Martínez, Brenda 04 October 2010 (has links)
La previsión del volumen y de la estructura por edad de la población es una información capital para que los poderes públicos puedan articular sus políticas y actuaciones anticipándose a situaciones a menudo cambiantes e inciertas. La necesidad de información más precisa para campos específicos como el de la vivienda, el consumo doméstico de energía, de agua u otros rubros ha contribuido a la generalización de proyecciones de hogares en los últimos años, aunque éstas todavía son poco frecuentes en Latinoamérica. Tradicionalmente, el método más conocido y aplicado para proyectar hogares es el denominado tasa de jefatura. No obstante, sus resultados sólo proporcionan información sobre del número de hogares según la edad y el sexo de la persona de referencia, lo que supone una gran limitación. Más aún en países como los latinoamericanos, donde los hogares extensos son más frecuentes y el tamaño medio de los hogares es mayor que en los países desarrollados. El principal objetivo de esta tesis doctoral es presentar un método de proyección que supere estas limitaciones. En concreto, se trata de proyectar los hogares de Venezuela al horizonte 2021 por tamaño y edad de la persona de referencia. La investigación también se centra en realizar un repaso de las diferentes metodologías utilizadas para la proyección de hogares, destacando sus ventajas y sus limitaciones. Esta revisión no se limitará sólo a los autores sino que también incluye las aportaciones de las Oficinas Nacionales de Estadística que realizan proyecciones de hogares a escala mundial. Se aplica finalmente el método de proyección Alfa ( ) de Ediev (2007) a partir de los microdatos censales de 2001. Palabras claves: proyección de hogares, modelo estático, modelo dinámico, extensión del método de jefatura, método alfa. / The volume and population age structure forecast is key information to public authorities and their policies and actions for anticipation of situations often uncertain. The need for more detailed information for specific fields like housing, household energy, water or other items contributed to the widespread use of household projections in recent years, although they are still rare in Latin America. Traditionally, the most known and applied method to project households is so called the headship rate. However, the results only provide information about the number of households by age and sex of the reference person, which is a major constraint. Further to the Latin American countries, where extended households are more common and average household size is greater than in developed countries. The main objective of this thesis is to present a projection method which overcomes these limitations. In particular, it is projecting Venezuela households up to the year 2021 by size and reference person age. The research also focuses on making an overview of the different methodologies used for the household projection, its benefits and limitations. This review is not limited only to the authors, includes also contributions from national statistical offices that make households projections worldwide. We apply Ediev (2007) projection method Alfa using micro census data. KEY WORDS: household projections, static model, dynamic model, headship rate extent method, alpha method.
2

Nuevo sistema empírico de apoyo a la toma de decisiones de compraventa de acciones

Moreno Aracena, Luis Ignacio January 2014 (has links)
Ingeniero Civil Eléctrico / En el mundo financiero, la decisión de compraventa de activos se suele asentar en el análisis fundamental a largo plazo, combinado con análisis técnico a corto plazo; con el objetivo de establecer un momento adecuado para la adquisición y enajenación de activos. En la última década, se ha verificado un crecimiento exponencial en la capacidad de procesamiento y de manejo de bases de datos; siendo la minería de estos vastamente estudiada y aplicada exitosamente en distintos campos, entre los cuales se encuentran las finanzas. En el presente trabajo, se estudia la existencia de estructura con capacidad predictiva en activos financieros, con el fin de anticipar cambios de tendencia y así obtener retornos por sobre el mercado. Para esto, se desarrolla a cabalidad el proceso de extracción de conocimiento de bases de datos, el que considera desde la generación de variables, hasta la obtención de información, a partir de los datos transaccionales de las acciones que componen el Índice de Precios Selectivo de Acciones (IPSA) 2013. En este sentido, es importante precisar que la metodología clásica en la predicción de series de tiempo, se basa en la utilización de precios anteriores para así predecir el precio futuro, utilizando ventanas de tiempo estáticas. En este trabajo se estudia un método nuevo, donde la variable objetivo, en vez de ser retornos en ventanas temporales, son tanto retornos como ventanas dinámicas, extraídas a partir de extensiones no causales de retracciones porcentuales del precio (indicador ZigZag) de las acciones, las que representan mínimos y máximos locales de la serie de tiempo; evitando así sobreajuste temporal y acomodándose a los cambios de ciclo del activo en estudio. Se generan variables independientes a partir de datos de transacciones realizadas por parte de miembros de las compañías (Insiders) e indicadores técnicos tales como cruces, divergencias y zonas de agotamiento a partir de Medias Móviles Convergentes/Divergentes, Índice de fuerza Relativa y Oscilador Estocástico. Se realiza selección de características mediante Forward Selection y Backward Elimination, para encontrar un subconjunto de atributos adecuado y analizar su impacto predictivo. Se aplican algoritmos de aprendizaje supervisado con capacidad de extraer patrones altamente no lineales, destacando Redes Neuronales de Retropropagación, Máquinas de Soporte Vectorial y Métodos Basados en Similitud. Con el fin de determinar el ciclo del mercado al que mejor se ajustan los atributos extraídos y el mejor modelo predictor sobre la base de datos no balanceada, se evalúa la combinación de predicciones de compraventa (anticipaciones de cambio de tendencia) utilizando clasificador Bayesiano ingenuo y operadores lógicos. Finalmente, se realiza una evaluación tanto cualitativa (visual) como cuantitativa (mediante un simulador de inversiones) del comportamiento de las recomendaciones de compraventa; analizando la distribución de retorno, drawdown y tiempo de apertura de las operaciones. De lo anterior puede concluirse que dentro de lo caótico del mercado bursátil, subyace estructura altamente no lineal con poder anticipativo de cambios de tendencia de los activos; la cual se puede atribuir a que, en Chile, el mercado es poco profundo, ilíquido o ineficiente.
3

"Sistema integrado de información de la producción para la gestión comercial"

Vecchiola Cárdenas, Mario Renato January 2014 (has links)
Magíster en Gestión y Dirección de Empresas / Codelco es el principal productor de Cu del mundo, en el 2012, produjo 1,75 millón de toneladas métricas de cobre refinado. La compañía ejecuta sus operaciones a través de seis divisiones mineras más la Fundición y Refinería Ventanas, que pertenece a Codelco desde mayo de 2005. Cuenta además con la División Ministro Hales, que a fines de 2013 pondrá en operación el proyecto del mismo nombre. El área encargada de la venta de todo el Cu producido por Codelco además de los subproductos es la Vicepresidencia Comercial (VCO) que cuenta con una red de subsidiarias y agentes a través de todo el mundo para la colocación de estos productos. Además, la VCO es la encargada de coordinar toda la logística interna y de ventas, el movimiento de materiales entre divisiones, manejo de inventarios, reclamos de clientes, temas de calidad, documentación de exportación, facturación y pagos. Por último, la VCO es el área encargada de la promoción del Cu y Mo a través de su participación en la ICA (International Copper Association) y e IMOA (International Molybdenum Association), 2 entidades encargadas de la promoción y buscar nuevos usos para dichos metales. La venta de toda la producción de Cu (Cu refinado: cátodos y Cu No Refinado: ánodos, blíster, concentrados) como también de los principales subproductos (Molibdeno, barros anódicos, ácido sulfúrico, oro, plata, etc.) de la corporación, se realiza a través de campañas de ventas que se efectúan entre Octubre y Noviembre del año anterior de la producción, en contrato anuales, con cuotas fijas mensuales de embarque dejándose aproximadamente un 10% de producción para ser comercializada en el mercado spot, cifra que se utiliza como buffer para absorber las variaciones de los programas de producción. Para cumplir con su función de una buena manera, es primordial para la VCO contar con una buena información del cumplimiento de los programas de producción de las distintas divisiones, sus requerimientos internos y sus desviaciones de forma de tener una visión clara de cuanto, qué y cuándo vender y de esta forma maximizar el retorno por la venta de los productos de Codelco. Si la información no es buena, no habrá material a la hora de tener que cumplir con un compromiso o sobrará material y no habrá colocación de este, por lo que será necesario tener que salir a comprar o vender (dependiendo del caso) en el mercado spot y dependiendo de las condiciones, puede que se generen pérdidas para la corporación, o mejor dicho, no se le saca el mejor rendimiento a esta compra/venta de lo que se podría haber sacado, de haber tenido la información en el momento adecuado.
4

El poder predictivo de los Ratios P/B y P/E.

Maldonado Gallardo, Fabiola January 2004 (has links)
Utilizando el procedimiento empleado por Fairfield [1994] en una muestra de empresas chilenas que cotizan en bolsa, se ha estudiado la utilidad de los ratios precio a libro y precio a utilidad (P/B y P/E) para predecir futuros patrones de ROE. Según el modelo, P/B debería correlacionar positivamente con ROE futuro y P/E debería correlacionar positivamente con crecimiento en resultados, permitiendo este último obtener información adicional del ROE, no contenida en el ratio P/B. Los resultados presentados aquí (sujetos a la muestra estudiada) no son idénticos a los obtenidos por Fairfield [1994] para USA, no obstante los principales resultados se cumplen ya que existe una relación positiva del ROE con el ratio P/B y adicionalmente se cumple el rol dado al ratio P/E el cual entregaría información adicional.
5

Evaluación de programación de compras de commodities agrícolas basada en modelos de predicción de precios

Pacheco Robert, Cristián Alberto January 2017 (has links)
Ingeniero Civil Industrial / En el mundo financiero, el precio de los commodities suele ser difícil de predecir debido a que se ven afectados por diversos factores, existiendo numerosas investigaciones gracias a la cantidad de información disponible. Sin embargo, la mayoría usa información perfecta para sus predicciones, constituyendo este trabajo un aporte, pues para predecir se usó información que hubiera estado disponible en la realidad, agregando un fin práctico al estudio. El trabajo se realizó en la empresa IANSA, dentro la Gerencia de desarrollo estratégico, estudiando las compras realizadas por las áreas de Nutrición animal y Mascotas, pertenecientes a la unidad de negocios llamada Nutrición animal. Se tiene como fin el buscar establecer estrategias de compras factibles que permitan reducir los costos de compra de materias primas agrícolas y poder desarrollar ventajas competitivas frente a otros actores del mercado, abarcándose en este estudio, el afrechillo, triticale, maíz, y soya. Estos últimos representaron el 23% del costo de producción de la unidad en 2015 (15 MM USD), y sumándole el resto de materias primas, el 63% (42 MM USD). En primer lugar, se realizó un estudio del mercado del trigo, maíz, y soya, para comprender su cadena de comercialización y variables que deben ser tomadas en cuenta, complementando estas últimas con las identificadas en la revisión bibliográfica, y agrupándose finalmente en mercado chileno, mercado internacional, macroeconomía, productos relacionados, y clima. Siguiendo la bibliografía consultada, se usaron series de tiempo multivariadas, y adicionalmente regresiones lineales para facilitar el uso diario. Para la calibración se usó información entre 2006 y 2014, y para la evaluación, información entre 2015 y 2016, realizando predicciones a 1, 3, y 6 meses, cuyo MAPE fue menor a 10% en el caso del VECM en todos los períodos, mostrando un buen nivel de ajuste, y diferencias muy pequeñas respecto de la regresión. En base a las predicciones se generaron estrategias de compras a 3 y 6 meses, que se compararon con la estrategia de IANSA, estrategia de compra mensual sin ninguna anticipación, y simulaciones del comportamiento de IANSA, todas durante el período 2015 y 2016. Se tuvo como resultado que siempre fue más conveniente la estrategia a 6 meses, con el maíz en Mascotas como principal fuente de ahorros, con 73 MM CLP (0,11 MMUSD) entre 2015 y 2016 frente a compras del área, equivaliendo a un 2% de ese costo (3.830 MM CLP o 5,89 MMUSD).
6

Aplicaciones estadísticas de las proyecciones aleatorias

Nieto Reyes, Alicia 26 February 2010 (has links)
Dado un conjunto de datos, o una distribución, en un espacio de dimensión mayor a uno, las proyecciones aleatorias consisten en proyectar los datos, o calcular la marginal de la distribución, en un subespacio de menor dimensión que ha sido elegido de forma aleatoria. En nuestro caso de dimensión uno. En esta tesis presentamos dos aplicaciones de las proyecciones aleatorias. La primera es una definición de profundidad, que es computacionalmente efectiva, aproxima a la conocida profundidad de Tukey y es válida tanto en espacios multidimensionales como funcionales. La segunda es un test de Gaussianidad para procesos estrictamente estacionarios, que rechaza procesos no Gaussianos con marginal unidimensional Gaussiana. / A random projection consists in projecting a given data set, or in computing the marginal of a distribution, on a randomly chosen lower dimensional subspace. In our case, it is of dimension one.In this thesis, we present two applications of the random projections. The first one is a new definition of depth that is computationally effective, approximates the well-known Tukey depth and works as much in multidimensional spaces as in functional. The second is a test of Gaussianity for strictly stationary processes, which rejects non-Gaussian processes with Gaussian one-dimensional marginal.
7

Análisis estratégico de los estudios TIC en la Universidad Politécnica de Valencia

Capilla Lladró, Roberto 25 June 2009 (has links)
En estos momentos la Universidad española se encuentra ante un momento crucial en el que se conjuga, entre otros, por una parte la incorporación al espacio europeo de educación superior, y por otra un prolongado descenso en el número de alumnos que acceden a la Universidad. Para afrontar esta coyuntura las Universidades han iniciado la elaboración de planes estratégicos, programas globales, análisis de la situación de cada universidad, etc., En este trabajo se realiza un análisis estatrégico de la evolución de las titulaciones TIC en la UPV, con los objetivos de analizar la evolución de estos estudios en los últimos años y determinar cuál va a ser la evolución previsible en los próximos, con el fin de plantear acciones que permitan decantar a más alumnos hacia estas carreras, si se considera necesario desde los órganos de gobierno. Adicionalmente se propone desarrollar una metodología de análisis trasferible a otras áreas de estudio El trabajo se inicia con una descripción de los objetivos perseguidos y la metodología seguida para alcanzarlos. En el Capítulo 2 se analiza el sistema educativo español, en el Capítulo 3 se analizan los datos utilizados referentes al sistema educativo, tanto globales como locales, dedicando el Capítulo 4 especialmente al empleo. En el capítulo 5 se analizan los estudios TIC en la UPV y en el Capítulo 6 se presentan las conclusiones del trabajo. / Capilla Lladró, R. (2009). Análisis estratégico de los estudios TIC en la Universidad Politécnica de Valencia [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/5767 / Palancia
8

Plan de negocio para la importación y distribución mayorista de productos tecnológicos a través de un portal web / Business plan for the import and wholesale distribution of technological products through a web portal

Barriga Advincula, Luis Eusebio, Verástegui Peláez, Rafael Alberto, Zegarra Murgado, Jorge Alejandro 02 August 2021 (has links)
El presente modelo de negocio consiste en la importación de artículos o aparatos electrónicos y tecnológicos producidos en China para ser comercializados al por mayor a comerciantes minoristas en el mercado peruano, a través de un portal web, teniendo en cuenta los requerimientos y características que se necesitan, según la percepción de calidad que tiene el cliente. Para esto se elaboró un sondeo a distribuidores minoristas ubicados en centros comerciales en Lima Metropolitana, sobre calidad, variedad y distribución de productos tecnológicos entre otros; en la que podemos observar resultados importantes a tomar en cuenta: un 66% de encuestados, considera que la calidad de productos podría mejorar; un 64%, considera que no les ofrecen los productos necesarios para su negocio y un 47%, considera mala la distribución de productos. Para el abastecimiento, se ha previsto la selección de proveedores de China, mediante un plan de importación semestral. El plan de marketing se sintetiza en la diferenciación de nuestros productos, distribución y su servicio post venta, para ello se tiene previsto gastos de publicidad en marketing digital, contando con un portal web especializado para las ventas online. La inversión del proyecto totaliza casi S/ 300,000. La estructura financiera estaría conformada por el aporte de capital de 3 socios en partes iguales. Las proyecciones financieras efectuadas a valores constantes se contemplan con un horizonte de evaluación de 5 años. Los indicadores de rentabilidad revelan índices favorables para el proyecto con una TIR del 95.20%, un VAN de S/ S/ 2,091,072. / This business model consists of the importation of electronic and technological articles or devices produced in China to be sold wholesale in the Peruvian market, through a web portal, taking into account the requirements and characteristics that are needed, according to the perception of quality that the client has. For this, a survey of retail distributors located in shopping centers in Metropolitan Lima was carried out on quality, variety and distribution of technological products, among others; in which we can observe important results to take into account: 66% of respondents consider that the quality of products could improve; 64% consider that they are not offered the products necessary for their business and 47% consider the product distribution bad. For the supply, the selection of suppliers from China has been foreseen, with a biannual import plan. The Marketing Plan is synthesized in the differentiation of our products, distribution and their after-sales service, for this, advertising expenses in digital marketing are planned, with a specialized web portal for online sales. The project investment totals almost S / 300,000. The financial structure would be made up of the capital contribution of 3 partners in equal parts. Financial projections made at constant values ​​are contemplated with an evaluation horizon of 5 years. The profitability indicators reveal favorable indices for the project with an IRR of 44.52%, a NPV of S / 842,640. / Trabajo de investigación
9

Implementación VLSI del algoritmo de proyecciones sucesivas para detección de sistemas MIMO

Marín-Roig Ramón, José 05 April 2016 (has links)
[EN] The insatiable demand for bandwidth of communication on the part of end-users, linked to the lowering the price of the terminals and in telecommunication services have led to a spectacular growth of the wireless communications market in recent years. Those entities that are responsible, at the international level, of the technological standardization have known to guide this growth writing standards as LTE (Long Term Evolution), IEEE 802.11 (WiFi) and IEEE 802.16 (WiMax) or 3G networks or 4GPP. They all share a common denominator, for the improvement of the spectral efficiency, the use of MIMO technologies, which uses multiple antennas on transmitter and receiver, and the use of high modulation schemes as 256QAM, introduced in revision 12 of the standard 3GPP-LTE. Under this perspective of great gains in the spectral efficiency, it is not surprising that MIMO technology has been incorporated into the standards mentioned above. However, achieving these gains is not trivial, to the extent that the VLSI implementation of this technology has become a challenge. In this thesis has undertaken a comprehensive study of different MIMO detectors, studying those belonging to the two families that show best features for being implemented in VLSI technology: successive interference cancellation (VBLAST detector) and based on a search in tree (KBest detector). Although initially the benefits achieved by the seconds (KBest) are far superior to those of the first (VBLAST), the recent appearance in the specialized literature of the Successive Projections Algorithm (SPA) opens the door to the development of a new detector, belonging to the family of the detectors of Successive Interference Cancellations (SIC), which will be able to compete in performance with the KBest detectors. This work provides the necessary algorithmic keys that make viable and competitive the hardware implementation of the SPA algorithm. In particular, two mechanisms of control of repetitions have been developed: Simplified-ESPA (SESPA) and Table-ESPA (TESPA), and the mechanisms for obtaining hard and soft output, existing in the literature, have been adapted to this algorithm. It has designed the first VLSI architecture for the SPA algorithm, being highly flexible, in the sense that adapts to different conditions of transmission and complies with the latest published specifications in the WiMAX and LTE standards. The flexibility of the architecture allows you to select different configurations of antennas in transmission and reception, from 2x2 to 4x4, different modulation schemes from QPSK until 256QAM, controls the balance between transmission rate and the benefits BER/FER and offers the soft output and hard output decisions. Finally, with this architecture has been implemented the SESPA and TESPA detectors, with soft output and hard output, in FPGA and ASIC technology. These detectors have been evaluated and compared to the best published in the specialized literature, achieving a peak rate of 465 Mbps for the detector SESPA 4x4 256QAM, with an area of 3.83 mm2 with a 90 nm technology. The detectors implemented offer as added value, in addition to the high configurability, the ability to decode 256-QAM without increasing the area. This feature is highly competitive with the non-linear detectors based on KBest, which are very sensitive, in regard to decoding rate and area, with the selected modulation scheme. In addition, the detectors based on ESPA reach a FER performance (soft output) clearly competitive with KBest detectors, due to a higher quality of the LLR generated by the ESPA. The comparison with other flexible architectures selected shows that the SESPA and TESPA detectors offer the greater configurability of transmission parameters and the best balance between area, BER performance and detection rate. / [ES] La insaciable demanda de ancho de banda de comunicación por parte de los usuarios finales, unido al abaratamiento de los terminales y de los servicios de telecomunicación han provocado un crecimiento espectacular del mercado de las comunicaciones inalámbricas en estos últimos años. Las entidades responsables, a nivel internacional, de la estandarización tecnológica han sabido acompañar y guiar este crecimiento redactando normas como LTE (Long Term Evolution), IEEE 802.11 (WiFi) e IEEE 802.16 (WiMax) o las redes 3G o 4GPP. Todas ellas comparten como denominador común, para la mejora de la eficiencia espectral, el uso de las tecnologías MIMO, que utiliza múltiples antenas en emisor y receptor, y el uso de esquemas de modulación elevados como 256QAM, introducido en la revisión 12 del estándar 3GPP-LTE. Bajo esta perspectiva de grandes ganancias en la eficiencia espectral, no es de extrañar que la tecnología MIMO haya sido incorporada en los estándares mencionados anteriormente. No obstante, conseguir estas ganancias no es trivial, hasta el punto de que la implementación VLSI de esta tecnología se ha convertido en un reto. En esta tesis se ha realizado un estudio exhaustivo de diferentes detectores MIMO, fijando el punto de mira en aquellos pertenecientes a las dos familias que muestran mejores características para su implementación VLSI: cancelación sucesiva de interferencias (detector VBLAST) y basados en búsqueda en árbol (detector KBest). Aunque inicialmente las prestaciones alcanzadas por los segundos (KBest) son muy superiores a las de los primeros (VBLAST), la reciente aparición en la literatura especializada del algoritmo de proyecciones sucesivas (SPA) abre la puerta al desarrollo de un nuevo detector, que pueda competir en prestaciones con los detectores KBest. La tesis aporta las claves algorítmicas necesarias que hacen viable y competitiva la implementación hardware del algoritmo SPA. En particular, se han desarrollado dos mecanismos de control de repeticiones: Simplified-ESPA (SESPA) y Table-ESPA (TESPA), y se han adaptado los mecanismos de obtención de salidas hard output y soft output, existentes en la literatura, a este algoritmo. Se ha diseñado la primera arquitectura VLSI para el algoritmo SPA, siendo ésta altamente flexible, en el sentido de que se adapta a diferentes condiciones de transmisión y cumple con las últimas especificaciones publicadas en los estándares WiMAX y LTE. La flexibilidad de la arquitectura permite seleccionar diferentes configuraciones de antenas en transmisión y recepción, desde 2x2 hasta 4x4, diferentes esquemas de modulación desde QPSK hasta 256QAM, controla el balance entre tasa de transmisión y las prestaciones BER/FER y ofrece las decisiones soft output y hard output. Finalmente, con esta arquitectura se ha realizado la implementación de los detectores SESPA y TESPA, con salidas soft output y hard output, en los dispositivos FPGA y ASIC. Estos detectores han sido evaluados y comparados con los mejores publicados en la literatura especializada, consiguiendo la tasa de pico máxima de 465 Mbps para el detector SESPA 4x4 256QAM, en un área de 3.83 mm2 con una tecnología de 90 nm. Los detectores implementados ofrecen como valor añadido, además de la alta configurabilidad, la posibilidad de decodificar 256QAM sin incrementar el área. Esta característica es altamente competitiva con los detectores no lineales basados en KBest, que son muy sensibles, en cuanto a tasa de decodificación y área se refiere, con el esquema de modulación seleccionado. Además, los detectores basados en ESPA alcanzan unas prestaciones FER (soft output) claramente competitivas con los detectores KBest, debido a la mayor calidad del LLR generado por el ESPA. La comparación con otras arquitecturas flexibles seleccionadas demuestra que los detectores SESPA y TESPA ofrecen la mayor configurabilidad de parámetros de transmisión y el mejor equilibrio entre área, pr / [CAT] La insaciable demanda d'ample de banda de comunicació per part dels usuaris finals, unit a l'abaratiment dels terminals i dels servicis de telecomunicació han provocat un creixement espectacular del mercat de les comunicacions sense fils en aquests últims anys. Les entitats responsables, a nivell internacional, de l'estandardització tecnològica han sabut acompanyar i guiar aquest creixement redactant normes com LTE (Long Term Evolution), IEEE 802.11 (WiFi) i IEEE 802.16 (WiMax) o les xarxes 3G o 4GPP. Totes elles comparteixen com denominador comú, per a la millora de l'eficiència espectral, l'ús de les tecnologies MIMO, que utilitza múltiples antenes en emissor i receptor, i l'ús d'esquemes de modulació elevats com 256QAM, introduït en la revisió 12 de l'estàndard 3GPP-LTE. Baix esta perspectiva de grans guanys en l'eficiència espectral, no és d'estranyar que la tecnologia MIMO hi haja estat incorporada en els normatives mencionats anteriorment. No obstant això, aconseguir aquests guanys no és trivial, fins l'extrem que la implementació VLSI d'aquesta tecnologia s'ha convertit en un repte. En aquesta tesi s'ha realitzat un estudi exhaustiu de diferents detectors MIMO, fixant el punt de mira en aquells que pertanyen a les dos famílies que mostren millors característiques per a la seua implementació VLSI: cancel-lació successiva d'interferències (detector VBLAST) i els basats en recerca en arbre (detector KBest). Encara que inicialment les prestacions aconseguides pels segons (KBest) són molt superiors a les dels primers (VBLAST), la recent aparició en la literatura especialitzada de l'algoritme de projeccions successives (SPA) permet el desenvolupament d'un nou detector, que puga competir en prestacions amb els detectors KBest. Este treball aporta les claus algorítmiques necessàries que fan viable i competitiva la implementació hardware de l'algoritme SPA. En particular, s'han desenvolupat dos mecanismes de control de repeticions: Simplified-ESPA (SESPA) i Table-ESPA (TESPA), i s'han adaptat els mecanismes d'obtenció d'eixides hard-output i soft-output, existents en la literatura, a aquest algoritme. S'ha dissenyat la primera arquitectura VLSI per a l'algoritme SPA, sent aquesta altament flexible, en el sentit de que s'adapta a diferents condicions de transmissió i acompleix les últimes especificacions publicades en els estàndards WiMax i LTE. La flexibilitat de l'arquitectura permet seleccionar diferents configuracions d'antenes en transmissió i recepció, des de 2x2 fins 4x4, diferents esquemes de modulació des de QPSK fins 256QAM, controla el balanç entre taxa de transmissió i les prestacions BER/FER i ofereix les decisions hard output i soft output. Finalment, amb l'arquitectura proposta s'ha realitzat la implementació dels detectors SESPA i TESPA, amb eixides hard output i soft output, en els dispositius FPGA i en ASIC. Aquests detectors han segut valorats i comparats amb els millors publicats en la literatura especialitzada, i s'ha aconseguint la taxa de pic màxim de 465 Mbps per al detector SESPA 4x4 256QAM, dins una àrea de 3.83 mm2 en una tecnologia de 90 nm. Els detectors implementats ofereixen com a valor afegit, a més de l'alta configurabilitat, la possibilitat de decodificar 256QAM sense incrementar l'àrea. Esta característica és altament competitiva en els detectors no lineals basats en KBest, que són molt sensibles, en relació a taxa de decodificació i a l'àrea del circuit, a l'esquema de modulació seleccionada. A més a més, els detectors basats en ESPA aconsegueixen unes prestacions FER (soft output) clarament competitives amb els detectors KBEST, degut a la major qualitat del LLR generat per l'ESPA. La comparació amb altres arquitectures flexibles seleccionades demostra que els detectors SESPA i TESPA ofereixen una major configurabilitat de paràmetres de transmissió i un millor equilibri entre l'àrea del circuit, les prestacions BER i la taxa de dete / Marín-Roig Ramón, J. (2016). Implementación VLSI del algoritmo de proyecciones sucesivas para detección de sistemas MIMO [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/62164 / TESIS
10

Análisis y desarrollo de algoritmos de altas prestaciones para reconstrucción de imagen médica TAC 3D basados en la reducción de dosis.

Chillarón Pérez, Mónica 21 January 2022 (has links)
Tesis por compendio / [ES] La prueba médica de Tomografía Computarizada (TC) es esencial actualmente en la práctica clínica para el diagnóstico y seguimiento de múltiples enfermedades y lesiones, siendo una de las pruebas de imagen médica más importante por la gran cantidad de información que es capaz de aportar. Sin embargo, a diferencia de otros métodos de diagnóstico por imagen que son inocuos, la prueba de TC utiliza rayos X, que son ionizantes, por lo que suponen un riesgo para los pacientes. Es por ello que es necesario desarrollar métodos que permitan reducir la dosis de radiación a la que se expone a los pacientes que se realizan un estudio, sin comprometer la calidad de imagen puesto que sino se estaría sometiendo a un riesgo a estas personas sin que un diagnóstico de calidad esté garantizado. Durante el desarrollo de esta tesis se han investigado métodos de reconstrucción de imagen TC que se basan en reducir el número de proyecciones usadas, con el objetivo de reducir el tiempo de exposición a los rayos X. Esta estrategia de reducción de dosis está en fase de investigación, a diferencia de otras que están implantadas en la práctica clínica y ya han sido desarrolladas por los propios fabricantes de los escáneres. Por tanto, nos hemos centrado en los llamados métodos algebraicos de reconstrucción, que son los más apropiados para este tipo de adquisición de proyecciones puesto que son capaces de trabajar con menos información que los métodos clásicos conservando una buena calidad de imagen. En concreto, se ha estudiado a fondo el comportamiento del método LSQR para la resolución de este problema, combinado con una técnica de filtrado llamada Soft Thresholding Filter y una técnica de aceleración llamada FISTA. Además, se ha introducido el filtro de imagen Bilateral que es capaz de mejorar la calidad de las imágenes cuando se combina con los métodos anteriores. El estudio multiparamétrico realizado se ha llevado a cabo en un entorno de computación distribuida Grid, para analizar cómo los distintos parámetros que intervienen en el proceso de reconstrucción pueden influir sobre la imagen resultado. Dicho estudio se ha diseñado para hacer uso de la potencia de cómputo de la plataforma distribuida aunque el software que se necesita no esté disponible. La instalación de dicho software se puede realizar en el tiempo de ejecución de los trabajos, o en se puede empaquetar en una imagen que estará instalada en un contenedor Docker, lo que es una opción muy interesante para sistemas donde no tengamos privilegios. El esquema seguido para la creación y lanzamiento de los trabajos es fácilmente reproducible. Por otra parte, se han planteado dos métodos algebraicos directos para la reconstrucción de TC basados en la factorización de la matriz que modela el sistema. El primero es el método SVD, que se ha probado mediante la librería SLEPc, obteniendo mayores tasas de uso de memoria principal, por lo que ha sido descartado en favor del método QR. La primera aproximación a la resolución se ha hecho mediante la librería SuiteSparseQR, desarrollando después un método propio siguiendo la técnica Out-Of-Core que permite almacenar las matrices en el propio disco duro en lugar de cargarlas en memoria, por lo que el tamaño del problema puede aumentar sin que el coste del hardware sea muy alto. Dicho método obtiene reconstrucciones de alta calidad cuando el rango de la matriz factorizada es completo. En los resultados se muestra como para una resolución alta, garantizar el rango completo todavía supone una reducción del número de proyecciones con respecto a métodos tradicionales. Por tanto, en esta tesis se ha llevado a cabo la investigación y el posterior desarrollo mediante librerías y técnicas de computación de Altas Prestaciones de varios métodos algebraicos de reconstrucción de TC basados en la reducción de proyecciones que permiten mantener una buena calidad de imagen. Dichos métodos han sido optimizados para lograr los menores tiempos de reconstrucción posibles, con el fin de hacerlos competitivos y que algún día puedan ser instaurados en la práctica clínica. / [CA] Actualment, la prova mèdica de tomografia computeritzada (TC) és essencial en la pràctica clínica per al diagnòstic i el seguiment de múltiples malalties i lesions, sent una de les proves d'imatge mèdica més importants a causa de la gran quantitat d'informació que és capaç d'oferir. Tanmateix, a diferència d'altres mètodes d'imatge médica, la prova CT utilitza raigs X, que són ionitzants i suposen un risc per als pacients. Per això, és necessari desenvolupar mètodes que permetin reduir la dosi de radiació a la qual estan exposats els pacients sotmesos a un estudi, sense comprometre la qualitat de la imatge, ja que en cas contrari estarien sotmetent a aquestes persones a un risc sense que es garantís l'avantatge d'un diagnòstic d'alta qualitat. Durant el desenvolupament d'aquesta tesi, s'han investigat diversos mètodes de reconstrucció d'imatges CT basats en la reducció del nombre de projeccions utilitzades, amb l'objectiu de reduir el temps d'exposició als raigs X. Aquesta estratègia de reducció de dosis es troba en fase investigació, a diferència d'altres que s'implementen a la pràctica clínica i que ja han estat desenvolupades pels propis fabricants d'escàners. Per tant, ens hem centrat en els anomenats mètodes de reconstrucció algebraica, que són els més adequats per a aquest tipus d'adquisició de projecció, ja que són capaços de treballar amb menys informació que els mètodes clàssics mantenint una bona qualitat d'imatge. Concretament, s'ha estudiat a fons el comportament del mètode LSQR per resoldre aquest problema, combinat amb una tècnica de filtratge anomenada Soft Thresholding Filter i una tècnica d'acceleració anomenada FISTA. A més, s'ha introduït un filtre d'imatges anomenat filtre bilateral, que és capaç de millorar la qualitat de les imatges quan es combina amb els mètodes anteriors. L'estudi multiparamètric de LSQR es va dur a terme en un entorn informàtic distribuït Grid, per analitzar com els diferents paràmetres implicats en el procés de reconstrucció poden influir en la imatge resultant. Aquest estudi ha estat dissenyat per fer ús de la potència de càlcul de la plataforma distribuïda encara que el programari requerit no estigui disponible. La instal·lació d'aquest programari es pot fer en el moment d'executar els treballs o es pot empaquetar en una imatge que s'instal·larà en un contenidor Docker, que és una opció molt interessant per a sistemes on no tenim privilegis. L'esquema seguit per a la creació i el llançament dels treballs es pot reproduir fàcilment per a estudis multiparamètrics d'aquest tipus. D'altra banda, s'han proposat dos mètodes algebraics directes per a la reconstrucció CT basats en la factorització de la matriu que modela el sistema. El primer és el mètode SVD, que s'ha provat mitjançant la biblioteca SLEPc, obtenint taxes d'ús més alt de memòria principal, motiu pel qual s'ha descartat a favor del mètode QR. La primera aproximació a la resolució s'ha fet a través de la biblioteca SuiteSparseQR, desenvolupant posteriorment la nostra pròpia implementació mitjançant la tècnica Out-Of-Core que permet emmagatzemar les matrius al disc dur en lloc de carregar-les a la memòria, de manera que la mida de el problema pot augmentar sense que el cost del maquinari sigui molt alt. Aquest mètode obté reconstruccions d'alta qualitat quan el rang de la matriu factoritzada és complet. En els resultats es demostra que per a una alta resolució, garantir el rang complet encara significa una reducció del nombre de projeccions en comparació amb els mètodes tradicionals. Per tant, en aquesta tesi s'ha dut a terme la investigació i el desenvolupament posterior de diversos mètodes de reconstrucció algebraica de CT mitjançant biblioteques i tècniques de computació d'altes prestacions. Aquests mètodes basats en la reducció de projeccions, que permeten mantenir una bona qualitat d’imatge, s’han optimitzat per aconseguir els temps de reconstrucció més breus possibles, per tal de fer-los competitius perquè algun dia puguin implementarse a la pràctica clínica. / [EN] The Computerized Tomography (CT) medical test is currently essential in clinical practice for the diagnosis and monitoring of multiple diseases and injuries, being one of the most important medical imaging tests due to the large amount of information it is capable of providing. However, unlike other safe imaging methods, the CT test uses X-rays, which are ionizing, posing a risk to patients. That is why it is necessary to develop methods that allow reducing the radiation dose to which patients undergoing a study are exposed, without compromising image quality since otherwise they would be subjecting these people to a risk without the benefit of a high-quality diagnosis being guaranteed. During the development of this thesis, several CT image reconstruction methods that are based on reducing the number of projections used have been investigated, with the aim of reducing the time of exposure to X-rays. This dose reduction strategy is in research phase, unlike others that are implemented in clinical practice and have already been developed by the scanner manufacturers themselves. Therefore, we have focused on the algebraic reconstruction methods, which are the most appropriate for this type of projection acquisition since they are capable of working with less information than the classical methods while maintaining good image quality. Specifically, the behavior of the LSQR method to solve this problem has been thoroughly studied, combined with a filtering technique called Soft Thresholding Filter and an acceleration technique called FISTA. In addition, the so-called Bilateral filter has been introduced, which is capable of improving the quality of images when combined with the above methods. The multiparametric LSQR study was carried out in a Grid distributed computing environment, to analyze how the different parameters involved in the reconstruction process can influence the resulting image. This study has been designed to make use of the computing power of the distributed platform even if the software required is not available. The installation of said software can be done at the time of execution of the jobs, or it can be packaged in an image that will be installed in a Docker container, which is a very interesting option for systems where we do not have privileges. The scheme followed for the creation and launch of the jobs is easily reproducible for multiparametric studies of this type. On the other hand, two direct algebraic methods have been proposed for CT reconstruction based on the factorization of the matrix that models the system. The first is the SVD method, which has been tested using the SLEPc library, obtaining higher rates of main memory usage, which is why it has been discarded in favor of the QR method. The first approximation to the resolution has been made through the SuiteSparseQR library, later developing our own implementation using the Out-Of-Core technique that allows the matrices to be stored on the hard drive itself instead of loading them in memory, so the size of the problem can increase without the cost of the hardware being very high. This method obtains high-quality reconstructions when the rank of the factored matrix is complete. In the results it is shown that for a high resolution, guaranteeing the full rank still means a reduction in the number of projections compared to traditional methods. Therefore, in this thesis, research and subsequent development of several algebraic CT reconstruction methods has been carried out using libraries and High Performance Computing techniques. These methods based on the reduction of projections, which allows maintaining good image quality, and have been optimized to achieve the shortest possible reconstruction times, in order to make them competitive so that one day they can be implemented in clinical practice. / This research has been supported by Universitat Politècnica de València and partially funded by TIN2015-66972-C5-4-R, ENE2014-59442-P-AR and TIN2013-44390-R projects of the "Ministerio de Economía y Competitividad" of Spain, as well as the Spanish ”Generalitat Valenciana” PROMETEOII/2014/008, PROMETEO/2018/035 projects and ACIF/2017/075 predoctoral grant. This work has also been co-financed by FEDER and FSE funds, and the “Spanish Ministry of Science, Innovation and Universities” under Grant RTI2018-098156-B-C54 / Chillarón Pérez, M. (2021). Análisis y desarrollo de algoritmos de altas prestaciones para reconstrucción de imagen médica TAC 3D basados en la reducción de dosis [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/180116 / TESIS / Compendio

Page generated in 0.0512 seconds