• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 5
  • 3
  • Tagged with
  • 8
  • 3
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Capacidad de codificación y decodificación facial de emociones en estudiantes universitarios de ingeniería

Castillo Hilario, Mario Buenaventura January 2015 (has links)
En el Perú existe un vacío en cuanto a investigaciones sobre la comunicación no verbal. Los comunicólogos se han concentrado más en el estudio del contenido o los efectos de los medios de comunicación de masas y, últimamente, en el uso de las nuevas tecnologías de la información, olvidando que la comunicación constituye un campo más amplio. El lenguaje del cuerpo en los mass media nacionales o la comunicación no verbal de los políticos, por ejemplo, son temas aún pendientes. Los peruanos, inmersos en una sociedad competitiva, demandan respuestas a cómo mejorar su comunicación interpersonal, grupal y social, no solamente desde el punto de vista de su lenguaje verbal, sino, principalmente, de su lenguaje no verbal. Esto se puede comprobar en los medios de comunicación y en los libros de autoayuda que circulan profusamente con temas como: mejore su inteligencia emocional, cómo hablar en público, marketing personal, imagen personal, cómo afrontar una entrevista laboral, etcétera. Esta demanda de respuestas a cómo mejorar la comunicación interpersonal, grupal y social, también, lo he percibido en mi relación con los alumnos, exalumnos y docentes de la Universidad Nacional Agraria La Molina. Pues bien, muchas de las respuestas que se dan se sustentan en el saber popular, en la propia experiencia o en investigaciones realizadas en otros países, mas no en investigaciones realizadas en el Perú. Y es esta realidad la que me ha motivado indagar acerca de la comunicación no verbal en los alumnos de ingeniería. Esta investigación, titulada “Capacidad de codificar y decodificar emociones faciales en estudiantes universitarios de ingeniería”, partió del problema general ¿en qué medida se relacionan la capacidad de codificación y decodificación facial de emociones y el rendimiento académico en jóvenes universitarios de ingeniería? En tal sentido, se planteó como objetivo general “determinar en qué medida se relacionan la capacidad de codificación y decodificación facial de emociones y el rendimiento académico en los jóvenes universitarios de ingeniería”. En esta investigación, se tomó una muestra probabilística conformada por 77 estudiantes de la Universidad Nacional Agraria La Molina, de los cuales 38 fueron mujeres y 39, varones, cuyas edades fluctuaron entre 18 y 22 años. A ellos se les aplicó un test propuesto por Paul Ekman que permitió medir la capacidad de decodificación. Y, para medir la capacidad de codificación, se solicitó a cada participante que expresara cada una de las seis emociones básicas y universales y se tomara una fotografía por cada una. Estas fotografías tuvieron las siguientes características: emoción expresada solamente con movimientos faciales, plano busto de frente, en colores, fondo blanco, de 6 cm. de ancho por 6 cm. de largo. Se pusieron en un fólder para que fueran evaluadas por un grupo de personas o jueces, tanto hombres como mujeres. Asimismo, las mismas fotografías fueron evaluadas por el investigador ponderando los movimientos de cada zona del rostro. Los puntajes obtenidos en el test de decodificación y la evaluación de sus fotografías se relacionaron con los promedios ponderados obtenidos en la universidad. Para esto, se usó un método estadístico y se halló el coeficiente de correlación respectivo. Al empezar la investigación, se planteó como hipótesis general: “La capacidad de codificación y decodificación facial de emociones y el rendimiento académico no se relacionan en jóvenes universitarios de ingeniería”. Sin embargo, a la luz de los resultados, la hipótesis quedó rechazada1. En consecuencia, la hipótesis reformulada o la tesis que se sustenta en este trabajo es: La capacidad de codificación y decodificación facial de emociones y el rendimiento académico tienen una correlación poco significativa negativa o positiva en jóvenes universitarios de ingeniería. Considerando los resultados, el tipo de relación dependerá de otra variable “información y práctica sobre comunicación no verbal”, sobre todo respecto a la expresión e interpretación de las emociones en el rostro. Cuando los estudiantes de ingeniería no tienen conocimientos de comunicación no verbal hay una correlación negativa débil o relación inversa poco significativa (-0.17) entre la capacidad de decodificar emociones y el rendimiento académico. Es decir, los universitarios más estudiosos, de mayor promedio, tienden a ser menos competentes para reconocer emociones. Después de recibir lecciones de comunicación no verbal, la relación entre la capacidad de reconocer emociones y el rendimiento académico se vuelve positiva débil (0.16). En otras palabras, se tiende a que a mayor promedio mayor capacidad para el reconocimiento de emociones. Lo mismo ocurre con la codificación. Cuando los estudiantes han recibido información acerca de la comunicación no verbal, la capacidad de codificar facialmente las emociones y el rendimiento tienen una relación positiva muy débil (0.07). Estos resultados obtenidos son importantes, ya que también demuestran que aquellos estudiantes que han recibido información sobre la expresión y el reconocimiento de emociones pueden mejorar su competencia comunicativa no verbal. Esto, plantea una tarea a las instituciones educativas de todos los niveles, pero, sobre todo, a las universidades de ingeniería del Perú como la Universidad Nacional Agraria La Molina. Finalmente, este informe de tesis está organizado en cuatro capítulos. El Capítulo I trata de todo lo referente al problema de investigación. El Capítulo II contiene el marco teórico respecto a las variables y se reseñan los antecedentes, es decir, estudios similares que se han realizado en el país y en el extranjero. En el Capítulo III se describen los aspectos metodológicos. Y en el Capítulo IV se presentan los resultados y el análisis de los mismos.
2

VLSI algorithms and architectures for non-binary-LDPC decoding

Lacruz Jucht, Jesús Omar 04 November 2016 (has links)
Tesis por compendio / [EN] This thesis studies the design of low-complexity soft-decision Non-Binary Low-Density Parity-Check (NB-LDPC) decoding algorithms and their corresponding hardware architectures suitable for decoding high-rate codes at high throughput (hundreds of Mbps and Gbps). In the first part of the thesis the main aspects concerning to the NB-LDPC codes are analyzed, including a study of the main bottlenecks of conventional softdecision decoding algorithms (Q-ary Sum of Products (QSPA), Extended Min-Sum (EMS), Min-Max and Trellis-Extended Min-Sum (T-EMS)) and their corresponding hardware architectures. Despite the limitations of T-EMS algorithm (high complexity in the Check Node (CN) processor, wiring congestion due to the high number of exchanged messages between processors and the inability to implement decoders over high-order Galois fields due to the high decoder complexity), it was selected as starting point for this thesis due to its capability to reach high-throughput. Taking into account the identified limitations of the T-EMS algorithm, the second part of the thesis includes six papers with the results of the research made in order to mitigate the T-EMS disadvantages, offering solutions that reduce the area, the latency and increase the throughput compared to previous proposals from literature without sacrificing coding gain. Specifically, five low-complexity decoding algorithms are proposed, which introduce simplifications in different parts of the decoding process. Besides, five complete decoder architectures are designed and implemented on a 90nm Complementary Metal-Oxide-Semiconductor (CMOS) technology. The results show an achievement in throughput higher than 1Gbps and an area less than 10 mm2. The increase in throughput is 120% and the reduction in area is 53% compared to previous implementations of T-EMS, for the (837,726) NB-LDPC code over GF(32). The proposed decoders reduce the CN area, latency, wiring between CN and Variable Node (VN) processor and the number of storage elements required in the decoder. Considering that these proposals improve both area and speed, the efficiency parameter (Mbps / Million NAND gates) is increased in almost five times compared to other proposals from literature. The improvements in terms of area allow us to implement NB-LDPC decoders over high-order fields which had not been possible until now due to the highcomplexity of decoders previously proposed in literature. Therefore, we present the first post-place and route report for high-rate codes over high-order fields higher than Galois Field (GF)(32). For example, for the (1536,1344) NB-LDPC code over GF(64) the throughput is 1259Mbps occupying an area of 28.90 mm2. On the other hand, a decoder architecture is implemented on a Field Programmable Gate Array (FPGA) device achieving 630 Mbps for the high-rate (2304,2048) NB-LDPC code over GF(16). To the best knowledge of the author, these results constitute the highest ones presented in literature for similar codes and implemented on the same technologies. / [ES] En esta tesis se aborda el estudio del diseño de algoritmos de baja complejidad para la decodificación de códigos de comprobación de paridad de baja densidad no binarios (NB-LDPC) y sus correspondientes arquitecturas apropiadas para decodificar códigos de alta tasa a altas velocidades (cientos de Mbps y Gbps). En la primera parte de la tesis los principales aspectos concernientes a los códigos NB-LDPC son analizados, incluyendo un estudio de los principales cuellos de botella presentes en los algoritmos de decodificación convencionales basados en decisión blanda (QSPA, EMS, Min-Max y T-EMS) y sus correspondientes arquitecturas hardware. A pesar de las limitaciones del algoritmo T-EMS (alta complejidad en el procesador del nodo de chequeo de paridad (CN), congestión en el rutado debido al intercambio de mensajes entre procesadores y la incapacidad de implementar decodificadores para campos de Galois de orden elevado debido a la elevada complejidad), éste fue seleccionado como punto de partida para esta tesis debido a su capacidad para alcanzar altas velocidades. Tomando en cuenta las limitaciones identificadas en el algoritmo T-EMS, la segunda parte de la tesis incluye seis artículos con los resultados de la investigación realizada con la finalidad de mitigar las desventajas del algoritmo T-EMS, ofreciendo soluciones que reducen el área, la latencia e incrementando la velocidad comparado con propuestas previas de la literatura sin sacrificar la ganancia de codificación. Especificamente, cinco algoritmos de decodificación de baja complejidad han sido propuestos, introduciendo simplificaciones en diferentes partes del proceso de decodificación. Además, arquitecturas completas de decodificadores han sido diseñadas e implementadas en una tecnologia CMOS de 90nm consiguiéndose una velocidad mayor a 1Gbps con un área menor a 10 mm2, aumentando la velocidad en 120% y reduciendo el área en 53% comparado con previas implementaciones del algoritmo T-EMS para el código (837,726) implementado sobre campo de Galois GF(32). Las arquitecturas propuestas reducen el área del CN, latencia, número de mensajes intercambiados entre el nodo de comprobación de paridad (CN) y el nodo variable (VN) y el número de elementos de almacenamiento en el decodificador. Considerando que estas propuestas mejoran tanto el área comola velocidad, el parámetro de eficiencia (Mbps / Millones de puertas NAND) se ha incrementado en casi cinco veces comparado con otras propuestas de la literatura. Las mejoras en términos de área nos ha permitido implementar decodificadores NBLDPC sobre campos de Galois de orden elevado, lo cual no habia sido posible hasta ahora debido a la alta complejidad de los decodificadores anteriormente propuestos en la literatura. Por lo tanto, en esta tesis se presentan los primeros resultados incluyendo el emplazamiento y rutado para códigos de alta tasa sobre campos finitos de orden mayor a GF(32). Por ejemplo, para el código (1536,1344) sobre GF(64) la velocidad es 1259 Mbps ocupando un área de 28.90 mm2. Por otro lado, una arquitectura de decodificador ha sido implementada en un dispositivo FPGA consiguiendo 660 Mbps de velocidad para el código de alta tasa (2304,2048) sobre GF(16). Estos resultados constituyen, según el mejor conocimiento del autor, los mayores presentados en la literatura para códigos similares implementados para las mismas tecnologías. / [CA] En esta tesi s'aborda l'estudi del disseny d'algoritmes de baixa complexitat per a la descodificació de codis de comprovació de paritat de baixa densitat no binaris (NB-LDPC), i les seues corresponents arquitectures per a descodificar codis d'alta taxa a altes velocitats (centenars de Mbps i Gbps). En la primera part de la tesi els principals aspectes concernent als codis NBLDPC són analitzats, incloent un estudi dels principals colls de botella presents en els algoritmes de descodificació convencionals basats en decisió blana (QSPA, EMS, Min-Max i T-EMS) i les seues corresponents arquitectures. A pesar de les limitacions de l'algoritme T-EMS (alta complexitat en el processador del node de revisió de paritat (CN), congestió en el rutat a causa de l'intercanvi de missatges entre processadors i la incapacitat d'implementar descodificadors per a camps de Galois d'orde elevat a causa de l'elevada complexitat), este va ser seleccionat com a punt de partida per a esta tesi degut a la seua capacitat per a aconseguir altes velocitats. Tenint en compte les limitacions identificades en l'algoritme T-EMS, la segona part de la tesi inclou sis articles amb els resultats de la investigació realitzada amb la finalitat de mitigar els desavantatges de l'algoritme T-EMS, oferint solucions que redueixen l'àrea, la latència i incrementant la velocitat comparat amb propostes prèvies de la literatura sense sacrificar el guany de codificació. Específicament, s'han proposat cinc algoritmes de descodificació de baixa complexitat, introduint simplificacions en diferents parts del procés de descodificació. A més, s'han dissenyat arquitectures completes de descodificadors i s'han implementat en una tecnologia CMOS de 90nm aconseguint-se una velocitat major a 1Gbps amb una àrea menor a 10 mm2, augmentant la velocitat en 120% i reduint l'àrea en 53% comparat amb prèvies implementacions de l'algoritme T-EMS per al codi (837,726) implementat sobre camp de Galois GF(32). Les arquitectures proposades redueixen l'àrea del CN, la latència, el nombre de missatges intercanviats entre el node de comprovació de paritat (CN) i el node variable (VN) i el nombre d'elements d'emmagatzemament en el descodificador. Considerant que estes propostes milloren tant l'àrea com la velocitat, el paràmetre d'eficiència (Mbps / Milions deportes NAND) s'ha incrementat en quasi cinc vegades comparat amb altres propostes de la literatura. Les millores en termes d'àrea ens ha permès implementar descodificadors NBLDPC sobre camps de Galois d'orde elevat, la qual cosa no havia sigut possible fins ara a causa de l'alta complexitat dels descodificadors anteriorment proposats en la literatura. Per tant, nosaltres presentem els primers reports després de l'emplaçament i rutat per a codis d'alta taxa sobre camps finits d'orde major a GF(32). Per exemple, per al codi (1536,1344) sobre GF(64) la velocitat és 1259 Mbps ocupant una àrea de 28.90 mm2. D'altra banda, una arquitectura de descodificador ha sigut implementada en un dispositiu FPGA aconseguint 660 Mbps de velocitat per al codi d'alta taxa (2304,2048) sobre GF(16). Estos resultats constitueixen, per al millor coneixement de l'autor, els millors presentats en la literatura per a codis semblants implementats per a les mateixes tecnologies. / Lacruz Jucht, JO. (2016). VLSI algorithms and architectures for non-binary-LDPC decoding [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/73266 / Compendio
3

̂Recibieron PLR por ir a sapear callaguaguas : Chilenos residentes en Suecia y su percepción de titulares del periódico chileno La Cuarta

Montenegro Rubio, Marcelo January 2007 (has links)
<p>En el presente estudio se identifican los procedimientos de creación léxica en 21 titulares periodísticos del diario popular chileno La Cuarta. Este tabloide es conocido por su forma de presentar las noticias y aplicar un tono festivo haciendo uso de variedades linguísticas que se acercan al registro coloquial en su variante más popular.</p><p>Posteriormente son presentados los titulares en forma de encuesta a un grupo de chilenos residentes en Suecia desde la década de los 70 y principios de los 80. El objetivo principal de este estudio es comprobar si este conjunto de personas residentes en Suecia, denominado grupo de estudio, mantiene vigente la capacidad de decodificar téminos populares de reciente data manifestados en La Cuarta.</p><p>Nuestra hipótesis nos lleva a deducir que estos individuos poseen una "cierta incapacidad" de decodificar los términos y lo tácito de estos, asimismo nos hace suponer que; entre mayor tiempo de alejamiento de su comunidad de habla menor capacidad de decodificación poseen</p><p>estas personas. Además que los factores relacionados con la cantidad de visitas a Chile, y el medio con el cual se informan de las noticias de su país, influencien en el entendimiento de los titulares.</p><p>Las respuestas ofrecidas por los informantes del grupo de control y así como del grupo de estudio fueron medidas de una forma individual. Para este propósito aplicamos un método que valoró del 1 al 3 las respuestas. Lo que posteriormente nos entrego un resultado que se</p><p>presenta en un análisis cuantitativo en la obra.</p><p>Las conclusiones generales obtenidas muestran que los informantes residentes en Suecia poseen una debilitación en la decodificación de "ciertas expresiones". Además descubrimos que la cantidad de viajes que el individuo haya hecho a Chile y los años que ha residido en</p><p>Suecia, no influye excesivamente en la decodificación. En lo que se refiere al medio con el cual se informan de los acontecimientos de su país, descubrimos que el individuo, a pesar de las fuentes que usa para informarse, "excluyendo al periódico La Cuarta" no logra descifrar satisfactoriamente los términos. Referente a la pregunta si los chilenos residentes en Suecia leen el periódico La Cuarta (Internet), descubrimos que el grupo que lee el diario, decodifica</p><p>el léxico más satisfactoriamente que el que no lo hace.</p>
4

Diseño de decodificadores de altas prestaciones para código LDPC

Angarita Preciado, Fabián Enrique 02 September 2013 (has links)
En esta tesis se han investigado los algoritmos de decodificación para códigos de comprobación de paridad de baja densidad (LDPC) y las arquitecturas para la implementación hardware de éstos. El trabajo realizado se centra en los algoritmos del tipo de intercambio de mensajes para códigos estructurados los cuales se incluyen en varios estándares de comunicaciones. Inicialmente se han evaluado las prestaciones de los algoritmos existentes Sum-product, Min-Sum y las principales variantes de este último (Min-Sum con escalado y Min-Sum con offset). Además, se ha realizado un análisis de precisión finita utilizando los códigos LDPC de los estándares IEEE 802.3an, IEEE 802.11n e IEEE 802.16e. Posteriormente se han propuesto dos algoritmos basados en el algoritmo Min-Sum, denominados Min-Sum entero y Min-Sum modificado con corrección. La complejidad de éstos es menor que las de los algoritmos estudiados anteriormente y además permiten una implementación hardware eficiente. Por otra parte, se han estudiado diferentes métodos de actualización de los algoritmos de decodificación: por inundación, por capas horizontales (layered) y por capas verticales (shuffled), y se ha propuesto un nuevo método por capas verticales entrelazadas (x-shuffled) que consigue mejorar la tasa de decodificación. Tras el estudio algorítmico, se han realizado implementaciones hardwar} con diferentes arquitecturas para los algoritmos y métodos de actualización evaluados y propuestos. En la mayoría de algoritmos implementados se requiere el cálculo de los dos primeros mínimos, por lo que inicialmente se realiza un estudio de las arquitecturas hardware para realizar este cálculo y se ha propuesto una nueva arquitectura de menor complejidad. En segundo lugar se ha realizado una comparación de las prestaciones hardware de los diferentes algoritmos con las arquitecturas de referencia: completamente paralela y parcialmente paralela basada en memorias. También se han propuesto dos arquitecturas enfocadas a la alta velocidad, la cuales se implementan con el algoritmo Sum-Product. La primera es una modificación de la arquitectura Sliced Message-Passing que consigue una reducción en el área de la implementación, y la segunda, es una arquitectura específica para el método de actualización propuesto x-shuffled que alcanza tasas de decodificación muy altas. Finalmente, se han implementado los algoritmos propuestos con la arquitectura layered obteniendo implementaciones hardware eficientes con baja área y muy alta tasa de decodificación. Estas últimas consiguen un ratio entre tasa de decodificación y área mejor que las implementaciones existentes en la literatura. Por último, se ha evaluado el comportamiento de los algoritmos de decodificación estudiados en la zona de baja tasa de error, donde las prestaciones se suelen degradar debido a la aparición de un suelo de error. Para ello se ha implementado un simulador hardware usando dispositivos FPGA. La tasa de datos alcanzada con el simulador hardware diseñado es superior a la de otros simuladores documentados en la literatura. En la zona de baja tasa de error el algoritmo propuesto Min-Sum modificado con corrección presenta un mejor comportamiento que el resto de algoritmos evaluados, consiguiendo bajar el suelo de error varios órdenes de magnitud. / Angarita Preciado, FE. (2013). Diseño de decodificadores de altas prestaciones para código LDPC [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31646
5

Architectures for soft-decision decoding of non-binary codes

García Herrero, Francisco Miguel 19 November 2013 (has links)
En esta tesis se estudia el dise¿no de decodificadores no-binarios para la correcci'on de errores en sistemas de comunicaci'on modernos de alta velocidad. El objetivo es proponer soluciones de baja complejidad para los algoritmos de decodificaci'on basados en los c'odigos de comprobaci'on de paridad de baja densidad no-binarios (NB-LDPC) y en los c'odigos Reed-Solomon, con la finalidad de implementar arquitecturas hardware eficientes. En la primera parte de la tesis se analizan los cuellos de botella existentes en los algoritmos y en las arquitecturas de decodificadores NB-LDPC y se proponen soluciones de baja complejidad y de alta velocidad basadas en el volteo de s'¿mbolos. En primer lugar, se estudian las soluciones basadas en actualizaci'on por inundaci 'on con el objetivo de obtener la mayor velocidad posible sin tener en cuenta la ganancia de codificaci'on. Se proponen dos decodificadores diferentes basados en clipping y t'ecnicas de bloqueo, sin embargo, la frecuencia m'axima est'a limitada debido a un exceso de cableado. Por este motivo, se exploran algunos m'etodos para reducir los problemas de rutado en c'odigos NB-LDPC. Como soluci'on se propone una arquitectura basada en difusi'on parcial para algoritmos de volteo de s'¿mbolos que mitiga la congesti'on por rutado. Como las soluciones de actualizaci 'on por inundaci'on de mayor velocidad son sub-'optimas desde el punto de vista de capacidad de correci'on, decidimos dise¿nar soluciones para la actualizaci'on serie, con el objetivo de alcanzar una mayor velocidad manteniendo la ganancia de codificaci'on de los algoritmos originales de volteo de s'¿mbolo. Se presentan dos algoritmos y arquitecturas de actualizaci'on serie, reduciendo el 'area y aumentando de la velocidad m'axima alcanzable. Por 'ultimo, se generalizan los algoritmos de volteo de s'¿mbolo y se muestra como algunos casos particulares puede lograr una ganancia de codificaci'on cercana a los algoritmos Min-sum y Min-max con una menor complejidad. Tambi'en se propone una arquitectura eficiente, que muestra que el 'area se reduce a la mitad en comparaci'on con una soluci'on de mapeo directo. En la segunda parte de la tesis, se comparan algoritmos de decodificaci'on Reed- Solomon basados en decisi'on blanda, concluyendo que el algoritmo de baja complejidad Chase (LCC) es la soluci'on m'as eficiente si la alta velocidad es el objetivo principal. Sin embargo, los esquemas LCC se basan en la interpolaci'on, que introduce algunas limitaciones hardware debido a su complejidad. Con el fin de reducir la complejidad sin modificar la capacidad de correcci'on, se propone un esquema de decisi'on blanda para LCC basado en algoritmos de decisi'on dura. Por 'ultimo se dise¿na una arquitectura eficiente para este nuevo esquema / García Herrero, FM. (2013). Architectures for soft-decision decoding of non-binary codes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/33753 / Premios Extraordinarios de tesis doctorales
6

̂Recibieron PLR por ir a sapear callaguaguas : Chilenos residentes en Suecia y su percepción de titulares del periódico chileno La Cuarta

Montenegro Rubio, Marcelo January 2007 (has links)
En el presente estudio se identifican los procedimientos de creación léxica en 21 titulares periodísticos del diario popular chileno La Cuarta. Este tabloide es conocido por su forma de presentar las noticias y aplicar un tono festivo haciendo uso de variedades linguísticas que se acercan al registro coloquial en su variante más popular. Posteriormente son presentados los titulares en forma de encuesta a un grupo de chilenos residentes en Suecia desde la década de los 70 y principios de los 80. El objetivo principal de este estudio es comprobar si este conjunto de personas residentes en Suecia, denominado grupo de estudio, mantiene vigente la capacidad de decodificar téminos populares de reciente data manifestados en La Cuarta. Nuestra hipótesis nos lleva a deducir que estos individuos poseen una "cierta incapacidad" de decodificar los términos y lo tácito de estos, asimismo nos hace suponer que; entre mayor tiempo de alejamiento de su comunidad de habla menor capacidad de decodificación poseen estas personas. Además que los factores relacionados con la cantidad de visitas a Chile, y el medio con el cual se informan de las noticias de su país, influencien en el entendimiento de los titulares. Las respuestas ofrecidas por los informantes del grupo de control y así como del grupo de estudio fueron medidas de una forma individual. Para este propósito aplicamos un método que valoró del 1 al 3 las respuestas. Lo que posteriormente nos entrego un resultado que se presenta en un análisis cuantitativo en la obra. Las conclusiones generales obtenidas muestran que los informantes residentes en Suecia poseen una debilitación en la decodificación de "ciertas expresiones". Además descubrimos que la cantidad de viajes que el individuo haya hecho a Chile y los años que ha residido en Suecia, no influye excesivamente en la decodificación. En lo que se refiere al medio con el cual se informan de los acontecimientos de su país, descubrimos que el individuo, a pesar de las fuentes que usa para informarse, "excluyendo al periódico La Cuarta" no logra descifrar satisfactoriamente los términos. Referente a la pregunta si los chilenos residentes en Suecia leen el periódico La Cuarta (Internet), descubrimos que el grupo que lee el diario, decodifica el léxico más satisfactoriamente que el que no lo hace.
7

Desarrollo de un sistema para monitorear la pérdida de señal celular y cobertura de antenas móviles bajo la tecnología UMTS y LTE / Development of a system to monitor the loss of cellular signal and coverage of mobile antennas under UMTS and LTE technology

Gamboa Sánchez, Jose Umberto, Monzón Ñañez, Jorge Antonio 08 October 2021 (has links)
El presente trabajo propone el desarrollo de un sistema de monitoreo que permita supervisar la pérdida de cobertura celular de las antenas móviles bajo la tecnología UMTS y LTE. Este trabajo permite encontrar huecos de cobertura en donde la señal no está llegando correctamente utilizando herramientas desarrollo libre. El sistema se compone de un aplicativo desarrollado en Android Studio, base de datos MySQL y un servidor web, asimismo se utilizará un codificador y compresor de datos en base al algoritmo de compresión, el cual reduce en un 30% la trama original. La validación de este sistema fue realizada por especialistas del campo de telecomunicaciones. / The present work proposes the development of a monitoring system that allows to supervise the loss of cellular coverage of mobile antennas under UMTS and LTE technology. This work allows finding coverage gaps where the signal is not reaching correctly using free development tools. The system consists of an application developed in Android Studio, a MySQL database and a web server, an encoder and data compressor will also be used based on compression algorithm, which will reduce the original frame by 30%. The validation of this system was carried out by specialists in the telecommunications field. / Tesis
8

3D audio technologies : applications to sound capture, post-production and listener perception

Cengarle, Giulio 29 November 2012 (has links)
La llegada del sonido 3D está imponiendo cambios en varias etapas del flujo de trabajo, desde los sistemas de captación hasta las metodologías de postproducción y las configuraciones de altavoces. Esta tesis trata varios aspectos relacionados con el audio 3D: en la parte de captación, presentamos un estudio sobre las características de los micrófonos tetraédricos y una solución para obtener las componentes Ambisonics del segundo orden usando un pequeño número de transductores del primer orden; en la parte de producción, se presenta una aplicación para la mezcla automatizada de eventos deportivos, para reducir la complexidad del multicanal en tiempo real; para la restitución del audio independiente del sistema de altavoces, en el que los niveles de salida a los altavoces son una incógnita hasta la decodificación, se propone un detector de clipping independiente del layout. Finalmente, se presentan test psico-acústicos para validar aspectos perceptivos relacionados con el audio 3D. / The advent of 3D audio is dictating changes in several stages of the audio work-flow, from recording systems and microphone configurations, to post-production methodologies and loudspeaker configurations. This thesis tackles aspects related to 3D audio arising in the various stages of production. In the recording part, we present a study on the accuracy of tetrahedral microphones and a solution for obtaining second-order Ambisonics responses from first-order transducers using a small number of sensors; in the production stage, we introduce an application for automated assisted mixing of sport events, to reduce the complexity of managing multiple audio channels in real time; a clipping detector is proposed for the rendering of layout-independent audio content to generic playback systems, where the signal levels sent to the speakers are unknown until the decoding stage; finally, psychoacoustic experiments are presented for the validation of perceptual and aesthetic aspects related to 3D audio.

Page generated in 0.0384 seconds