• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 39
  • 4
  • 1
  • 1
  • Tagged with
  • 45
  • 10
  • 9
  • 9
  • 8
  • 8
  • 7
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • 6
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Traducción del francés del libro "Las codificaciones" de Rémy Cabrilla

Pulido Velasco, María Paulina, Bulnes Olivares, Claudia Andrea January 2008 (has links)
Memoria (licenciado en ciencias jurídicas y sociales) / El relato bíblico que describe a Yahvé entregándole a Moisés dos tablas de piedra que contienen sus mandamientos , las Tablas de la Ley, forma parte del patrimonio cultural de toda la Humanidad. En el Antiguo Testamento, el Pentateuco contiene dos códigos, el código de la Alianza y el Código deuteronómico, que juntos enumeran los diez mandamientos y numerosas reglas de derecho religioso, fiscal, penal y civil. De hecho, el término «deuteronomio» significa segunda legislación en el sentido de repetición de la ley, es decir, codificación de reglas existentes. ¿Podemos ver en estas Tablas de la Ley, el ancestro de los códigos? Una razón determinante, común a otros textos religiosos fundamentales como el Corán, nos parece que sustenta una respuesta negativa. Tanto la Biblia como el Corán surgen de una revelación divina, que no puede ser asimilada a otras fuentes jurídicas: la palabra de Dios y la palabra de los hombres no pueden fundirse en un mismo concepto . Además, las prescripciones dotadas de connotación jurídica contenidas en estos textos son demasiado imprecisas como para constituir verdaderas reglas de derecho. Como un autor constató respecto del Corán, los pocos versículos que contienen prescripciones de orden jurídico dan lugar a la tentación de considerarlo como un código, sin embargo «nos percatamos que éste no se presenta, en lo absoluto, bajo la forma que se esperaría de un código, ni siquiera de uno rudimentario»
2

Capacidad de codificación y decodificación facial de emociones en estudiantes universitarios de ingeniería

Castillo Hilario, Mario Buenaventura January 2015 (has links)
En el Perú existe un vacío en cuanto a investigaciones sobre la comunicación no verbal. Los comunicólogos se han concentrado más en el estudio del contenido o los efectos de los medios de comunicación de masas y, últimamente, en el uso de las nuevas tecnologías de la información, olvidando que la comunicación constituye un campo más amplio. El lenguaje del cuerpo en los mass media nacionales o la comunicación no verbal de los políticos, por ejemplo, son temas aún pendientes. Los peruanos, inmersos en una sociedad competitiva, demandan respuestas a cómo mejorar su comunicación interpersonal, grupal y social, no solamente desde el punto de vista de su lenguaje verbal, sino, principalmente, de su lenguaje no verbal. Esto se puede comprobar en los medios de comunicación y en los libros de autoayuda que circulan profusamente con temas como: mejore su inteligencia emocional, cómo hablar en público, marketing personal, imagen personal, cómo afrontar una entrevista laboral, etcétera. Esta demanda de respuestas a cómo mejorar la comunicación interpersonal, grupal y social, también, lo he percibido en mi relación con los alumnos, exalumnos y docentes de la Universidad Nacional Agraria La Molina. Pues bien, muchas de las respuestas que se dan se sustentan en el saber popular, en la propia experiencia o en investigaciones realizadas en otros países, mas no en investigaciones realizadas en el Perú. Y es esta realidad la que me ha motivado indagar acerca de la comunicación no verbal en los alumnos de ingeniería. Esta investigación, titulada “Capacidad de codificar y decodificar emociones faciales en estudiantes universitarios de ingeniería”, partió del problema general ¿en qué medida se relacionan la capacidad de codificación y decodificación facial de emociones y el rendimiento académico en jóvenes universitarios de ingeniería? En tal sentido, se planteó como objetivo general “determinar en qué medida se relacionan la capacidad de codificación y decodificación facial de emociones y el rendimiento académico en los jóvenes universitarios de ingeniería”. En esta investigación, se tomó una muestra probabilística conformada por 77 estudiantes de la Universidad Nacional Agraria La Molina, de los cuales 38 fueron mujeres y 39, varones, cuyas edades fluctuaron entre 18 y 22 años. A ellos se les aplicó un test propuesto por Paul Ekman que permitió medir la capacidad de decodificación. Y, para medir la capacidad de codificación, se solicitó a cada participante que expresara cada una de las seis emociones básicas y universales y se tomara una fotografía por cada una. Estas fotografías tuvieron las siguientes características: emoción expresada solamente con movimientos faciales, plano busto de frente, en colores, fondo blanco, de 6 cm. de ancho por 6 cm. de largo. Se pusieron en un fólder para que fueran evaluadas por un grupo de personas o jueces, tanto hombres como mujeres. Asimismo, las mismas fotografías fueron evaluadas por el investigador ponderando los movimientos de cada zona del rostro. Los puntajes obtenidos en el test de decodificación y la evaluación de sus fotografías se relacionaron con los promedios ponderados obtenidos en la universidad. Para esto, se usó un método estadístico y se halló el coeficiente de correlación respectivo. Al empezar la investigación, se planteó como hipótesis general: “La capacidad de codificación y decodificación facial de emociones y el rendimiento académico no se relacionan en jóvenes universitarios de ingeniería”. Sin embargo, a la luz de los resultados, la hipótesis quedó rechazada1. En consecuencia, la hipótesis reformulada o la tesis que se sustenta en este trabajo es: La capacidad de codificación y decodificación facial de emociones y el rendimiento académico tienen una correlación poco significativa negativa o positiva en jóvenes universitarios de ingeniería. Considerando los resultados, el tipo de relación dependerá de otra variable “información y práctica sobre comunicación no verbal”, sobre todo respecto a la expresión e interpretación de las emociones en el rostro. Cuando los estudiantes de ingeniería no tienen conocimientos de comunicación no verbal hay una correlación negativa débil o relación inversa poco significativa (-0.17) entre la capacidad de decodificar emociones y el rendimiento académico. Es decir, los universitarios más estudiosos, de mayor promedio, tienden a ser menos competentes para reconocer emociones. Después de recibir lecciones de comunicación no verbal, la relación entre la capacidad de reconocer emociones y el rendimiento académico se vuelve positiva débil (0.16). En otras palabras, se tiende a que a mayor promedio mayor capacidad para el reconocimiento de emociones. Lo mismo ocurre con la codificación. Cuando los estudiantes han recibido información acerca de la comunicación no verbal, la capacidad de codificar facialmente las emociones y el rendimiento tienen una relación positiva muy débil (0.07). Estos resultados obtenidos son importantes, ya que también demuestran que aquellos estudiantes que han recibido información sobre la expresión y el reconocimiento de emociones pueden mejorar su competencia comunicativa no verbal. Esto, plantea una tarea a las instituciones educativas de todos los niveles, pero, sobre todo, a las universidades de ingeniería del Perú como la Universidad Nacional Agraria La Molina. Finalmente, este informe de tesis está organizado en cuatro capítulos. El Capítulo I trata de todo lo referente al problema de investigación. El Capítulo II contiene el marco teórico respecto a las variables y se reseñan los antecedentes, es decir, estudios similares que se han realizado en el país y en el extranjero. En el Capítulo III se describen los aspectos metodológicos. Y en el Capítulo IV se presentan los resultados y el análisis de los mismos.
3

Diseño de bloques para un sistema de corrección de errores por medio de turbocódigos aplicado a transmisiones inalámbricas infrarrojas

López Zegarra, Iván Arturo 23 November 2011 (has links)
El presente trabajo es un desarrollo analítico sobre los códigos convolucionales de corrección de errores, específicamente enfocado en la codificación y decodificación de los turbo códigos. Al tratarse del primer estudio realizado dentro de la universidad con respecto a este tema, la presente tesis abarca tres aspectos introductorios como son: la aplicabilidad, complejidad matemática y diseño de bloques de un turbo codificadordecodificador. Desde el punto de vista de aplicabilidad se han estudiado los diversos problemas presentados en la transmisión de datos inalámbrica en banda infrarroja con respecto a la presencia de ruido e interferencia del medio por el que se propaga, así como también de que manera la aplicación de la turbo codificación-decodificación en este tipo de comunicación beneficiaría y mejoraría un sistema en términos de confiabilidad y consumo de potencia. Desde el punto de vista algorítmico-matemático se presenta el desarrollo de la base matemática utilizada para la estimación de la información ruidosa como producto de la turbo decodificación. Finalmente desde el punto de vista de diseño, se desarrolla el diseño circuital de los bloques que constituyen cada uno de los cálculos matemáticos que componen tanto el codificador como decodificador. La presente tesis esta dividida en 5 capítulos. El primer capítulo describe el marco problemático relacionando el ruido presente en los enlaces infrarrojos. El segundo se centra en el marco teórico relacionando la turbo codificación-decodificación con la transmisión de datos en banda infrarroja. El tercer capítulo describe la base matemática necesaria para el diseño de un turbo codificador-decodificador. El cuarto capítulo presenta el diseño de cada uno de los bloques que constituyen tanto el codificador como el decodificador Log-MAP. Finalmente se muestran los resultados y conclusiones seguidos por las recomendaciones y proyecciones que se esperan como consecuencia de la tesis presentada. / Tesis
4

Diseño de una arquitectura para estimación de movimiento fraccional según el estándar de codificación HEVC para video de alta resolución en tiempo real

Soto León, Jorge Guillermo Martín 21 July 2016 (has links)
Las labores de organizaciones especializadas como ITU-T Video Coding Experts Group e ISO/IEC Moving Picture Experts Group han permitido el desarrollo de la codificación de video a lo largo de estos años. Durante la primera década de este siglo, el trabajo de estas organizaciones estuvo centrado en el estándar H.264/AVC; sin embargo, el incremento de servicios como transmisión de video por Internet y redes móviles así como el surgimiento de mayores resoluciones como 4k u 8k llevó al desarrollo de un nuevo estándar de codificación denominado HEVC o H.265, el cual busca representar los cuadros de video con menor información sin afectar la calidad de la imagen. El presente trabajo de tesis está centrado en el módulo de Estimación de Movimiento Fraccional el cual forma parte del codificador HEVC y presenta una elevada complejidad computacional. En este trabajo, se han tomado en cuenta las mejoras incluidas por el estándar HEVC las cuales radican en los filtros de interpolación empleados para calcular las muestras fraccionales. Para verificar el algoritmo, se realizó la implementación del mismo utilizando el entorno de programación MATLAB®. Este programa también ha permitido contrastar los resultados obtenidos por medio de la simulación de la arquitectura. Posteriormente, se diseñó la arquitectura teniendo como criterios principales la frecuencia de procesamiento así como optimizar la cantidad de recursos lógicos requeridos. La arquitectura fue descrita utilizando el lenguaje de descripción de hardware VHDL y fue sintetizada para los dispositivos FPGA de la familia Virtex los cuales pertenecen a la compañía Xilinx®. La verificación funcional fue realizada por medio de la herramienta ModelSim empleando Testbenchs. Los resultados de máxima frecuencia de operación fueron obtenidos por medio de la síntesis de la arquitectura; adicionalmente, por medio de las simulaciones se verificó la cantidad de ciclos de reloj para realizar el algoritmo. Con estos datos se puede fundamentar que la arquitectura diseñada es capaz de procesar secuencias de video HDTV (1920x1080 píxeles) a una tasa de procesamiento mayor o igual a 30 cuadros por segundo. / Tesis
5

Encriptación RSA de archivos de texto

León Lomparte, Katia Regina 09 May 2011 (has links)
En este trabajo se presentará el método desarrollado en 1978 por R. L. Rivest, A. Shamir y L. Adleman y que es conocido como sistema criptográfico RSA por las iniciales de sus autores. Basa su seguridad en la dificultad de factorizar números primos muy grandes aunque como todo sistema de encriptación de clave pública, el RSA puede estar sujeto a ataques con el fin de obtener el mensaje original o descubrir la clave privada. / Tesis
6

Diseño de una arquitectura de predicción de vectores de movimiento y cálculo de rango de búsqueda para el estándar HEVC en tiempo real

Chaudhry Mendívil, Haris 06 August 2018 (has links)
El estándar HEVC (High Efficiency Video Coding por sus siglas en inglés) introduce nuevos elementos y técnicas en las diferentes etapas del codificador/decodificador, con el objetivo de conseguir mejoras significativas en la eficiencia de compresión. En relación a la fase de predicción de vectores de movimiento (MV del inglés Motion Vector), el estándar ha propuesto una técnica referida como AMVP (Advanced Motion Vector Prediction por sus siglas en inglés) que supone una mayor complejidad computacional que la fase de predicción implementada en el estándar previo (H.264/AVC), a costa de un ahorro considerable en términos de bit-rate y tiempo de ejecución. Por otro lado, algoritmos y técnicas independientes que consiguen mejoras en el software de referencia del presente estándar se han venido proponiendo en el campo de estudio; siendo uno de estos el algoritmo DSR (del inglés Dynamic Search Range) el cual responde a la determinación del rango de búsqueda y consigue una notable reducción en el tiempo de ejecución del proceso de estimación de movimiento (ME del inglés Motion Estimation). Consecuentemente, la presente propuesta plantea el desarrollo de una arquitectura en hardware (HW) de la etapa inicial del proceso ME del codificador HEVC, con la finalidad de reducir la carga computacional del mismo. Este primer paso engloba la determinación de los MVs predictores y el cálculo del rango de búsqueda. En base a ello, se ha conseguido diseñar una arquitectura que atiende a dichos procesos fundado en los algoritmos AMVP y DSR, respectivamente. Asimismo, la arquitectura propuesta resuelve problemas de dependencia presentes en la etapa inicial del ME con la etapa ME propiamente dicha, lo cual permite potenciar el desempeño general. Los resultados de síntesis demuestran que la arquitectura alcanza procesar secuencias de video con calidad ultra alta definición, referido también como UHD (siglas del término en inglés Ultra High Definition) superando los recuadros por segundo requeridos para operar en tiempo real. Específicamente, el diseño logra una tasa de procesamiento de 72 recuadros por segundo para secuencias 8K (7680x4320) con espacio de color YCbCr, en un FPGA de la familia Kintex 7. / Tesis
7

Codificación Política de la Demanda Estudiantil-Secundaria durante la Administración Gubernamental de Michelle Bachelet (2006-2010)

Cárcamo Obando, Jorge Daniel January 2014 (has links)
Magíster en Análisis Sistémico Aplicado a la Sociedad / Se presentará una investigación enfocada en la relación acontecida entre el aparato estatal y el movimiento estudiantil-secundario, durante los años 2006 y 2010. Para ello, la tesis posee su punto de observación en la trayectoria de la demanda social a través de los informes generados por el Consejo Asesor Presidencial para la Educación, y posteriormente, en la resultante Ley General de Educación. La metodología empleada radica en la utilización de un análisis de contenido temático, que se articula con un enfoque conceptual fundamentado en la teoría de sistemas propuesta por el sociólogo alemán Niklas Luhmann
8

Sintaxis y codificación en modelos de sistemas complejos

Vives Maciá, Francisco 30 June 1999 (has links)
No description available.
9

Diseño de un Laboratorio de Televisión Digital con Fines Docentes

Carrillo Ramírez, Paula Cecilia January 2008 (has links)
La presente memoria tiene como objetivo el diseño de un laboratorio de IPTV (Internet Protocol Television) que contribuye a la docencia del Departamento de Ingeniería Eléctrica de la Universidad de Chile en la formación de ingenieros del área de las Telecomunicaciones. El diseño se centra en el estudio de la arquitectura, componentes y funcionamiento de una plataforma IPTV básica. La metodología se basa en realizar un análisis de las diferentes alternativas de equipos, software y hardware disponibles actualmente en el mercado considerando sus ventajas, desventajas y principales características. Sobre la base del análisis anterior se eligen las mejores alternativas para cada una de las etapas del sistema, se realiza una implementación de prueba que permita comprobar su funcionamiento en una red pequeña. Basado en esta experiencia se propone una topología, direccionamiento, dimensionamiento y método de instalación como formalización del diseño. Para la plataforma propuesta se elaboran prácticas experimentales para el desarrollo de un curso de IPTV con un enfoque teórico y aplicado para el apoyo a la docencia. Estas experiencias se centran en los aspectos característicos de esta tecnología y se acompañan de diferentes herramientas de análisis para el uso por parte de los alumnos. El diseño de esta plataforma IPTV se compara con una de un operador telefónico que actualmente ofrece además el servicio de Televisión Digital mediante banda ancha. De esta comparación se concluye que exceptuando las diferencias en costos de los equipos, la plataforma diseñada permite en forma didáctica conocer los aspectos básicos de esta tecnología.
10

Sistemas de Ecualización Turbo, Usando LOG-MAP y LDPC no Binario

Yáñez Azúa, Gonzalo Antonio January 2008 (has links)
El creciente avance de las telecomunicaciones durante estos últimos años, ha despertado el interés de muchos investigadores en conseguir más y mejores técnicas que permitan establecer comunicaciones inalámbricas robustas y que a su vez, soporten grandes flujos de información a alta velocidad. No obstante, la utilización de un canal inalámbrico para el envío y recepción de señales, introduce efectos indeseados tales como interferencia y ruido, debido a que entre el emisor y el receptor se interponen diferentes agentes que se comportan de aletoriamente. Es así como se han desarrollado métodos que han despertado gran interés entre los investigadores, debido a la obtención de resultados sorprendentes. Entre estos métodos destacan el algoritmo MAP y los códigos LDPC. El primero puede ser utilizado tanto en el aspecto de la ecualización de señales o en la decodificación de señales, mientras que el segundo se utiliza específicamente para codificar y decodificar señales. De este modo, el objetivo principal de esta memoria es unir estos dos algoritmos para que trabajen de forma iterativa, utilizando la información proporcionada por el ecualizador para mejorar el proceso de decodificación y a su vez, realizar el proceso de ecualización utilizando la información del decodificador. A este sistema retroalimentado se le llama Esquema Turbo. Además, se plantea el algoritmo para lenguajes no binarios. Para realizar este trabajo, primeramente se hizo un desglose de un sistema de comunicaciones actual, reconociendo cada uno de los bloques componentes, analizando su funcionamiento teórico, introduciendo modificaciones según corresponda y a partir de este análisis obtiene un diagrama de bloques que resume el funcionamiento general del algoritmo propuesto. Seguidamente se realizan pruebas a pequeña escala, utilizando un modelo de canal TDL Gaussiano de tres derivaciones, capaz de emular el comportamiento de una señal bajo interferencia y ruido, con el objetivo de demostrar el correcto funcionamiento del algoritmo y su convergencia, para posteriormente someter el esquema a transmisiones de grandes bloques de información, midiendo su desempeño bajo distintos escenarios y estudiando la tasa de símbolos errados (SER) variando la razón señal ruido (SNR). Los resultados obtenidos de esta investigación dicen que este algoritmo es capaz de lograr una corrección completa en señales pequeñas, incluso bajo condiciones en que de SNR se reduce hasta 5 dB para 7 iteraciones. Sin embargo, al momento de enviar bloques de información de tamaño mucho mayor (105 símbolos), el algoritmo presenta un piso de SNR de 10 dB, ya que al aumentarlo por sobre ese valor no se lograba mejoramiento de decodificación, debido a que se utilizó un esquema de codificación de bloques con matrices pequeñas. Esto se explica justamente porque la elaboración de matrices de codificación para códigos LDPC no binarios, para bloques grandes de información, es un tema de investigación que no se encuentra resuelto hasta la fecha.

Page generated in 0.0661 seconds