• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 404
  • 36
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 450
  • 106
  • 90
  • 82
  • 75
  • 74
  • 74
  • 74
  • 74
  • 68
  • 67
  • 61
  • 58
  • 51
  • 49
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
201

Estudio de detección y amortización de contención sobre la interfaz de red en sistemas Linux en escenarios de concurrencia sobre máquinas multicore

Blasco Valencia, Sebastián Ramón January 2016 (has links)
Magíster en Ciencias, Mención Computación / Ingeniero Civil en Computación / La proliferación de sistemas con múltiples núcleos de procesamiento ha transformado la aplicación de técnicas de programación paralela en uno de los tópicos más estudiados en los últimos años, ello en pos de mejorar los rendimientos generales de cualquier operación. Una aplicación práctica de dicho enfoque es en el procesamiento de requerimientos DNS, los cuales han evidenciado un gran aumento de la mano del desarrollo de la Internet y la masificación de distintos tipos de dispositivos que demandan conectividad, y que por sus características son un buen candidato a un enfoque de procesamiento paralelo. Sin embargo, distintas investigaciones han revelado que la aplicación de técnicas multithreading per se no son una estrategia que garantice un escalamiento en los resultados. Distintas empresas de carácter global (como Google, Facebook y Toshiba) así como investigaciones locales (de la mano de NIC Chile) han reconocido la existencia de este problema, reiterando responsabilidades a los Internet Sockets provistos por el kernel de Linux, los cuales al ser expuestos a un consumo concurrente degradan su capacidad de consumo de datos y rendimiento general, aún cuando existe poder de cómputo excedente. Así estas empresas y otros trabajos de investigación han planteado varias hipótesis teóricamente razonables para explicar dicho comportamiento pero sin concretar las mismas en términos experimentales que permitan confirmarlas o desmentirlas. La presente investigación plantea un estudio experimental del caso de los Sockets UDP que combina técnicas de profiling y testing de distinto nivel, a fin de verificar las principales sospechas vigentes que den explicación al problema en cuestión, reunidas en 3 líneas de trabajo: Problemas de distribución de carga, degradación del rendimiento por mecanismos de bloqueo y problemas de manejo de caché y defectos de contención de recursos. En la misma línea, se ilustra el impacto de fenómeno de contención de recursos en un escenario concurrente y su repercusión en los canales de comunicación en el procesamiento de datos en arquitecturas modernas multiprocesador como la estudiada. Es fruto de este trabajo un veredicto por cada estudio que concluya explicando las características inherentes a los Internet Sockets que expliquen su mal desempeño, bajo los distintos análisis efectuados. Posteriormente, la investigación se traslada a estudiar la técnica denominada reuseport, un desarrollo de ingenieros de Google que plantea una solución al problema presentado y que promete mitigar el efecto negativo causado por el uso de multithreading en el contexto estudiado. Así también, se repasan aspectos como el rendimiento de este enfoque, y ciertas debilidades del mismo. Finalmente, es producto del presente trabajo el planteamiento e implementación de una solución propia al problema que, inspirado en el diseño de reuseport e implementado como un módulo del kernel, provee un mecanismo de distribución de paquetes que permite optar a mejoras de desempeño en el procesamiento de los mismos usando técnicas de procesamiento paralelo clásicas. Una solución que --en su configuración estándar-- provee un rendimiento competitivo a reuseport, pero que gracias a ser ampliamente configurable permite postular a mejores resultados que reuseport en contextos no uniformes de distribución de paquetes.
202

Calidad de óptimos locales para problemas de programación de la producción en máquinas paralelas

Muñoz Valdés, Felipe Tomás January 2016 (has links)
Doctor en Sistemas de Ingeniería / En este trabajo se estudia la calidad que ofrecen las soluciones óptimas locales para problemas de programación de tareas en máquinas en paralelo. Los ambientes considerados son máquinas idénticas, idénticas restringidas, uniformes restringidas y no-relacionadas. El objetivo considerado es la minimización del tiempo ponderado de completación. Para estudiar la calidad de los óptimos locales se determinan los factores de aproximación para las soluciones localmente óptimas de los vecindarios de inserción (jump) e intercambio (swap). Los resultados indican que para los ambientes de máquinas paralelas uniformes y no-relacionadas, el costo de cualquier óptimo local se encuentra alejado a lo más en un factor 2,618 con respecto al costo del óptimo. Si solo se considera la minimización del tiempo de completación, se tiene que el factor es 2. El mismo resultado se obtuvo para el ambiente de máquinas uniformes con tareas unitarias, para los casos ponderado y no ponderado. Por otra parte, para el problema de máquinas paralelas idénticas restringidas, se determinó que el factor de aproximación se encuentra entre 1,75 y 1,809. Para el caso no ponderado este factor se encuentra entre 1,5333 y 1,618. Para el caso de tareas unitarias, donde el objetivo es la minimización del tiempo ponderado de completación, se determinó que el factor de aproximación se encuentra entre 1,5333 y 1,618. Mientras que para el caso no ponderado se tienen evidencias que indican que el factor de aproximación es 1,5333. / Este trabajo ha sido parcialmente financiado por Universidad del Bío-Bío; Conicyt, Programa de Formación de Capital Humano Avanzado; Núcleo Milenio Información y Coordinación en Redes
203

Evaluación de un enfoque de relajación Lagrangeana en un modelo de optimización estocástica para la planificación de cosecha forestal

Lagomarsino Gatica, Emanuel José January 2016 (has links)
Ingeniero Civil Industrial / En esta memoria se utilizará el método de Relajación Lagrangeana a un problema de la vida real en el área de la planificación forestal. A esta planificación, además, se le agregará incertidumbre en el precio de las maderas, en base a la consideración de un número N de escenarios, lo cual aumenta la dificultad para la resolución de la instancia, lo que lleva a que se quiera evaluar el desempeño de este enfoque para la resolución de problemas con estas características. El objetivo principal del proyecto es lograr encontrar una solución cercana al óptimo para un modelo de programación lineal estocástico buscando maximizar el beneficio neto de la planificación de la cosecha de bosques, para instancias con más de 200 escenarios a partir de una Relajación Lagrangeana del problema y evaluar el desempeño de este enfoque conforme al número de escenarios y en comparación a CPLEX. Para lograr esto, se empleó la siguiente metodología: 1. Entender la Importancia de la evaluación de esta herramienta. 2. Plantear el Modelo de Programación Lineal Estocástico acorde al problema forestal. 3. Indagación en Bibliografía de la Relajación Lagrangeana. 4. Elección de restricciones a relajar, desarrollo de algoritmo y heurística de la Relajación Lagrangeana. 5. Análisis de los Resultados. Al evaluar los resultados, se pudo notar que la Relajación Lagrangeana no tenía un comportamiento estable al resolver el problema con un grafo de 290 arcos, 223 nodos y 15 bosques, esto comparado con casos más pequeños en el que su comportamiento es más típico en cuanto a la suavidad del descenso de la curva hacia el óptimo. A pesar de ello, se logró mejorar su comportamiento al normalizar los multiplicadores en cada iteración. Se emplearon métodos en que se fijaron variables binarias al valor 1, cuando cumplían en cierto grado las restricciones de no anticipatividad. Esto acompañado con la técnica de Warm Start entregaron resultados satisfactorios hasta los 162 escenarios, donde los tiempos de la Relajación Lagrangeana se dispararon dejando una fuerte impresión de que la metodología puede no ser la más adecuada para este tipo de problemas. Sin embargo, esto puede estar sesgado por la elección del software y/o las metodologías de programación empleadas por el alumno, por lo que no se considera definitivo el que se deba cerrar la investigación de esta metodología para los problemas de índole forestal.
204

Métodos Cuantitativos para Configuración de Unidades Territoriales Aplicado a JUNAEB

Zamorano Valenzuela, Gonzalo Andrés January 2008 (has links)
JUNAEB, Junta Nacional de Auxilio Escolar y Becas, es un organismo gubernamental que tiene como misión ayudar a los niños y jóvenes con alta vulnerabilidad bio-psico-social a su inserción y mantención en el mundo escolar. Dentro del área alimenticia, decenas de empresas se encargan de suministrar las comidas a los colegios en todo el país, el cual está dividido en 136 Unidades Territoriales (UT). La composición de estas unidades hasta el momento había sido elaborada principalmente con criterios geográficos y, en menor medida, tomando en cuenta el número de raciones de cada territorio. No obstante, existen más factores que influyen para una mejor optimización de recursos. Por esta razón en este estudio se utilizan los siguientes criterios de balanceo: Número de Raciones, Número de Colegios, Superficie de la UT y Accesibilidad a los Colegios. La motivación del estudio parte porque todas las UT sean similarmente atractivas para las empresas, de tal forma que todos los colegios del país tengan la posibilidad de una alimentación de buena y similar calidad, agregando mejorías al actual proceso, tanto operativas como económicas. Políticas de JUNAEB, peticiones empresariales y algunos supuestos son tomados en cuenta para la elaboración de la nueva configuración. Finalmente se busca facilitar el cálculo de los costos de cada oferta por parte de las empresas, relacionándolos con los criterios usados. Así, a pesar de que el número de combinaciones que pueden ofertarse es alto, basta con calcular el costo de una UT para conocer, en forma aproximada, el costo del resto de los territorios de la misma región. Gracias al Proceso de Jerarquía Analítica (AHP) es posible determinar el peso o importancia que tiene cada criterio. Este índice, unido al peso que tiene cada UT por criterio, permite asignar un puntaje a cada territorio seleccionado. En primer lugar se usa un algoritmo heurístico de tipo greedy para intercambiar comunas entre UT, con el objetivo de minimizar la desviación estándar de los puntajes. En segunda instancia se desarrolla un algoritmo de elaboración de clusters sujeto a ciertas restricciones, a los cuales se les calcula un puntaje. Clusters y puntajes son usados como inputs dentro de un modelo de programación lineal entera que minimiza las diferencias entre los puntajes mayor y menor en cada región. Finalmente, se desarrolla el algoritmo heurístico tomando como situación inicial el resultado entregado por el modelo matemático. Cada región es analizada por estas metodologías, entregando alternativas de solución, comparando los resultados y citando los supuestos hechos en cada una de ellas. Como es de esperar, cuando el objetivo es disminuir la resta entre el mayor y menor puntaje en una región la metodología de programación matemática entrega mejores resultados, en especial en aquellas regiones con mayor cantidad de comunas y, por consiguiente, mayor cantidad de combinaciones para formar clusters. En contraparte, cuando el objetivo es disminuir la desviación estándar, los mejores resultados son obtenidos cuando el modelo y la heurística son parte de la misma metodología.
205

Textram, un lenguaje de especificación de dominio textual, para el desarrollo y manejo de modelos RAM

Oliva Rodríguez, Marel Josué January 2015 (has links)
Magíster en Tecnologías de la Información / La programación orientada a aspectos (AOP) sirve para separar las preocupaciones transversales desde la perspectiva de implementación de un sistema de software. El modelamiento orientado a aspectos (AOM) ofrece una alternativa para representar las preocupaciones transversales en niveles más altos de abstracción, en etapas anteriores a la implementación del software. "Reusable Aspect Models" (RAM) es un enfoque de AOM, que permite el diseño detallado de un sistema de software a través de módulos llamados "aspect models". La representación gráfica de RAM está inspirada por UML; los aspectos son definidos estáticamente a través de diagramas de clases y dinámicamente por medio de diagramas de estado y de secuencia. La consistencia entre modelos está asegurada por RAM, gracias a la jerarquía de modelos y estructuras de dependencias. TouchRAM es una herramienta gráfica para el modelado de aspectos RAM. Actualmente TouchRAM continúa en desarrollo y es la única herramienta disponible para la creación de RAMs. TouchRAM no está disponible para el público general, dificultando su adopción en otros proyectos de software. El objetivo de la presente tesis es presentar TextRAM, un modelador textual para la definición de modelos RAM. TextRAM se presenta como una alternativa a TouchRAM. El código fuente de TextRAM está disponible para su descarga y su implementación pretende estimular el desarrollo e investigación de RAM. Los modelos resultantes de TextRAM, podrán ser utilizados por TouchRAM y viceversa. Los usuarios de RAM, podrán elegir entre un modelamiento gráfico con TouhRAM o de un modelamiento textual con TextRAM. Los objetivos de TextRAM son: (1) definición de una abstracción adecuada para la sintaxis concreta textual, (2) implementar una extensión de Eclipse que permita la edición de modelos con la sintaxis concreta de TextRAM, (3) tranformación de modelos desde TextRAM a TouchRAM y viceversa, (4) Aplicar las validaciones semánticas alineadas a las reglas de TouchRAM, (5) demostrar la validez de TextRAM, por medio de un caso de estudio llamado Slot Machines.
206

Aplicación de las tecnologias C.A.D al diseño optimo interactivo de estructuras mediante programación matemática no lineal

Company Calleja, Pedro-Pablo 08 February 1989 (has links)
Company Calleja, P. (1989). Aplicación de las tecnologias C.A.D al diseño optimo interactivo de estructuras mediante programación matemática no lineal [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/60770
207

Propuesta de Marco y Metodología para el Modelado del Proceso de Planificación Colaborativa en Redes de Suministro/Distribución basado en Programación Matemática. Aplicación a Empresas del Sector de Pavimientos y Revestimientos Cerámicos

Pérez Perales, David 07 October 2013 (has links)
En la actualidad, cada vez más son necesarias Herramientas de ayuda a la Toma de Decisiones para la Planificación de Operaciones Colaborativa en contextos de Cadenas de Suministro, o más ampliamente, lo que se denomina Redes de Suministro/Distribución (RdS/D). Entre dichas Herramientas son de especial relevancia las de optimización, y entre estas últimas, aquellas basadas en Modelos de Programación Matemática. Una extensa revisión de la literatura depara que dichos Modelos se han utilizado mayoritariamente considerando una Toma de Decisiones centralizada de la RdS/D. Sin embargo, la realidad muestra como las diferentes ¿Entidades¿ que forman parte de la RdS/D, no siempre comparten los mismos objetivos y en muchas ocasiones, son reáceas a compartir cierto tipo de información. Por esa razón, la situación más común es la toma de Decisiones descentralizada, en la que diferentes ¿Entidades¿ deben coordinarse para obtener un buen rendimiento individual y de la RdS/D en su conjunto. Por otra parte, los Modelos que sí se han aplicado al caso descentralizado han simplificado enormemente la realidad, sin considerar RdS/D con el suficiente grado de complejidad (productos, recursos¿) u omitiendo algunos aspectos importantes del propio proceso de Planificación Colaborativa, y particularmente la aplicación simultánea de aspectos ligados a la integración espacial (entre diferentes ¿decisores¿ perteneciente a un mismo Nivel Decisional) o la integración vertical (entre diferentes Niveles Decisionales). Además, en muchas de las ocasiones dichos Modelos no son fácilmente extrapolables a otras situaciones y se obvia la manera en que se han elaborado. Por todo ello, la presente Tesis propone un Marco, y posteriormente una Metodología basada en el mismo, que indique de forma estructurada, en primer lugar, los pasos para el Modelado del proceso de Planificación de Operaciones (Colaborativo) en contextos de RdS/D, y en segundo lugar, para el Modelado Analítico (basado en Programación Matemática) del mismo y su posterior Resolución/Evaluación. Más concretamente, el Marco propuesto integra cuatro visiones diferentes de modelado, como son las visiones Física, Organizacional, Decisional e Informacional y sus inter-relaciones, lo cual favorece la construcción de modelos integrados (unión de varias visiones) del proceso de Planificación Colaborativa. Si bien el Modelado de Procesos atiende fundamentalmente a la Visión Funcional, en este caso, por el tipo específico de Proceso que se desea modelar, ligado a la Toma de Decisiones, se utilizará la Visión Decisional como la visión base para modelar el Proceso, estando la Visión Funcional embebida en esta última. La inclusión del resto de Visiones es importante puesto que en la Toma de Decisiones en contextos de Planificación se actúa sobre unos Recursos/Ítems (Visión Física) y según una determinada Organización, en la que las diferentes ¿entidades¿ estarán más o menos integradas (Visión Organizacional). Por otra parte la propia actividad de la RdS/D generará y necesitará cierta Información (Visión Informacional), necesaria para tomar decisiones. Además dicho Marco contempla todo tipo de escenarios decisionales en los que se puede enmarcarse el Proceso de Planificación Colaborativa en una RdS/D, desde los más Centralizados a aquellos que tienen lugar en Entornos Distribuidos/Descentralizados, para lo cual se identifican diferentes Centros de Decisión, tanto en el Nivel Decisional Táctico como en el Operativo, considerando al mismo tiempo tanto su Integración Temporal como su Integración Espacial. Una vez aplicada la primera parte de la Metodología se obtendrá (nivel Macro) un Modelo integrado del Proceso, en el que se conocerá, entre otros aspectos, de qué Actividades Decisionales consta el Proceso, cuál es su orden de ejecución y qué tipo de Información ¿por interdependencias¿ es intercambiada entre las mismas. El modelo del Proceso anterior y todos los aspectos/conceptos analíticos descritos también en el Marco, serán especialmente relevantes para que en una segunda parte de la Metodología (nivel micro) se detalle como realizar el Modelado analítico del Proceso y cómo proceder a su Resolución/Evaluación integrada. Para el Modelado analítico se supondrá que cada uno de los Centros de Decisión (asociados a las Actividades Decisionales del Proceso), tomará las decisiones de planificación táctica/operativa en base a Modelos basados en Programación Matemática (Programación Lineal Entera Mixta). Además se particularizará para escenarios doblemente jerárquicos (desde el punto de vista Temporal y Espacial), de un ciclo Instrucción-Reacción y en contextos organizacionales (de ¿búsqueda de un objetivo conjunto¿) en los que puede existir cualquier ¿status de información¿ (asimetría), pero en la que ésta nunca se podrá utilizar con fines oportunistas. En cuanto a la resolución/evaluación, se irán ejecutando los diferentes Modelos teniendo en cuenta la secuencia e información ¿por interdependencias¿ (propia de escenarios colaborativos) definidas anteriormente en el Modelado del Proceso. Una vez ejecutados todos, se describe cómo evaluar cuantitativamente el ¿desempeño¿ conjunto de la RdS/D (o grado de Planificación Colaborativa actual) a partir de la definición de tres parámetros, denominados ¿Criterio Total¿, ¿Tiempo de Resolución Total¿ y ¿Consistencia Total¿. Además, la propia metodología facilita y guía en la ¿simulación¿ de diferentes escenarios de Planificación Colaborativa (TO-BE) de manera que puedan conocerse ¿a priori¿ los beneficios/costes que ello supone. El análisis de dichos escenarios podrá afectar indistintamente (con mayor o menor profundidad) a cualquiera de las Visiones Física, Organizacional o Decisional, y por ende a la Informacional. Por último, dicha Metodología, aunque aplicable/extrapolable a cualquier Sector Industrial, se ha implementado en una RdS/D concreta perteneciente al Sector de Pavimentos y Revestimientos Cerámicos. En primer lugar a través del Modelado de su Proceso de Planificación Colaborativa y la identificación de las diferentes Actividades Decisionales (Centros de Decisión) que lo conforman, así como su orden de ejecución e información compartida entre las mismas. En segundo lugar a través del Modelado basado en Programación Matemática de cada uno de los anteriores Centros de Decisión, en la que cabe resaltar, también como aportación, la complejidad de los diferente Modelos, interrelacionados entre sí, y que incluyen todas las características intrínsecas a la Planificación táctico/operativa en dicho Sector. En tercer y último lugar a través de la resolución integrada de los anteriores Modelos, lo que ha permitido evaluar cuantitativamente, a través de los parámetros antes mencionados, el grado de Planificación colaborativa actual (AS-IS) de dicha RdS/D. / Pérez Perales, D. (2013). Propuesta de Marco y Metodología para el Modelado del Proceso de Planificación Colaborativa en Redes de Suministro/Distribución basado en Programación Matemática. Aplicación a Empresas del Sector de Pavimientos y Revestimientos Cerámicos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/32665 / TESIS
208

Propuesta de programación multianual de inversiones en la Municipalidad Metropolitana de Lima 2019-2021

Matos Chura, Ana, Peláez Santillán, Hivelli, Solis Anampa, Emilio January 2018 (has links)
La presente investigación, titulada Propuesta de Programación Multianual de Inversiones de la Municipalidad Metropolitana de Lima 2019-2021, se desarrolló durante el tránsito del Sistema Nacional de Inversión Pública (SNIP) al Sistema Nacional de Programación Multianual y Gestión de Inversiones (SNPMGI). Este último tiene como objetivo el cierre de brechas de infraestructura y acceso a servicios públicos. En ese sentido, cabe preguntarnos si un gobierno local tan representativo como el de la Municipalidad Metropolitana de Lima (MML) ha desarrollado una programación multianual de inversiones acorde con la nueva normatividad. El trabajo tiene un enfoque cualitativo, metodología aplicada a través de entrevistas y cuestionarios realizados a los órganos del sistema, para identificar los problemas y proponer un programa multianual de inversiones 2019-2021. El marco teórico describe el proceso de la programación multianual de inversiones, una valoración crítica del concepto de brecha y la vinculación de sistema de inversión pública con otros sistemas administrativos. En el análisis y el diagnóstico, se describe la programación multianual de inversiones de la MML 2018-2020, la cual carece de un diagnóstico de brechas y criterios de priorización de las inversiones; asimismo, se realizó la evaluación de las inversiones de la MML registradas en el Banco de Inversiones, para definir el universo de inversiones a utilizar en la investigación, y finalmente se analizó el financiamiento de las inversiones para estimar el presupuesto de inversiones 2019-2021. La propuesta del programa multianual de inversiones 2019-2021 se basa en criterios de priorización vinculados con el alineamiento estratégico, la continuidad y la ejecutabilidad de las inversiones y la contribución al cierre de brechas, de acuerdo con el presupuesto estimado, y defiende metas de productos e indicadores de resultados de las inversiones.
209

Reglas y estrategias de transformación para programas lógico-funcionales

Moreno Valverde, Ginés Damián 20 May 2009 (has links)
El problema de la integración d ela programación lógica y funcional estaá considerado como uno de los más importantes en el área de investigación sobre programación declarativa. Para que los lenguajes declarativos sean útiles y puedan utilizarse en aplicaciones reales, es necesario que el grado de eficiencia de su ejecución se aproxime al de los lenguajes imperativos. Para ello, es imprescindible el desarrollo de herramientas potentes para el análisis y transformacón de los programas, capaces de optimizar las implementaciones existentes. Esta tesis se centra en el desarrollo de tales técnicas, adoptándose la aproximación conocida como "reglas + estrategias" para la optimización de programas en un tentexto lógico-funcional unificado. Las reglas básicas que se usan son el plegado y el desplegado que aquí se definen en términos del Narrowing y sus refinamientos. Gracias a la propagación bidireccional de parámetros realizadas por el mecanismo de unificación del narrowing, se obtienen optimizaciones apreciables y es posible explotar la sinergía existente entre la sintaxis funcional (anidamientos funcionales, evaluaciones perezosas, etc.) y el uso de variables lógicas. Esta fisión unificada de ejecución y transformación de programas nos permite explotar los resultados conocidos en ambos campos, funcional y lógico, y desarrollar un esquema simple y potente para mejorar un programa con respecto a su capacidad para computar tanto valores a funciones como respuestas a objetivos. Presentamos algunas aplicaciones de las reglas de plegado y desplegado (semánticas formales pr desplegado y relaciones con las técnicas de evalación parcial). Además, mostramos que su combinación con otras reglas para la introducción y eliminación de difiniciones y reglas de abstracción permite obtener programas eficicientes cuando son dirigidas por estrategias adecuadas como son la composición o la formación de Tuplas. El esquema presentado constituye la primera aproximación correcta y completa .... / Moreno Valverde, GD. (2000). Reglas y estrategias de transformación para programas lógico-funcionales [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4701 / Palancia
210

Periodismo de investigación en la radio peruana: alcances y posibilidades: los casos de RPP noticias y CPN radio

Delgado Nachtigall, Úrsula 11 August 2015 (has links)
Esta tesis aborda el tema del periodismo de investigación en la radio informativa peruana, así como los alcances y posibilidades de este género periodístico que, pese a sus muchos beneficios, es muy poco utilizado en los medios de comunicación. Los casos a partir de los cuales se ha realizado el presente estudio son: RPP Noticias, emisora informativa que actualmente ocupa el primer lugar en el ránking nacional, y CPN Radio, la segunda emisora informativa que en el 2006 ocupaba el puesto catorce. El objetivo de esta investigación apunta a conocer las principales razones que obstaculizan el desarrollo de este género periodístico en la radio informativa limeña, así como los factores que podrían promover su práctica. Cabe señalar que en comparación con el periodismo escrito y el televisivo, la radio informativa es el medio que realiza menos periodismo de investigación en el país. / Tesis

Page generated in 0.0798 seconds