• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 555
  • 54
  • 26
  • 17
  • 9
  • 2
  • 1
  • 1
  • 1
  • 1
  • 1
  • 1
  • Tagged with
  • 675
  • 207
  • 156
  • 132
  • 132
  • 132
  • 132
  • 132
  • 130
  • 105
  • 94
  • 93
  • 83
  • 73
  • 73
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Aspectos epidemiológicos y anatomopatológicos de apendicitis aguda en cirugía pediátrica en el Hospital Nacional “Luis N. Saenz” PNP, Enero – Diciembre 2014

Espinoza Bobadilla, Lisset January 2016 (has links)
Objetivo: Determinar los aspectos epidemiológicos y anátomo – patológico de la apendicitis aguda en cirugía pediátrica del Hospital Nacional “Luis N. Saenz” PNP en el periodo enero – diciembre 2014. Materiales y método: Estudio descriptivo, retrospectivo y de corte transversal. La población seleccionada fue de 86 pacientes de ambos sexos, entre 0 y 13 años con diagnóstico de apendicitis aguda durante el periodo 2014. Se revisaron las historias clínicas y fichas de anatomía patológica y se elaboró una ficha de recolección de datos para obtener la información requerida. Resultados: La incidencia de apendicitis aguda en la población de estudio fue de 86. La apendicitis aguda predominó en el sexo masculino (65.5%). El grupo de edad más frecuente fue de 10 a 13 años (48.8%). El tipo de apendicitis más frecuente fue la complicada (54.6%). El tiempo de enfermedad más frecuente fue de 24 – 48 horas (52.3%). El síntoma más frecuente fue el dolor abdominal (82.6%). El diagnóstico anátomo - patológico más frecuente fue la apendicitis gangrenosa (40.7%). Conclusiones: La apendicitis aguda fue más frecuente en el sexo masculino y en el grupo de edad de 10 a 13 años. El síntoma más frecuente fue el dolor abdominal. El diagnóstico anátomo – patológico más frecuente fue la apendicitis gangrenosa. La mayoría de pacientes acudieron con un tiempo de enfermedad de 24-48 horas. El tipo de apendicitis más frecuente fue la complicada.
32

Utilidad de la escala de Alvarado para el diagnóstico de apendicitis aguda complicada en el Hospital Nacional Sergio E Bernales 2015

Canga Ferruzo, Zulema January 2015 (has links)
Objetivo: Conocer la utilidad de los criterios de Alvarado para el diagnóstico de apendicitis aguda complicada en los meses los julio-setiembre del 2015 en el Hospital Nacional Sergio E Bernales. Finalidad.- El presente trabajo tiene como objetivo determinar el punto de corte dentro del puntaje de Alvarado para diagnosticar específicamente apendicitis aguda complicada, teniendo impacto tanto en el tratamiento (apendicetomía) el tiempo de hospitalización, la posibles complicaciones y el tiempo de recuperación de un paciente diagnosticado con apendicitis aguda Materiales.- Se utilizó una ficha de recolección de datos (anexo1), que fue elaborada con el objetivo de recolectar datos del libro de reporte operatorio y de las historias clínicas. Resultados.- La base de datos fue de 210 registros recolectados, de los cuales 53 personas era mejor de edad, 15 historias clínicas no se encontraba disponibles y 3 historias clínicas se encontraron incompletas. La sensibilidad de la prueba para diagnosticar apendicitis aguda complicada fue del 55%, la especificidad de la prueba para diagnosticar apendicitis aguda fue 10%, el valor predictivo positivo fue 37%, el valor predictivo negativo es 18%, lo que indica que si la prueba es negativa el sujeto tiene el 18% de no tener apendicitis aguda complicada. Conclusiones y Recomendaciones.- La utilidad de la escala de Alvarado para diagnosticar apendicitis aguda complicada por los resultados mostrados es evidente que la escala de Alvarado NO es útil para el diagnóstico de apendicitis aguda complicada.
33

Pérdida de consistencia del concreto en el tiempo a temperaturas inferiores o cercanas a cero

Speicher Fernández, Moisés Baruj January 2007 (has links)
La investigación nos obligó a llevar a cabo modelos y procedimientos de construcción diferenciados respecto a los convencionales, dado que los materiales, insumos y las propias estructuras suelen presentar comportamientos complejos frente a los climas mencionados. El empleo de aditivos uno plastificante (reductor de agua) Rheobuild 1000 y del aditivo inclusor de aire a través de a una aplicación rápida y precisa, nos proporcionó un Concreto capaz de ser expuesto a ciclos de congelamiento y deshielo y nos permitió obtener una producción de concreto de alta calidad normal y de peso ligero reduciendo el agua y así logrando reducir la cantidad de cemento en la mezcla y proporcionando una solución económica y ventajosa en el proyecto. Hemos comprobado con los resultados, análisis de laboratorio y con la utilización del producto en el campo la calidad del insumo fabricado y puesto en servicio, para las estructuras de drenaje proyectadas, su economía y rentabilidad al proyecto; quiero con ello agradecer el apoyo de las empresas realizadoras del proyecto carretero, y el tenaz apoyo de los investigadores jefes del laboratorio de Concreto suelos y pavimentos con quienes compartí esta investigación Ingenieros Alex Aiquipa y Roberto López por su excelente visión y apoyo a la investigación.
34

Rediseño de procesos para la disminución de tiempos de espera en el servicio de un comedor administrado por un concesionario dentro de una empresa del sector financiero

Nicho Barrera, Oscar Jesús, Nicho Barrera, Oscar Jesús January 2017 (has links)
Realiza el análisis y rediseño de los procesos de un comedor administrado por un concesionario dentro de una empresa financiera, para su ejecución se basó en la metodología de Rediseño de Procesos de Harmon (2003) con los ajustes realizados por Aguirre (2007). Para su desarrollo se establece la comprobación de dos hipótesis específicas, planteándose como primer punto un aumento en los servidores de la línea de atención y midiendo dicho impacto en tiempos por medio de la simulación de eventos en el software Simio, lográndose de esa forma la disminución de tiempos de espera en las líneas de atención. Por otro lado, se plantea una redistribución de las mesas en los ambientes del comedor, aplicándose la metodología de combinación de mesas desarrollada por Thompson (2003), con ello se logra redistribuir las mesas con la combinación más óptima y ampliando la capacidad de los ambientes del comedor, lográndose de esa forma, una reducción de tiempos en el proceso de búsqueda de mesas disponibles. / Tesis
35

Factores que determinan la demora en la activación y reserva de los cubículos en la sede Monterrico-UPC

Juárez Martínez, Brenda Katherine, Salinas Veliz, Luis, Lovon Vega, André Marcelo 24 June 2019 (has links)
Trabajo del curso Estadística Aplicada II, ciclo 2019-1, desarrollado por los estudiantes de cuarto ciclo de los Programas Académicos de Ingeniería Industrial e Ingeniería de Gestión Empresarial. Universidad Peruana de Ciencias Aplicadas (UPC) / El presente trabajo tiene como finalidad determinar cuáles son los factores que ocasionan la demora en el momento de activar y/o reservar cubículos de los pabellones L e I en la Universidad Peruana de Ciencias Aplicadas (UPC) de la sede de Monterrico en el periodo del 2019-01, para que la universidad pueda buscar una mejor solución y poder satisfacer a los miles de alumnos que utilizan este servicio para poder estudiar de forma más cómoda. Para poder resolver dicha problemática, se tomaron tiempos (con un cronometro) en las diferentes semanas académicas, dando como resultado que las semanas con más necesidad de usar dicho servicio son las semanas 6 y semana 7, en especial la última semana mencionada, ya que es la semana donde los universitarios forman grupos de estudios o de trabajo para poder estudiar o realizar algún trabajo debido a que según el calendario brindado por la universidad la semana 8 son los exámenes o trabajos parciales. Además, la universidad nos brindó asesorías y una base de datos que realizaron ellos antes del presente ciclo a analizar, con toda la información recolectada se puedo profundizar más en el tema a trabajar, todo esto se organizó en una ficha de tiempos para tener más ordenado los datos que se consiguieron. Para ello, se utilizó los temas realizados en el curso de estadística aplicada 2 para poder afirmar o rechazar nuestras hipótesis planeadas a continuación.
36

Predicción no lineal en línea de series de tiempo mediante el uso y mejora de algoritmos de filtros adaptivos de Kernel

Castro Ojeda, Iván Alonso January 2018 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / El modelamiento de series de tiempo es un problema transversal a diferentes áreas de ingeniería y ciencias. Este tópico, visto a través del foco de aprendizaje de máquinas o aprendizaje estadístico, se reduce a elegir un modelo de regresión que sea lo suficientemente flexible sin que sobreajuste al conjunto de entrenamiento y, por ende, permita generalizar. No obstante, la elección de modelos flexibles suele venir de la mano de poca interpretabilidad de los mismos, como por ejemplo en modelos con estructura tipo \textit{caja negra}. Los modelos más flexibles son preferidos para problemas de alta complejidad, debido a su ajuste con mayor precisión a las observaciones. Más aún, el ajuste de los modelos predictivos es una componente crìtica para la regresión en línea aplicada a problemas reales. Es por ello que se decide abordar el tema del aprendizaje en línea para series de tiempo no lineales a través de un modelo flexible, que extiende la teoría del filtrado adaptivo lineal, al caso no lineal, haciendo uso de transformación de espacio de características basadas en \textit{kernel} reproductivos. Los objetivos de la investigación realizada son (i) presentar e interpretar el estimador de filtro de \textit{kernel} adaptivo (KAF) al contexto de regresión no lineal de series de tiempo, (ii) extender, en términos de mejoras sobre el algoritmo y el ajuste de sus hiperparámetros, la aplicación estándar de KAF validada sobre series sintéticas y datos reales y (iii) acercar la interpretabilidad y aplicabilidad de los métodos KAF para usuarios, validando la mejora tanto en desempeño predictivo como en ajuste de modelos con las extensiones propuestas. Para ello, este trabajo de investigación reúne los resultados principales de dos investigaciones previas, la primera enfocada en mejorar la predicción de KAF utilizando una entrada exógena de un sistema. En ese contexto se estudió el comportamiento de descarga de batería de ion-litio para una bicicleta eléctrica que utilizaba como entrada exógena mediciones de altitud derivadas a partir de coordenadas de geolocalización. El objetivo era caracterizar la posible dependencia oculta a través del descubrimiento automático de relevancia de las variables al momento de la predicción; para lo cual se usó un \textit{kernel} Gaussiano de Determinación de Relevancia Automática (ARD). Por otro lado, la segunda investigación se centró en la validación de una metodología para la inicialización de KAF extendiendo el estimador a una variante probabilística para mejorar su desempeño y entrenamiento, proponiendo hibridar la estimación en línea adicionando un entrenamiento en \textit{batch} que permite encontrar los hiperparámetros óptimos de la extensión propuesta. Adicionalmente, este enfoque permitió proponer un regularizador novedoso para abordar dos de los problemas más desafiantes de diseño según el estado del arte para KAF: el ajuste del hiperparámetro del \textit{kernel} Gaussiano y el tamaño del diccionario usado por el estimador. La metodología fue validada tanto en datos sintéticos, específicamente para el caso del atractor caótico de Lorentz, como en datos reales, los cuales correspondieron a una serie de viento extraída a partir de mediciones de anemométro. Ambos estudios mostraron resultados prometedores, acercando el uso de KAF a usuarios neófitos, tanto por las metodologías desarrolladas que quedan como guías metodológicas aplicadas, como por la interpretabilidad proporcionada a través de toda la investigación, caracterización y desarrollo del uso de KAF. Finalmente se dejan desafíos futuros con respecto a promover más aún la automatización con respecto a la selección de hiperparámetros del modelo, lo que culminaría con un desarrollo completamente adaptivo de estos métodos, vale decir, con intervención mínima del usuario en la selección de los hiperparámetros.
37

Part-time and full-time work in Chile : wage gap estimation 1990 - 2006

Maturana Godoy, Iván Ignacio 12 1900 (has links)
SEMINARIO DE TÍTULO para optar al título de INGENIERO COMERCIAL MENCIÓN ECONOMÍA / En este estudio, se realiza un an´alisis de la brecha salarial para el periodo comprendido entre 1990 y 2006, utilizando la metodolog´ıa de Oaxaca-Blinder. Con este prop´osito se realizaron dos brechas salariales: la diferencia salarial entre hombres y mujeres, tanto para la jornada a tiempo parcial como para tiempo completo, y la diferencia salarial entre trabajadores de jornada parcial y jornada completa, tanto para hombres como para mujeres. La importancia de esto es que as´ı se puede apreciar cuanto de la brecha observada es atribuible a discriminaci´on salarial. Tambi´en, utilizando el m´etodo de vecino m´as cercano de matching se analizo el efecto de cambiarse desde un trabajo de jornada completa a un trabajo de jornada parcial. Para estos prop´ositos se utiliz´o la encuesta CASEN, y el panel CASEN. Se encontr´o que al descomponer las brechas salariales, la discriminaci´on salarial ha ido en disminuci´on, aunque queda mucho trabajo por hacer si se compara con pa´ıses industrializados (especialmente pa´ıses escandinavos). Del matching, se obtuvo que existe un premio al salario al pasar de trabajar jornada completa en 2001 a jornada parcial en el 2006. Para el mismo cambio entre los a˜nos 1996 y 2001, sin embargo, se encontr´o que los estimadores no eran estad´ısticamente significativos.
38

Diseño de una arquitectura para estimación de movimiento fraccional según el estándar de codificación HEVC para video de alta resolución en tiempo real

Soto León, Jorge Guillermo Martín 21 July 2016 (has links)
Las labores de organizaciones especializadas como ITU-T Video Coding Experts Group e ISO/IEC Moving Picture Experts Group han permitido el desarrollo de la codificación de video a lo largo de estos años. Durante la primera década de este siglo, el trabajo de estas organizaciones estuvo centrado en el estándar H.264/AVC; sin embargo, el incremento de servicios como transmisión de video por Internet y redes móviles así como el surgimiento de mayores resoluciones como 4k u 8k llevó al desarrollo de un nuevo estándar de codificación denominado HEVC o H.265, el cual busca representar los cuadros de video con menor información sin afectar la calidad de la imagen. El presente trabajo de tesis está centrado en el módulo de Estimación de Movimiento Fraccional el cual forma parte del codificador HEVC y presenta una elevada complejidad computacional. En este trabajo, se han tomado en cuenta las mejoras incluidas por el estándar HEVC las cuales radican en los filtros de interpolación empleados para calcular las muestras fraccionales. Para verificar el algoritmo, se realizó la implementación del mismo utilizando el entorno de programación MATLAB®. Este programa también ha permitido contrastar los resultados obtenidos por medio de la simulación de la arquitectura. Posteriormente, se diseñó la arquitectura teniendo como criterios principales la frecuencia de procesamiento así como optimizar la cantidad de recursos lógicos requeridos. La arquitectura fue descrita utilizando el lenguaje de descripción de hardware VHDL y fue sintetizada para los dispositivos FPGA de la familia Virtex los cuales pertenecen a la compañía Xilinx®. La verificación funcional fue realizada por medio de la herramienta ModelSim empleando Testbenchs. Los resultados de máxima frecuencia de operación fueron obtenidos por medio de la síntesis de la arquitectura; adicionalmente, por medio de las simulaciones se verificó la cantidad de ciclos de reloj para realizar el algoritmo. Con estos datos se puede fundamentar que la arquitectura diseñada es capaz de procesar secuencias de video HDTV (1920x1080 píxeles) a una tasa de procesamiento mayor o igual a 30 cuadros por segundo. / Tesis
39

Diseño de una arquitectura de predicción de vectores de movimiento y cálculo de rango de búsqueda para el estándar HEVC en tiempo real

Chaudhry Mendívil, Haris 06 August 2018 (has links)
El estándar HEVC (High Efficiency Video Coding por sus siglas en inglés) introduce nuevos elementos y técnicas en las diferentes etapas del codificador/decodificador, con el objetivo de conseguir mejoras significativas en la eficiencia de compresión. En relación a la fase de predicción de vectores de movimiento (MV del inglés Motion Vector), el estándar ha propuesto una técnica referida como AMVP (Advanced Motion Vector Prediction por sus siglas en inglés) que supone una mayor complejidad computacional que la fase de predicción implementada en el estándar previo (H.264/AVC), a costa de un ahorro considerable en términos de bit-rate y tiempo de ejecución. Por otro lado, algoritmos y técnicas independientes que consiguen mejoras en el software de referencia del presente estándar se han venido proponiendo en el campo de estudio; siendo uno de estos el algoritmo DSR (del inglés Dynamic Search Range) el cual responde a la determinación del rango de búsqueda y consigue una notable reducción en el tiempo de ejecución del proceso de estimación de movimiento (ME del inglés Motion Estimation). Consecuentemente, la presente propuesta plantea el desarrollo de una arquitectura en hardware (HW) de la etapa inicial del proceso ME del codificador HEVC, con la finalidad de reducir la carga computacional del mismo. Este primer paso engloba la determinación de los MVs predictores y el cálculo del rango de búsqueda. En base a ello, se ha conseguido diseñar una arquitectura que atiende a dichos procesos fundado en los algoritmos AMVP y DSR, respectivamente. Asimismo, la arquitectura propuesta resuelve problemas de dependencia presentes en la etapa inicial del ME con la etapa ME propiamente dicha, lo cual permite potenciar el desempeño general. Los resultados de síntesis demuestran que la arquitectura alcanza procesar secuencias de video con calidad ultra alta definición, referido también como UHD (siglas del término en inglés Ultra High Definition) superando los recuadros por segundo requeridos para operar en tiempo real. Específicamente, el diseño logra una tasa de procesamiento de 72 recuadros por segundo para secuencias 8K (7680x4320) con espacio de color YCbCr, en un FPGA de la familia Kintex 7. / Tesis
40

Hábitos de comunicación y organización de la información asociados a la gestión del tiempo y su relación con la productividad de directivos de empresas en 15 distritos de Lima

Pfeiffer León, Ann Kathrin 27 November 2017 (has links)
La presente investigación combina los enfoques cuantitativo y cualitativo. Se realiza en Lima con directivos de grandes y medianas empresas. Su alcance es descriptivo, enriquecido con elementos del análisis correlacional. Fruto de este análisis, se logra probar la hipótesis de que los hábitos de comunicación y organización de la información asociados a una eficiente gestión del tiempo se reflejan en mayor productividad. Se evidencia una relación positiva y significativa, que resalta la importancia del componente comunicacional e informacional en el rendimiento laboral. La investigación revela que los hábitos de comunicación asociados a una gestión eficiente implican dosificar interrelaciones, restringir la disponibilidad y alternar trabajo en equipo con concentración solitaria. Los hábitos de organización asociados a una gestión eficiente involucran priorizar lo importante sobre lo urgente, administrar la información como activo organizacional, elegir solo tecnología relevante y promover el uso sano del tiempo libre. Más por menos: menos tecnología, menos conexiones, menos información, menos velocidad producirían mejores resultados en menor tiempo. / This research combines quantitative and qualitative approaches. It takes place in Lima, with managers of large and medium-size companies. The scope is descriptive, but enriched with correlation analysis elements. As a result of this analysis, it is possible to prove the hypothesis that habits to communicate and to organize information, associated to efficient time management, reflect on greater productivity. The evidence of this positive and significant relation highlights the importance of the communication and information component in work performance. The study reveals that communication habits associated to efficient management entail balancing interrelations, restricting availability and alternating teamwork with alone time for concentration. Organization habits associated to efficient management involve prioritizing what is important over what is urgent, managing information as an organizational asset, choosing only relevant technology and promoting the healthy use of one’s free time. More for less: less technology, less connections, less information, less speed, would produce better results in less time. / Tesis

Page generated in 0.0257 seconds