• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1457
  • 92
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1601
  • 520
  • 488
  • 377
  • 367
  • 367
  • 367
  • 367
  • 333
  • 311
  • 297
  • 231
  • 211
  • 195
  • 192
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
321

Subsistema de seguridad

Valdivia Franco, Jorge Alberto, De la Barra Ganoza, Luis Felipe 2015 August 1918 (has links)
La seguridad de la información, en las empresas de hoy, es uno de los temas de mayor importancia. Cada vez son más los recursos que se invierten en protegerla, tanto de hardware como de software. Sin embargo, a pesar de ello, estos esfuerzos suelen no ser suficientes, pues existe una vulnerabilidad que rara vez es cubierta: la seguridad en las aplicaciones. El subsistema de seguridad propuesto consiste en brindar la solución para reducir la brecha que muchos mecanismos de protección dejan abierta: proteger de accesos indebidos a las aplicaciones en varios niveles. Este subsistema tiene el objetivo de ser un producto de software reutilizable por cualquier tipo de proyecto soportado por el FrameWork .Net v1.1 y que sirva para dar seguridad a la información a los distintos módulos del mismo. Este subsistema permite llevar a cabo la administración de módulos, cuentas de usuario, grupos y perfiles. Adicionalmente, proporciona los servicios de seguridad que se adaptan a cualquier tipo de aplicación (ya sea aplicaciones Web o aplicaciones Windows) y la protección de servicios Web y componentes COM+. Todas estas características, sumadas a su interfaz Web amigable, hacen del susbsistema de seguridad un producto atractivo al público.
322

Diseño y desarrollo de un módulo de clasificación de páginas Web en base a las características de su contenido utilizando técnicas de minería de datos

Falloux Costa, Gonzalo Alejandro January 2016 (has links)
Ingeniero Civil Industrial / Este trabajo de título tiene por objetivo principal diseñar y desarrollar un módulo de clasificación de páginas web en base a las características de su contenido utilizando técnicas de minería de datos, lo que se traduce en la utilización de contenido HTML, análisis de texto visible de la página web y la incorporación de una variable que refleja la seguridad web según SSL como variables predictivas para la clasificación de páginas web. El trabajo se realiza enmarcado en el proyecto AKORI del Web Intelligence Centre de la Facultad de Ciencias Matemáticas de la Universidad de Chile, el cual pretende desarrollar una plataforma computacional para mejorar el diseño y contenido de sitios web mediante el estudio de variables fisiológicas y la aplicación de minería de datos. La plataforma consiste en la implementación de un modelo que sea capaz de predecir mapas tanto de fijación ocular como de dilatación pupilar de manera rápida y precisa. En esta etapa del proyecto AKORI es necesario mejorar el desempeño de las predicciones descritas, las cuales son realizadas en sitios web reales, de diseño y contenido muy variado. Además el comportamiento que se desea predecir es sobre usuarios de los que se desconoce su motivación para la navegación, lo cual a su vez altera tanto el comportamiento ocular como sus patrones de navegación. Dado lo anterior se propone como hipótesis de investigación: Es posible clasificar páginas web en base a las características de su contenido para solucionar dos problemas fundamentales, por un lado la clasificación agrupa páginas web maximizando la varianza de páginas web entre clases y minimizando la varianza intra clase, lo cual debiese mejorar considerablemente el desempeño del modelo, puesto que predecir dentro de una clase en la cual los ejemplos tienen mayor similitud disminuye el rango de error, disminuyendo, a su vez el error estándar en la predicción. Por otro lado entrega información sobre la motivación del usuario en la web si se conoce el servicio que ofrece la página web, lo que si bien no es información completa para describir el comportamiento del usuario, puede ser una importante variable de apoyo. Para el desarrollo del modelo se utiliza un juego de datos de 138 páginas web, escogidas según tráfico de usuarios Chilenos y luego se implementan cinco algoritmos de minería de datos para clasificar entre siete clases de páginas web. El algoritmo Naive Bayes obtiene el mejor desempeño, logrando un accuracy de 78.67%, lo que permite validar la hipótesis de investigación. Finalmente se concluye que se cumplen todos los resultados esperados y la hipótesis de investigación con resultados satisfactorios considerando la investigación actual.
323

Framework para evaluación de modelos predictivos en señales electrocardiográficas con aplicación en la detección de arritmias

Avilés Segovia, Gustavo Emilio January 2016 (has links)
Ingeniero Civil Industrial / Se ha demostrado que la supervisión remota, automática y no automática, puede influir positivamente en la disminución de la taza de hospitalizaciones y en el caso de que el paciente sea hospitalizado, disminuir la duración de esta. Comúnmente se utiliza en finanzas, meteorología, oceanografía, entre otros el uso, de técnicas de análisis de predicción de estado usando datos históricos, de esta forma se analizan diferentes implementaciones de minería de datos sobre estados o situaciones reales para luego comparar las predicciones con la realidad gestada. Sin embargo, a pesar de la existencia de una vasta documentación sobre como diferentes modelos y técnicas de minería de datos que son capaces de identificar problemas como arritmias, fibrilaciones auriculares, entre otros, esta tecnología no ha sido masificada, a pesar de su existencia en salas de emergencia, cuidados intermedios e intensivos. En el contexto descrito anteriormente que se gesta el proyecto de aplicar técnicas de minería de datos sobre mediciones fisiológicas, para la detección remota de problemas en pacientes. Y con esto la necesidad del desarrollo de un sistema de pruebas, que simule la aplicación en tiempo real de minería de datos sobre signos vitales capturados en tiempo real. Para esto se fue necesario crear un modelo de aprendizaje profundo, el que detectara el punto R del latido y clasificara éste como normal o anormal. Los resultados obtenidos luego del entrenamiento y prueba del modelo, muestran que es capaz de determinar certeramente cuando un latido es normal, sin embargo el modelo no entrega la misma seguridad al momento de clasificar un latido como anormal, ya que en ocasiones éste latido es normal. Por lo que no se pudo demostrar la hipótesis de que se pueden aplicar técnicas redes neuronales diseñadas para la detección de objetos en imágenes, sirvan para la clasificación de latidos cardíacos. Finalmente, tras el estudio de requerimientos del framework, la creación de un prototipo y su uso, se llegó a las siguientes conclusiones, el utilizar el framework posee notables falencias en el rendimiento en la etapa de entrenamiento y evaluación del modelo, el costo de elaboración y mantención de los requerimientos no cubiertos por el prototipo no se pueden justificar, haciendo el proyecto inviable, debido a la aparición de una alternativa gratuita de código libre que cubre gran parte de los beneficios del framework.
324

Implementación de un algoritmo distribuido de generación de claves RSA con umbral

Muñoz Vildósola, Caterina January 2016 (has links)
Ingeniera Civil en Computación / La presente memoria detalla el proceso de implementación de un algoritmo distribuido de generación de claves RSA umbral. RSA es un sistema criptográfico de clave privada. Esto significa que se requieren dos claves distintas para realizar las operaciones criptográficas: una privada y una pública. En un sistema RSA la clave privada consiste en un valor privado (llamado exponente de firma o desencriptación) mientras que la clave pública consiste en dos valores (el exponente de verificación o encriptación, más un valor denominado módulo ). En un sistema RSA tanto el exponente privado como la factorización del módulo deben mantener secretos para garantizar la seguridad. En RSA umbral, la operación privada está distribuida entre n nodos. De los n nodos mencionados, se requieren t para poder realizar una operación criptográfica privada de manera exitosa. Dado que la operación privada está distribuida, la clave privada también debe estarlo. Además, tanto la claves privadas como la factorización del módulo RSA deben seguir siendo secretos. Dado lo anterior, al momento de generar las claves ningún nodo debe tomar conocimiento ni de las claves privadas ajenas, ni de la factorización del módulo RSA. El trabajo de esta memoria consistió en implementar el algoritmo de generación distribuida de claves RSA umbral propuesto por D. Boneh y M. Franklin. Dicho algoritmo logra generar un módulo RSA y un conjunto de claves privadas umbral sin que ningún nodo obtenga información sobre la factorización del módulo ni sobre las claves ajenas. A diferencia de trabajos previos, el algoritmo logra lo anterior sin requerir de un actor confiable que genere y distribuya las claves. Cabe destacar que el tiempo de ejecución del algoritmo es aleatorizado, por lo que no se puede predecir cuánto tomará en ejecutarse. A pesar de lo anterior, hay un tiempo de ejecución esperado. Se realizaron pruebas que comprobaron que la implementación estaba correcta y se comportaba de acuerdo a lo especificado en el algoritmo original. Además, se pudo comprobar que el promedio de los tiempos de ejecución medidos fueron menores al tiempo de ejecución esperado. / Este trabajo ha sido parcialmente financiado por Nic Chile Research Labs
325

Simulación y análisis de Schedulers LTE para estimación del MOS del servicio VoIP

Ortega Briones, Johanna Rafaela January 2016 (has links)
Magíster en Ingeniería de Redes de Comunicaciones / En la actualidad las necesidades de los usuarios obligan a que la red LTE adopte nuevos procedimientos para incrementar el desempeño del sistema. Para esto, los mecanismos de Scheduler juegan un papel importante ya que son los responsables de distribuir los recursos de radio entre los diferentes móviles tomando en cuenta entre otras circunstancias las condiciones del canal y los requerimientos de calidad de servicio. Existen varios estudios comparativos de los distintos métodos de Radio Resource Management (RRM) que analizan el desempeño de los distintos parámetros de los schedulers. En cambio, en este trabajo se tiene como objetivo principal el cuantificar los schedulers con un valor escalar que califique directamente la calidad del audio de una conversación con el desempeño de los schedulers en el sistema LTE. Este trabajo tiene como finalidad obtener el valor estimado del Mean Opinion Score (MOS) de los schedulers: RR, PF, FD-MT, TD-MT, TTA, FD-TBFQ, TD-TBFQ, PSS y CQA. Estos schedulers son simulados en NS-3 y mediante el software estadístico R se revisan los datos para presentar un análisis estadístico y de esta manera generar modelos paramétricos y no paramétricos que intenten capturar la tendencia de los nueve schedulers simulados. En cada Scheduler se obtienen dos valores de MOS. El primero en base a cálculos y modelos estadísticos desde la capa PHY hasta la capa IP, mientras el segundo se obtiene de la información proporcionada directamente por el Flow Monitor a nivel de aplicación. Los resultados obtenidos indican que los valores del MOS mediante el primer método es considerablemente más bajo comparado con el MOS obtenido del Flow Monitor. El primero se interpreta como el MOS del sistema, mientras el segundo se categoriza como el MOS de los terminales, los cuales por defecto poseen un búfer que proporciona mayor calidad de servicio, pero con mayor variación en el tiempo, comparados al MOS del sistema.
326

Diseño de un protocolo MAC con una multiplexión temporal eficiente para redes inalámbricas locales energéticamente autosustentables equipados con dispositivos captadores de energía

Torres Norambuena, Boris Antonio January 2016 (has links)
Magíster en Ciencias de la Ingeniería, Mención Eléctrica. Ingeniero Civil Eléctrico / En la actualidad existe un crecimiento acelerado en el número de dispositivos que utilizan la red para comunicarse, sumado a que la de manda por velocidades de transmisión más altas ha aumentado. Conjuntamente con este requerimiento, existe una exigencia tácita: dispositivos más autónomos, es decir, dispositivos que tengan baterías lo suficientemente eficiente para no tener que cargarlos frecuentemente. Esto ha creado la necesidad de contar con protocolos que utilicen eficientemente el ancho de banda disponible de Internet, además de que sean considerados con la batería de los equipos. Una de las soluciones que se han planteado es la de utilizar frecuencias más elevadas de comunicación, llegando en la actualidad a transmitir a frecuencias de decenas de Gigahertz. Una banda que tiene especial interés, es la banda de 60 Ghz (58 -61 GHz), pues es una banda no licenciada y provee una alta tasa de transmisión de datos. Esta tesis presenta un protocolo Media Access Control (MAC), orientado a las ondas milimétricas (ondas que trabajan a frecuencias entre 30 y 300 GHz), que mejora el desempeño del protocolo Process-Stacking Multiplexing Access (PSMA) y adaptarlo a una red centralizada. Aquí se propone el protocolo Variable Slot Time-Time Division Multiple Access (VST-TDMA). Este usa de forma más eficiente el ancho de banda pues no desperdicia tiempo, como si ocurre en Multiplexación por División de Tiempo (TDMA, Time Division Multiple Access). Además, es energéticamente eficiente y autosustentable, pues variará su tasa de transmisión dependiendo del estado de carga (SOC, State of Charge) de la batería del dispositivo. Para diseñar este, se mantuvo el funcionamiento general del protocolo PSMA, cuya idea central es la de agendar procesos, reservando el uso de canal a medida que los equipos que integran la red soliciten usarla, asignando a cada uno de ellos el tiempo exacto que requieran de utilización del canal. No obstante, el principal cambio que se añade es que la Estación Base (BS, Base Station) envía cíclicamente un broadcast, para para incorporar y/o sincronizar cualquier dispositivo que requiera acceder la red, o si la BS necesita enviar datos a alguno de los nodos. Seguidamente, se describirá el algoritmo que se usó para la estimación de los parámetros que condicionan el comportamiento de la batería. El principal resultado de VST-TDMA, es lo relacionado con la batería. En términos de desempeño en transferencia de datos, tiene un resultado similar a PSMA. No obstante, en lo relacionado a la energía, se puede notar que la información que se puede obtener de la batería permite que el protocolo decida en qué momento debe bajar su tasa de transferencia, para no degradarla, y de esta forma tenga mayor vida útil. Además, se llegó al hecho que el parámetro que condiciona principalmente a la batería es el parámetro α, logrando errores bajos en el caso de ser estimado con precisión. Como trabajo futuro, para empezar, se propone el implementar completamente el protocolo en Opnet, tanto desde el punto de vista de funcionamiento, como de la estimación de los parámetros que modelan la batería. De esta forma, será posible conocer el comportamiento más completo del protocolo. Finalmente, se podría implementar este protocolo con algún medio físico, y a las frecuencias a la cual fue diseñado. Se podría utilizar field-programmable gate array (FPGA), dónde se programaría el protocolo y se podría observar el comportamiento en un ambiente real.
327

Business Intelligence para el área de seguridad ciudadana en el distrito de Villa El Salvador mediante la metodología de Ralph Kimball

Riveros Cáceres, Cecilia, Zevallos Yapias, Marino Alonso January 2016 (has links)
Propone desarrollar una herramienta tecnológica que explote los datos históricos al máximo, brindando beneficios como: agilizar el proceso de toma de decisiones, eliminar la centralización de la información, disminución de costos de operación, aviso de los puntos críticos, entre otros. Es decir, la implementación de un Datamart, el cual brindara información efectiva y oportuna, con la cual, los encargados de la toma de decisiones tendrán una mejor base para poder distribuir a los serenos. Business Intelligence, Serenazgo, Datamart. / Tesis
328

Factores asociados al uso regular de fuentes de información en estudiantes de medicina de cuatro cuidades del Perú

Mejía, Christian R., Valladares Garrido, Mario J., Luyo Rivas, Aldo, Valladares Garrido, Danai, Talledo-Ulfe, Lincolth, Vilela Estrada, Martín A., Araujo Chumacero, Mary M., Red GIS Perú 31 July 2015 (has links)
Objetives. To determine the factors associated with regular use of sources of information by medical students in four cities in Peru. Materials and methods. In this cross-sectional study, medical students were surveyed in four cities of Peru, gathering information on the use of 14 sources of information and other educational and computer variables. Frequent use of the information source was defined if the respondent reported that they access an information source at least once a week. P values were obtained by generalized linear models adjusted for each respondent site. Results. 2,300 students were surveyed. The median age was 21 years and 53% were women. Having received training in the use of sources increased the use in twelve of the consulted bases, not in SciELO (p=0.053) or in the university library (p=0.509).When adjusting for owning a laptop/netbook, these associations remained. After also adjusting for owning a smartphone the association was lost with the BVS Peru database (p=0.067). The association was also lost after making the final adjustment, if the respondent had carried out any research activities. Conclusions. The frequent use of sources of information is associated with having received training, conducting research and use of information technologies and communication. This should be taken into account in training programs and continuous improvement in undergraduate education. / christian.mejia.md@gmail.com / Article / Objetivos. Determinar los factores asociados al uso regular de fuentes de información en estudiantes de Medicina de cuatro ciudades de Perú. Materiales y métodos. Estudio transversal analítico, se encuestó a estudiantes de Medicina de cuatro ciudades del Perú, recopilando información del uso de 14 fuentes de información y otras variables educativas e informáticas. Se definió uso frecuente de la fuente de información si accedía a ella mínimo una vez a la semana. Se obtuvieron los valores p mediante modelos lineales generalizados ajustando por la sede de cada encuestado. Resultados. Se encuestaron 2300 estudiantes con una mediana de edad de 21 años, el 53% fueron mujeres. El recibir una capacitación para el uso de las fuentes incrementó el uso en doce de las bases consultadas, no en SciELO (p=0,053) ni en la biblioteca universitaria (p=0,509). Cuando se añadió el ajuste por poseer una laptop/netbook se mantuvieron dichas asociaciones. Al ajustar también por poseer un smartphone se perdió la asociación con la base BVS Perú (p=0,067), lo mismo ocurrió al hacer el último ajuste, si había realizado alguna actividad de investigación. Conclusiones. El uso frecuente de las fuentes de la información está asociado con haber recibido capacitación, realizar investigación y el uso de las tecnologías de la información y comunicación. Esto debe ser tomado en cuenta en programas de capacitación y mejora continua en el pre y posgrado.
329

Propuesta de un modelo de negocio basado en big data que facilite la integración de los datos de las personas naturales y de soporte a las políticas de e-government en el Perú, apoyado en una empresa de logística integral

Rojas García, José Antonio 10 1900 (has links)
Presenta una “Propuesta de Negocio” para una Empresa de Logística Ligera que busca aprovechar sus habilidades operativas a fin de desarrollar un nuevo servicio para sus clientes basado en BIG DATA. La propuesta se encuentra alienada a la prioridad y capacidad competitiva de la Empresa de Logística Ligera considerando sus procesos operativos actuales y su plan estratégico actual, a la vez se plantea el tratar de aprovechar su capacidad instalada actual, minimizando su capacidad ociosa actual que se ha generado a consecuencia de atender a sus clientes actuales. La propuesta que se ha planteado tiene como principal objetivo atender las necesidades de los consumidores futuros de la Empresa de Logística Ligera, así como que esta pueda servir de soporte para varias de las políticas implementadas en la actualidad para el desarrollo de un E- government en el Perú. La “Propuesta de Negocio” presentada se soporta en la construcción de un modelo de BIG DATA confiable y sostenible en el tiempo acorde a la normatividad vigente para manejo de datos personales y que pueda ser parte la misma de los procesos que permitan mejorar la planificación de servicios que ofrece el Estado Peruano a los ciudadanos. El principal objetivo es actualizar los datos personales de las personas naturales en un lapso máximo de 48 horas en todas aquellas instituciones que se encuentren afiliadas al modelo de negocio propuesto, para lograr este objetivo se proponen procesos de validación de los datos recabados, adicionalmente como se propone la transmisión de dicha información de forma estructurada y enriquecida en tiempo real a fin de que esta pueda ser utilizada en un modelo dinámico de información interconectada a lo largo del territorio nacional. Finalmente se podrá generar beneficios adicionales que podrán ser complemento y soporte de algunas de las políticas del Estado Peruano para los próximos años como lo es la planificación de los servicios para la sociedad mediante la identificación real del número de ciudadanos en cada ámbito geográfico, así como la reducción de los costos de las organizaciones y de los ciudadanos para actualizar los datos de contactabilidad, generando de esta manera la transformación de la sociedad actual en una en una nueva “Sociedad Digital” .
330

Participación de las empresas peruanas en el mercado electrónico minero : propuesta de un modelo de factores que afectan la participación y estrategias para su desarrollo

Calixto Mejía, Omar Rodolfo January 2007 (has links)
El presente estudio trata sobre la participación de las empresas peruanas en el Mercado Electrónico Minero (a partir de ahora MEM), identificando las razones que estimulan y amenazan su participación, basado en estudios realizados sobre los mercados electrónicos, el Intercambio Electrónico de Datos (EDI) y el análisis del sector minero peruano. La investigación valida el modelo de participación de empresas en los mercados electrónicos propuesto por Joost Buijsen (2003) en el contexto peruano, a través del análisis de encuestas realizadas a empresas compradoras y empresas proveedoras de bienes y servicios e involucradas en el sector minero peruano. Este modelo señala cuatro factores principales que influyen en la participación de las empresas: los beneficios percibidos (debido a la positiva percepción que las organizaciones tienen de la tecnología de información), las amenazas percibidas (debido a la negativa percepción que las organizaciones tienen de la tecnología de información), la preparación organizacional (debido al nivel de capacidad de la tecnología de información y disponibilidad de recursos en la organización), y presión externa (debido a la débil posición de la organización en el mercado). Posteriormente se formula estrategias para fomentar la participación de las empresas peruanas en el MEM y finalmente se presenta las conclusiones y recomendaciones del presente estudio. / This study deals with on the participation the enterprise peruvians, in the Mining Electronic Market (from now on MEM) identifying the reasons that stimulate and threaten their participation, based on studies made on the electronic marketplaces, the Electronic Interchange of data (EDI), and the analysis of the peruvian mining sector. The first part of the investigation is valued the model of participation of companies in the electronic markets proposed by Joost Buijsen (2003) in the peruvian context, through analysis of surveys made to buying companies and companies suppliers of goods and services and involved in the mining sector. This model indicates four factors main that they influence in the participation of the companies: benefits perceived (due to the positive perception which the organizations have of the information technology), the perceived threats (due to the negative perception that the organizations have of the information technology), the organizational preparation (due to the low levels of sophistication of the technology of information and the availability of resources of the organization), and external pressure (due to the weak position of the organization in the market). After prepare strategies to foment the participation of the peruvian companies in the MEM and finally one appears the conclusions and recommendations of the present study.

Page generated in 0.0481 seconds