• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 3
  • Tagged with
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Propuesta de patrón de diseño de software orientado a prevenir la extracción automatizada de contenido web

Castañeda Rojas, Edson Bryan 26 November 2016 (has links)
Web scraping o extracción de datos Web es el proceso de recolección de información de uno o más sitios Web de manera automatizada, emulando la interacción entre un usuario y un servidor, dicho proceso se basa en el análisis de estructuras HTML y no requiere la autorización de los propietarios. El uso de estructuras repetitivas o plantillas, facilita el funcionamiento de un programa informático que extrae contenido Web, dicha intrusión genera un incremento considerable en el uso de recursos, considerando la permanente ejecución de instrucciones para obtener tanto contenido como sea posible. Con la finalidad de reducir la vulnerabilidad de los sitios Web frente a procesos de extracción de contenido masivo, en el presente trabajo se planteó un patrón de diseño de software tomando como referencia el patrón Template View de Martin Fowler, al cual se agregó una capa de aleatorización que permita generar estructuras HTML no predecibles. Mediante la aplicación de una herramienta de extracción de contenido a un sitio Web de prueba, cuya capa de presentación se desarrolló tomando en cuenta el patrón de diseño propuesto, se logró verificar una reducción considerable de la cantidad de datos extraídos. / Tesis
2

Revisión sistemática sobre generadores de código fuente y patrones de arquitectura

Huari Casas, María Rosario 18 June 2020 (has links)
Los proyectos de desarrollo de software, están sujetos a situaciones que, pueden ocasionar demora en la entrega del producto o generar aplicaciones de mala calidad, debido a deficiencias en la organización estructural del código y a la falta de integración de los componentes de software. Para reducir el riesgo de demoras en la parte de la codificación de los programas, se puede hacer uso de herramientas informáticas que mejoren la productividad, entre estas herramientas se puede encontrar a los Generadores de Código Fuente (GCF), aplicaciones que generan código automáticamente, los cuales se utilizan en situaciones donde la lógica para armar un sistema es repetitiva; es decir las interfaces para el ingreso de datos, la conexión a las bases de datos, los reportes o salida de datos cumplen la misma lógica teniendo como única variante la estructura de datos. Así mismo, para mejorar la calidad de los productos, antes de empezar a codificar los programas, es muy importante planificar y diseñar el patrón de arquitectura del aplicativo; tener un esquema de organización para agrupar, acoplar y encapsular los programas. Mediante la revisión sistemática de la literatura se logra identificar patrones de arquitectura utilizados en la generación de código fuente de aplicaciones web; así como los principales frameworks y herramientas. Las etapas de la revisión sistemática realizadas son: planeamiento, ejecución, reporte y divulgación. Así mismo, en las preguntas de investigación, se aplicaron los criterios del método PICOC, se realizaron estrategias de búsqueda y selección de fuentes haciendo uso de las principales bases de datos científicas o académicas. Los resultados de la revisión sistemática de la literatura, estuvieron orientadas a analizar los GCF, para comprender su importancia en el desarrollo de sistemas informáticos, así como analizar su relación con los patrones de arquitectura de software. Finalmente, en base a la información obtenida, se llega a la conclusión de que los patrones de arquitectura tienen un papel importante en la generación de código fuente, ya que estandariza y organiza la aplicación en bloques o capas, de esta manera los desarrolladores tienen la opción de elegir herramientas estructuradas, reutilizables y eficientes. / Tesis
3

Propuesta de patrón de diseño de software orientado a prevenir la extracción automatizada de contenido web

Castañeda Rojas, Edson Bryan 26 November 2016 (has links)
Web scraping o extracción de datos Web es el proceso de recolección de información de uno o más sitios Web de manera automatizada, emulando la interacción entre un usuario y un servidor, dicho proceso se basa en el análisis de estructuras HTML y no requiere la autorización de los propietarios. El uso de estructuras repetitivas o plantillas, facilita el funcionamiento de un programa informático que extrae contenido Web, dicha intrusión genera un incremento considerable en el uso de recursos, considerando la permanente ejecución de instrucciones para obtener tanto contenido como sea posible. Con la finalidad de reducir la vulnerabilidad de los sitios Web frente a procesos de extracción de contenido masivo, en el presente trabajo se planteó un patrón de diseño de software tomando como referencia el patrón Template View de Martin Fowler, al cual se agregó una capa de aleatorización que permita generar estructuras HTML no predecibles. Mediante la aplicación de una herramienta de extracción de contenido a un sitio Web de prueba, cuya capa de presentación se desarrolló tomando en cuenta el patrón de diseño propuesto, se logró verificar una reducción considerable de la cantidad de datos extraídos. / Tesis

Page generated in 0.0733 seconds