Spelling suggestions: "subject:"patrones dde software"" "subject:"patrones dee software""
1 |
Propuesta de patrón de diseño de software orientado a prevenir la extracción automatizada de contenido webCastañeda Rojas, Edson Bryan 26 November 2016 (has links)
Web scraping o extracción de datos Web es el proceso de recolección de
información de uno o más sitios Web de manera automatizada, emulando la
interacción entre un usuario y un servidor, dicho proceso se basa en el análisis
de estructuras HTML y no requiere la autorización de los propietarios.
El uso de estructuras repetitivas o plantillas, facilita el funcionamiento de un
programa informático que extrae contenido Web, dicha intrusión genera un
incremento considerable en el uso de recursos, considerando la permanente
ejecución de instrucciones para obtener tanto contenido como sea posible.
Con la finalidad de reducir la vulnerabilidad de los sitios Web frente a procesos
de extracción de contenido masivo, en el presente trabajo se planteó un patrón
de diseño de software tomando como referencia el patrón Template View de
Martin Fowler, al cual se agregó una capa de aleatorización que permita
generar estructuras HTML no predecibles.
Mediante la aplicación de una herramienta de extracción de contenido a un sitio
Web de prueba, cuya capa de presentación se desarrolló tomando en cuenta el
patrón de diseño propuesto, se logró verificar una reducción considerable de la
cantidad de datos extraídos. / Tesis
|
2 |
Revisión sistemática sobre generadores de código fuente y patrones de arquitecturaHuari Casas, María Rosario 18 June 2020 (has links)
Los proyectos de desarrollo de software, están sujetos a situaciones que, pueden ocasionar demora en la entrega del producto o generar aplicaciones de mala calidad, debido a deficiencias en la organización estructural del código y a la falta de integración de los componentes de software.
Para reducir el riesgo de demoras en la parte de la codificación de los programas, se puede hacer uso de herramientas informáticas que mejoren la productividad, entre estas herramientas se puede encontrar a los Generadores de Código Fuente (GCF), aplicaciones que generan código automáticamente, los cuales se utilizan en situaciones donde la lógica para armar un sistema es repetitiva; es decir las interfaces para el ingreso de datos, la conexión a las bases de datos, los reportes o salida de datos cumplen la misma lógica teniendo como única variante la estructura de datos.
Así mismo, para mejorar la calidad de los productos, antes de empezar a codificar los programas, es muy importante planificar y diseñar el patrón de arquitectura del aplicativo; tener un esquema de organización para agrupar, acoplar y encapsular los programas.
Mediante la revisión sistemática de la literatura se logra identificar patrones de arquitectura utilizados en la generación de código fuente de aplicaciones web; así como los principales frameworks y herramientas.
Las etapas de la revisión sistemática realizadas son: planeamiento, ejecución, reporte y divulgación. Así mismo, en las preguntas de investigación, se aplicaron los criterios del método PICOC, se realizaron estrategias de búsqueda y selección de fuentes haciendo uso de las principales bases de datos científicas o académicas. Los resultados de la revisión sistemática de la literatura, estuvieron orientadas a analizar los GCF, para comprender su importancia en el desarrollo de sistemas informáticos, así como analizar su relación con los patrones de arquitectura de software. Finalmente, en base a la información obtenida, se llega a la conclusión de que los patrones de arquitectura tienen un papel importante en la generación de código fuente, ya que estandariza y organiza la aplicación en bloques o capas, de esta manera los desarrolladores tienen la opción de elegir herramientas estructuradas, reutilizables y eficientes. / Tesis
|
3 |
Propuesta de patrón de diseño de software orientado a prevenir la extracción automatizada de contenido webCastañeda Rojas, Edson Bryan 26 November 2016 (has links)
Web scraping o extracción de datos Web es el proceso de recolección de
información de uno o más sitios Web de manera automatizada, emulando la
interacción entre un usuario y un servidor, dicho proceso se basa en el análisis
de estructuras HTML y no requiere la autorización de los propietarios.
El uso de estructuras repetitivas o plantillas, facilita el funcionamiento de un
programa informático que extrae contenido Web, dicha intrusión genera un
incremento considerable en el uso de recursos, considerando la permanente
ejecución de instrucciones para obtener tanto contenido como sea posible.
Con la finalidad de reducir la vulnerabilidad de los sitios Web frente a procesos
de extracción de contenido masivo, en el presente trabajo se planteó un patrón
de diseño de software tomando como referencia el patrón Template View de
Martin Fowler, al cual se agregó una capa de aleatorización que permita
generar estructuras HTML no predecibles.
Mediante la aplicación de una herramienta de extracción de contenido a un sitio
Web de prueba, cuya capa de presentación se desarrolló tomando en cuenta el
patrón de diseño propuesto, se logró verificar una reducción considerable de la
cantidad de datos extraídos. / Tesis
|
Page generated in 0.0733 seconds