• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 16
  • 2
  • 1
  • 1
  • Tagged with
  • 20
  • 7
  • 6
  • 4
  • 3
  • 3
  • 3
  • 3
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • 2
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
11

Modelo predictivo de deserción universitaria de la carrera de Ingeniería Informática en la Universidad Ricardo Palma

Gálvez Chambilla, Melissa Beatriz, Flores Cornejo, Katherine Briggite January 2015 (has links)
La deserción universitaria se ha convertido en un problema importante a ser investigado. La tasa de deserción ha llegado a constituir uno de los principales indicadores de eficiencia interna dentro de cualquier institución de educación. Investigar las causas de la deserción con metodologías adecuadas que permitan predecir esta, contribuye a la toma de decisiones dentro de la gestión de la unidad académica. El objetivo del presente proyecto consiste en investigar y proponer una metodología que permita identificar en forma automática a los estudiantes con mayor riesgo de deserción de las carreras de Ingeniería Informática en la Universidad Ricardo Palma. Para la implementación de este proyecto se adoptó la metodología CRISP-DM que estructura el proceso de minería de datos en seis fases, que interactúan entre ellas de forma iterativa. Se evaluaron los modelos de Árboles de decisión y Clustering para analizar el comportamiento de los estudiantes, evaluando factores como el rendimiento del alumno, condición social y aspectos socioeconómicos. La exactitud de los modelos es calculada a partir de la información que brindó la Oficina Central de Informática y Cómputo de la Universidad Ricardo Palma, en la cual se realizó una transformación y simulación de algunas variables para mayor efectividad del modelo. The college desertion has become an important problem to be investigated. The desertion rate has come to be one of the main indicators of internal efficiency in any educational institution. The research of the causes of desertion with appropriate methodologies to predict, contributes to decision making in the academic management The objective of this project is to investigate and propose a methodology to automatically identify students at high risk of dropping out of the Computer Engineering career at the Ricardo Palma University. To implement this project, we used the CRISP-DM methodology to structure the data mining process into six phases, which interact with each other iteratively. It was applied the models of decision trees and clustering to analyze the behavior of the students, evaluating factors such as student performance, social status and socio-economic aspects. The accuracy of the models is calculated from the information provided the Central Office of Information and Computation at the Ricardo Palma University, in which it was applied a transformation and simulation of some variables for greater effectiveness and performance of the model.
12

Alunos de anos iniciais construindo árvores de possibilidades: é melhor no papel ou no computador?

AZEVEDO, Juliana 21 February 2013 (has links)
Submitted by Daniella Sodre (daniella.sodre@ufpe.br) on 2015-04-15T17:49:56Z No. of bitstreams: 2 Dissertacao Juliana Azevedo.pdf: 3164860 bytes, checksum: 83aeb32689d461649fc9e81290f384d7 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) / Made available in DSpace on 2015-04-15T17:49:56Z (GMT). No. of bitstreams: 2 Dissertacao Juliana Azevedo.pdf: 3164860 bytes, checksum: 83aeb32689d461649fc9e81290f384d7 (MD5) license_rdf: 1232 bytes, checksum: 66e71c371cc565284e70f40736c94386 (MD5) Previous issue date: 2013-02-21 / REUNI; CAPES / Com o objetivo de analisar a influência da construção de árvores de possibilidades na resolução de problemas combinatórios, com lápis e papel ou com o uso de um software educativo, a presente pesquisa se fundamentou na Teoria dos Campos Conceituais de Vergnaud (1986), que defende a existência de três dimensões fundamentais de conceitos: significados, invariantes e representações simbólicas. A pesquisa também se fundamentou em outros autores, entre eles, Pessoa e Borba (2009), que abordam a Combinatória, Sandoval, Trigueiros e Lozano (2007), que analisam a aplicação do software Diagramas de Árbol com crianças, como também, Borba e Penteado (2010) e Goos (2010), que discutem o uso da tecnologia na sala de aula. Participaram da pesquisa 40 alunos do 5º ano do Ensino Fundamental de duas escolas da rede pública municipal do Recife, divididos em quatro grupos. Os alunos participaram de um pré-teste, de distintas formas de intervenção e de pós-testes (imediato e posterior). O Grupo 1 (G1) construiu árvores de possibilidades fazendo uso do software Diagramas de Árbol; o Grupo 2 (G2) construiu árvores de possibilidades fazendo uso do lápis e papel; o Grupo 3 (3) formou o Grupo Controle Assistido que trabalhou com problemas multiplicativos não combinatórios, por meio de desenhos; e o Grupo 4 (G4) formou o Grupo Controle Desassistido, que participou apenas do pré-teste e dos pós-testes. As intervenções foram realizadas, à luz da teoria de Vergnaud, utilizando situações combinatórias, seus significados, seus invariantes, e uma representação simbólica específica para o ensino e aprendizagem da Combinatória. Com apenas uma sessão de intervenção com árvores de possibilidades, virtual ou escrita, foi possível obter avanços quantitativos e qualitativos significativos, de alunos de anos iniciais dos grupos experimentais. Salienta-se, porém, que, embora não tenha havido diferença estatisticamente significativa entre os desempenhos dos Grupos 1 e 2, o G2 (lápis e papel) demonstrou um maior avanço, apresentando diferenças significativas entre ambos os grupos controle nos dois pós-testes, enquanto o G1 apresentou diferenças apenas com o G4, no pós-teste imediato. Uma possível explicação para o melhor desempenho do G2 pode estar relacionada com a necessidade da transferência da representação virtual para escrita que o G1 possui, ou seja, a aprendizagem com utilização do software e a resolução dos pós-testes em lápis e papel. A pesquisa revelou que os grupos com intervenção em Combinatória demonstraram avanços qualitativos, evidenciando uma maior variedade na utilização de representações simbólicas nos pós-testes, bem como a utilização de estratégias sistemáticas de resolução dos problemas, levando à conclusão que, com as intervenções, se aprendeu a pensar nas situações e não em um método para resolver os problemas. Já estudar problemas multiplicativos não combinatórios ou apenas o passar do tempo, em nada parece facilitar o aprendizado da Combinatória. Verificou-se melhor desempenho nos problemas de produto cartesiano e maior dificuldade nos de permutação, podendo a razão para isso estar relacionada ao número maior de etapas de escolha nos problemas de permutação. Conclui-se que é possível o trabalho com variados tipos de situações combinatórias desde os anos iniciais e por meio de representações simbólicas eficientes, como a árvore de possibilidades. Deseja-se, assim, com essa pesquisa, contribuir para a reflexão sobre melhores possibilidades de ensino da Combinatória nos anos iniciais do Ensino Fundamental.
13

Los paisajes de Agustín Abarca: aportaciones a la pintura chilena

Telias Gutiérrez, Efraín Alejandro 02 April 2009 (has links)
La investigación se aboca al trabajo paisajista del pintor chileno Agustín Abarca, especificando la importancia del género del paisaje en Chile, y la incidencia de Abarca al interior de esta temática, considerada como una caracterlstica nacional. Se justifica la pertinencia de la investigación sobre este pintor, en tanto no existía un estudio metódico hasta la fecha. El lapso de tiempo definido para la investigación se especifica desde 1904 (inicio de la actividad artística del pintor) hasta 1953, año de su fallecimiento. La metodología de trabajo en la investigación obedece a diferentes perspectivas, iniciándose con una labor exploratoria y de indagación, desarrollándose luego un acercamiento histórico- en la medida de lo necesario- para concluir con lecturas interpretativas de orientación simbolista. Las hipótesis que enmarcan el trabajo son: a) la obra de Abarca constituyó un aporte significativo a la pintura paisajista en Chile; y b) la obra de Abarca es testimonio de la implantación en Chile de movimientos pictóricos europeos, pero con la consecuente transformación que las nuevas condiciones contextuales efectuaron, modificando así sus características originales, y llegando a configurar en la obra de Abarca algo distinto. Se analizan las determinantes de la pintura en Chile desde el siglo XIX importadas del referente europeo: el neoclasicismo y el romanticismo, poniendo énfasis en los conceptos románticos que son reconocidos como fundamentales en la impronta del trabajo de Abarca y de su propia postura como artista. El paisajismo es comprendido al interior de esta dinámica, y se detallan las influencias que recibe el artista del medio, tanto en su formación de las corrientes tradicionales de la pintura del paisaje en Chile-, como en su madurez, donde Abarca se diferencia de las corrientes renovadoras de la plástica en el país, con su insistencia en la temática paisajista sin renunciar a un lenguaje pictórico vinculado al romanticismo y al realismo en la rep / Telias Gutiérrez, EA. (2009). Los paisajes de Agustín Abarca: aportaciones a la pintura chilena [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4332
14

Design and Implementation of Efficient Algorithms for Wireless MIMO Communication Systems

Roger Varea, Sandra 16 July 2012 (has links)
En la última década, uno de los avances tecnológicos más importantes que han hecho culminar la nueva generación de banda ancha inalámbrica es la comunicación mediante sistemas de múltiples entradas y múltiples salidas (MIMO). Las tecnologías MIMO han sido adoptadas por muchos estándares inalámbricos tales como LTE, WiMAS y WLAN. Esto se debe principalmente a su capacidad de aumentar la máxima velocidad de transmisión , junto con la fiabilidad alcanzada y la cobertura de las comunicaciones inalámbricas actuales sin la necesidad de ancho de banda extra ni de potencia de transmisión adicional. Sin embargo, las ventajas proporcionadas por los sistemas MIMO se producen a expensas de un aumento sustancial del coste de implementación de múltiples antenas y de la complejidad del receptor, la cual tiene un gran impacto sobre el consumo de energía. Por esta razón, el diseño de receptores de baja complejidad es un tema importante que se abordará a lo largo de esta tesis. En primer lugar, se investiga el uso de técnicas de preprocesado de la matriz de canal MIMO bien para disminuir el coste computacional de decodificadores óptimos o bien para mejorar las prestaciones de detectores subóptimos lineales, SIC o de búsqueda en árbol. Se presenta una descripción detallada de dos técnicas de preprocesado ampliamente utilizadas: el método de Lenstra, Lenstra, Lovasz (LLL) para lattice reduction (LR) y el algorimo VBLAST ZF-DFE. Tanto la complejidad como las prestaciones de ambos métodos se han evaluado y comparado entre sí. Además, se propone una implementación de bajo coste del algoritmo VBLAST ZF-DFE, la cual se incluye en la evaluación. En segundo lugar, se ha desarrollado un detector MIMO basado en búsqueda en árbol de baja complejidad, denominado detector K-Best de amplitud variable (VB K-Best). La idea principal de este método es aprovechar el impacto del número de condición de la matriz de canal sobre la detección de datos con el fin de disminuir la complejidad de los sistemas / Roger Varea, S. (2012). Design and Implementation of Efficient Algorithms for Wireless MIMO Communication Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/16562
15

Sociální úpadek a problém vědy v dílech Doba ticha a Strom poznání / Social decadence and a problem of the science in Tiempo de silencio and El árbol de la ciencia

Vaníčková, Michaela January 2021 (has links)
1 Abstract The main aim of this thesis is to analyse and compare in various aspects two literary works Tiempo de silencio by Luis Martín-Santos and El árbol de la ciencia by Pío Baroja. The work focuses on the social decadence of the society, mainly in the field of science and its insufficiency. In spite of the fifty year, the works of art are linked with similar problems in the area of science. These works of art have many similarities, such as the autobiographical style, the lack of science in the time period and the tragic destiny of the main characters. Baroja, with The Generation 98, considered the topic of science to be very important and due to the underdeveloped state of science in Spain in comparison to the rest of Europe, Spain had to face to the strong criticism. Martín-Santos also shared these views on science and even though he criticised Baroja for his political views, there was still a considerably influence in his first book. Key words: Tiempo de silencio, El árbol de la ciencia, Generation of, 98, science, social decadence
16

Modelo no determinista para la auto-verificación de integridad de componentes de software

Nuñez Musa, Yulier 27 February 2013 (has links)
Las pérdidas monetarias por concepto de piratería de software alcanzan en la actualidad cifras millonarias. Por sólo citar un ejemplo, en el 2011 el valor comercial por este concepto ascendió a 63 billones de dólares, con un incremento de 4.2 billones con respecto al año anterior. En este ámbito, el software comercializado es sometido a ataques y como resultado, usuarios ilegítimos pueden hacer uso del mismo. Una vía para mitigar este problema desde el punto de vista tecnológico, es el empleo de técnicas de protección de software, entre las que se encuentran la ofuscación, el cifrado, las marcas de agua y la auto-verificación de integridad, entre otros. Dichas técnicas no son totalmente efectivas, debido principalmente a que la ejecución del software se realiza en una arquitectura insegura, sobre la que el atacante tiene un control total. La presente tesis se centra en las técnicas de protección dirigidas al control de integridad en ambientes de ejecución inseguros, específicamente la técnica de auto-verificación de integridad, que ofrece resistencia ante ataques dinámicos. Una limitante de esta técnica es que por sí sola no puede garantizar su privacidad, por lo que es necesario combinarla con otras técnicas para lograr dicho fin. Varias propuestas están dirigidas a complementar la auto-verificación de integridad con técnicas de ofuscación estructurales. Sin embargo, esto no es suficiente para ofrecer una alta resistencia ante ataques dinámicos, por lo que además es necesario incorporar una ofuscación funcional. En este contexto, se propone un modelo no determinista para la verificación de integridad de componentes de software. El modelo se basa en una red de auto-verificación, constituida por un componente de detección y un componente de respuesta. Ambos tienen un comportamiento no determinista, por lo que tanto las detecciones como las respuestas se ejecutan con cierta probabilidad. Igualmente, y ante la carencia de estrategias consensuadas para la estimación del grado de protección que ofrecen estos mecanismos, se ha optado por proponer un novedoso modelo de evaluación. En él se combina el concepto de Árbol de Ataque con aspectos de la Teoría de la Información, de forma que la estrategia es escalable y al mismo tiempo tiene en cuenta el no determinismo de la red. Por último, y como tercera contribución significativa del trabajo, se han establecido las directrices para el establecimiento de una Infraestructura de Protección de Software (Software Protection Infrastructure (SPI)). Dada la complejidad y el coste asociado a la incorporación de un mecanismo de protección en el proceso de desarrollo de software, la SPI permite simplificar y abaratar su integración mediante la aplicación automatizada de las mismas durante el proceso de compilación del software. La implementación de una SPI básica, permitió generar un prototipo de prueba del modelo no determinista y realizar un conjunto de evaluaciones experimentales aplicando para ello el modelo de evaluación propuesto. Los resultados indican una mejora de dos órdenes de magnitud en la resistencia y nivel de ofuscación funcional, respecto a un modelo equivalente de comportamiento determinista. Al respecto, se pudo concluir que un comportamiento no determinista es acertado tanto para retardar un ataque exitoso, como para minimizar el nivel de fuga de información. Este resultado es aplicable a la mejora de la resistencia ante ataques dinámicos y se presume que pueda ser extendido a otras técnicas de protección. Por otra parte, la infraestructura propuesta abre un espacio de investigación para la protección masiva de software, minimizando considerablemente el coste asociado a esta actividad y potenciando la especialización en las distintas disciplinas involucradas.
17

Aplicación de Data Science en la pequeña empresa, caso: Pollería Mister Pollo

Baldeón Maraví, Brian, Fukushima Castillo, Hugo Kenji, Ochante Quispe, Milagros Karina, Quevedo Trujillo, Haedly Victoria, Tejada Alarcón, Ernesto Rosendo 14 July 2021 (has links)
El presente trabajo tiene como finalidad aplicar los conocimientos y técnicas impartidas durante los tres cursos de Ciencia de Datos. Específicamente identificar y utilizar las variables encontradas en el negocio para determinar un modelo que permita una mayor permanencia del personal en la empresa Mister Pollo. En ese contexto, la investigación se apoyará en la metodología de ciencia de datos de IBM, la cual inicia con la fase de comprensión del negocio para identificar el problema de la organización, analizando sus fortalezas y debilidades; así como la fase de recopilación y preparación de los datos, análisis, interpretación, modelado y evaluación de la data. Asimismo, el tipo de investigación que se emplea es mixto, pues en la fase inicial tiene un enfoque descriptivo que permite entender la importancia de las variables utilizadas. En la segunda fase, el enfoque se vuelve predictivo gracias a la utilización de una técnica de aprendizaje supervisado, en este caso, el modelo de árbol de decisión para la determinación de una herramienta que permita evaluar la mayor permanencia de trabajadores en el restaurante. Esto permitirá que el Gerente General de la empresa pueda elaborar un plan de acción para poder controlar y minimizar la rotación del personal, considerando diferentes escenarios, perfiles y necesidades de la empresa. Finalmente, en la conclusión de este proyecto se evaluarán los hallazgos en el modelo seleccionado para verificar que responden a los objetivos planteados por el Gerente de la empresa Míster Pollo en coordinación con el equipo de trabajo. / The purpose of this work is to apply the knowledge and techniques taught during the three Data Science courses. Specifically, to identify and use the variables found in the business to determine a model that allows a greater permanence of the personnel in the company Mister Pollo. In this context, the research will be supported by IBM's data science methodology, which begins with the phase of understanding the business to identify the organization's problem, analyzing its strengths and weaknesses; as well as the phase of data collection and preparation, analysis, interpretation, modeling and evaluation of the data. Likewise, the type of research used is mixed, since in the initial phase it has a descriptive approach that allows understanding the importance of the variables used. In the second phase, the approach becomes predictive thanks to the use of a supervised learning technique, in this case, the decision tree model for the determination of a tool to evaluate the greater permanence of workers in the restaurant. This will allow the General Manager of the company to develop an action plan to control and minimize staff turnover, considering different scenarios, profiles and needs of the company. Finally, at the conclusion of this project, the findings of the selected model will be evaluated to verify that they respond to the objectives set by the Manager of the company Míster Pollo in coordination with the work team. / Trabajo de investigación
18

Modelling of the mechanobiological adaptation to vascular occlusion in the arterial tree / Modelado de la adaptación mecanobiológica de la oclusión vascular en el árbol arterial

Rodríguez María, Jaime January 2016 (has links)
It is known that there are many cardiovascular diseases caused by the alterations in the blood vessels, that affect most of the world population. The knowledge of the mechanobiological behavior of blood vessels is used for understanding how cardiovascular diseases could affect the human body. So, by studying the growth and remodeling (G&R) of the arterial tree, it is possible to predict how these diseases will develop and consequently, how they can be treated or even prevented. The human body naturally tries to find the optimum steady-state by changing either the production of the constituents of the arteries or the flow rate through blood vessels. This effect is the phenomenon that is going to be studied in this thesis and these three main factors have to be taken into account when reproducing the diseases’ effects: the so-called transmural pressure, the blood flow rate, and the biomechanics of the constituents which form the arterial wall. Therefore, through numerical simulations the variation of these factors can be predicted, although always with a reliability supported by experimental data. / Se sabe que hay muchas enfermedades cardiovasculares causadas por alteraciones en los vasos sanguíneos que afectan gran parte de la población mundial. El conocimiento del comportamiento mecanobiológico de los vasos sanguíneos se usa para entender cómo estas enfermedades puede afectar al cuerpo humano. Así, estudiando el crecimiento y desarrollo (G&R) del árbol arterial, es posible predecir cómo estas enfermedades se van a desarrollar y consecuentemente, cómo pueden tratarse o incluso prevenirse. El cuerpo humano tiende a buscar un estado de equilibrio óptimo de forma natural cambiando o bien la producción de los constituyentes de las arterias o bien el flujo de sangre que atraviesa los vasos sanguíneos. Este efecto es el fenómeno que va a ser estudiado en esta tesis y se ha de tener en cuenta tres factores principales cuando se quiere reproducir los efectos de dichas enfermedades: la presión transmural, el flujo de sangre y la biomecánica de los constituyentes que forman la pared arterial. Luego, a través de simulaciones numéricas la variación de estos factores puede ser predicha, aunque siempre con una veracidad aportada por datos experimentales. / Vascular occlusion, modelling, arteries, arterial tree, growth and remodelling, Murray, cerebrocardiovascular diseases, adaptation, thrombosis, calcification, anemia, polycythemia, isquemia, edema
19

Árbol de decisión para la selección de un motor de base de datos / Decision tree for the selection of database engine

Bendezú Kiyán , Enrique Renato, Monjaras Flores, Álvaro Gianmarco 30 August 2020 (has links)
Desde los últimos años, la cantidad de usuarios que navega en internet ha crecido exponencialmente. Por consecuencia, la cantidad de información que se maneja crece a manera desproporcionada y, por ende, el manejo de grandes volúmenes de información obtenidos de internet ha ocasionado grandes problemas. Los diferentes tipos de bases de datos tienen un funcionamiento variado, dado que, se ve afectado el rendimiento para ejecutar las transacciones cuando se lidia con diferentes cantidades de información. Entre este tipo de variedades, se analizará las bases de datos relacionales, bases de datos no relaciones y bases de datos en memoria. Para las organizaciones es muy importante contar con un acelerado manejo de información debido a la gran demanda por parte de los clientes y el mercado en general, permitiendo que no se disminuya la agilidad de operación interna cuando se requiera manejar información, y conservar la integridad de esta. Sin embargo, cada categoría de base de datos está diseñada para cubrir diferentes casos de usos específicos para mantener un alto rendimiento con respecto al manejo de los datos. El presente proyecto tiene como objetivo el estudio de diversos escenarios de los principales casos de uso, costos, aspectos de escalabilidad y rendimiento de cada base de datos, mediante la elaboración de un árbol de decisión, en el cual, se determine la mejor opción de categoría de base de datos según el flujo que decida tomar el usuario. Palabras clave: Base de Datos, Base de Datos Relacional, Base de Datos No Relacional, Base de Datos en Memoria, Árbol de Decisión. / In recent years, the number of users browsing the internet has grown exponentially. Consequently, the amount of information handled grows disproportionately and, therefore, the handling of large volumes of information obtained from the Internet has caused major problems. Different types of databases work differently, since the performance of executing transactions suffers when dealing with different amounts of information. Among this type of varieties, relational databases, non-relationship databases and in-memory databases will be analyzed. For organizations it is very important to have an accelerated information management due to the great demand from customers and the market in general, allowing the agility of internal operation to not be diminished when it is required to manage information, and to preserve the integrity of is. However, each category of database is designed to cover different specific use cases to maintain high performance regarding data handling. The purpose of this project is to study various scenarios of the main use cases, costs, scalability and performance aspects of each database, through the development of a decision tree, in which the best option for database category according to the flow that the user decides to take. / Tesis
20

Elementos de Semántica Denotacional de Lenguajes de Programación con Datos Borrosos

Sánchez Álvarez, Daniel 01 October 1999 (has links)
A fin de diseñar e implementar lenguajes de programación que tengan en cuenta el paradigma borroso modificaremos el lambda cálculo clásico, adjuntando a cada término un grado, y redefiniendo la beta-reducción, obteniendo que para que el nuevo cálculo verifique la propiedad de Church-Rosser la transmisión de los grados debe hacerse por medio de una función que sea una t-norma o s-conorma. Utilizando esta nueva herramienta diseñamos un lenguaje no determinista que satisface los requerimientos de la programación con datos borrosos. / With the aim of designing and implementing programming languages that take into account the fuzzy paradigm we will modify the classical lambda calculus by adding a degree to each term and by redefining the b-reduction. Thus, for the new calculus to verify the Church-Rosser property, the degree computed with can be made through a function that is a t-norm or an s-conorm. With this new tool we design a nondeterminist language that satisfies fuzzy dataprogramming requirements, and an example of its behaviour is shown.

Page generated in 0.0451 seconds