• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 28
  • 11
  • Tagged with
  • 39
  • 39
  • 16
  • 14
  • 12
  • 9
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 8
  • 7
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
31

Un Modelo Abierto de Proximidad para el Descubrimiento de Servicios en Computación Pervasiva

Ramiro Cid, Víctor Alejandro January 2009 (has links)
No description available.
32

Construcción de un editor de mapas para el juego "1814: la rebelión del Cuzco"

Landa Torrejón, Luis Ignacio 17 July 2017 (has links)
En el 2014, el grupo de investigación AVATAR lanzó su juego de estrategia en tiempo real “1814: La rebelión del Cuzco”, y ahora desean expandir el contenido del juego con nuevos mapas y niveles. Sin embargo, crear contenido de este tipo requiere iniciar un ciclo de desarrollo extenso y costoso, el cual produce una cantidad limitada de mapas. Frente a esta necesidad, se propone un editor de mapas para el juego. Una herramienta que permite crear una cantidad ilimitada de mapas y, a diferencia de un algoritmo de generación de niveles, aprovecha la creatividad de los jugadores para generar nuevo contenido e interés en el juego. El editor se construyó siguiendo la estructura de un compilador que recibe como entrada un lenguaje visual. Se elaboró primero una interfaz gráfica donde se edita el mapa de forma intuitiva, el cual luego es procesado por el compilador y traducido a una estructura de datos interpretable por el motor de juego. Por último, se realizó una prueba con usuarios para validar la usabilidad del editor y el correcto funcionamiento de los mapas editados. Al finalizar el proyecto de fin de carrera se logró construir satisfactoriamente un editor de mapas para “1814: La rebelión del Cuzco”, capaz de ser utilizado, tanto por jugadores expertos como casuales, para crear fácilmente nuevos mapas y luego integrarlos al juego.
33

Análisis del posicionamiento sectorial de compañías en temas de dirección de proyectos usando la plataforma Linkedin y técnicas de procesado de lenguaje natural

Rivas Huapalla, Juan José Antonio 18 September 2019 (has links)
En un mundo íntegramente inmerso en la era digital, las personas han adoptado una nueva forma de adquirir conocimientos, datos y referencias sobre sus gustos e intereses. Sin embargo, esta nueva era ha generado una gran cantidad de información que, muchas veces, es completamente abrumadora para el ser humano. En lo que respecta al área laboral, esto no cambia en absoluto. La gran mayoría de empresas, en la actualidad, cuentan con una página web y, si son empresas multinacionales, tendrán una en cada país donde operan. Asimismo, las redes sociales se han convertido en un medio altamente eficaz para comunicarse, no solamente con los consumidores finales sino, además, con futuros colaboradores en busca de nuevas oportunidades. La red laboral LinkedIn es un claro ejemplo de este fenómeno. En esta red se puede encontrar a empresas de todo el mundo, de distintos sectores y tamaños, ofreciendo puestos de trabajo y, no menos importante, información sobre lo que se encuentran realizando en su sector, noticias sobre sus nuevas implementaciones y publicaciones de sus colaboradores. La presente tesis nace de la necesidad de identificar cómo se presentan las empresas hacia las personas y el entorno con intereses afines en esta red laboral. Al ser esta red sumamente amplia, se acotó la data a empresas de ingeniería presentes en el mercado español, tomando como referencia el listado de empresas por la Clasificación Nacional de Actividades Económicas (CNAE), específicamente las empresas que brindan servicios técnicos de ingeniería y otras actividades relacionadas con el asesoramiento técnico. Se ha hecho uso de distintas técnicas de minería de datos y lenguaje de programación natural mediante el lenguaje de programación R, tomando en cuenta las noticias del último año (10 de agosto de 2018) de 168 empresas con actividad regular en LinkedIn y con perfiles en idioma español o inglés. De esta forma, se podrán encontrar relaciones reales entre las acciones que promueven dentro de esta red, así como los clústeres que pueden existir en las empresas de ingeniería con respecto a su promoción en la era digital. Para realizar este análisis, se ha dividido la data recogida de las empresas estudiadas en tres (3) periodos temporales denominados: “2018 S2”, “2018 S1” y “2017 S2”, esto se entiende como los semestres de los años mencionados. Asimismo, se agruparon en cinco (5) grandes sectores: Telecomunicaciones, Industria Energética, Industria Automotriz y Aeroespacial, Industria Civil e Infraestructuras y Gestión y Control de la Calidad. La finalidad de estas segmentaciones es interpretar el comportamiento de las empresas en general por periodos temporales y contrastarla con un análisis sectorial. Finalmente, se expondrán las interpretaciones y conclusiones de los resultados obtenidos al sintetizar los datos obtenidos. De esta manera, se podrá saber qué es lo que realmente están transmitiendo las empresas a través de esta red laboral.
34

Patrones de circulación oceánica en el litoral español

Liste Muñoz, María 30 July 2009 (has links)
En esta Tesis, se ha desarrollado el Modelo MEDiNA, que simula la circulación oceánica tridimensional del Atlántico Norte y del Mar Mediterráneo y da como resultado series temporales de salinidad, temperatura y componente u, v y w de la velocidad. Mediante la ejecución de dicho modelo, se han generado 46 años de datos que se han validado mediante la comparación de los mismos con una base de datos de climatologías (GDP), además de mediante el cálculo del transporte en los principales canales y estrechos de la cuenca occidental mediterránea y del Golfo de México. Una vez que se han validado los resultados se ha demostrado además, la capacidad que tiene el modelo MEDiNA para simular la formación y la propagación de la masa de agua MOW (Mediterranean Overflow Water) y se ha conseguido demostrar que los modelos-z, como el modelo MEDiNA, son capaces de simular adecuadamente las corrientes de densidad, como por ejemplo la MOW (Dietrich et al., 2008). Por último se han aplicado dos herramientas estadísticas para el análisis de los resultados; la primera de ellas es la técnica estadística estándar, análisis de Componentes Principales, también denominada análisis de Funciones Ortogonales Empíricas (Empirical Orthogonal Function, EOF), y la segunda son las Redes Neuronales Auto-Organizativas (Self Organizing Maps, SOM). Se ha demostrado que tanto los EOF como las SOM, además de ser potentes herramientas estadísticas, son adecuadas para estudiar en este caso, las series temporales de variables oceanográficas obtenidas a partir del modelo MEDiNA, con el fin de obtener patrones de circulación, así como la relación de éstos con los patrones atmosféricos. / In this thesis, it has developed the MEDiNA model, which simulates three-dimensional ocean circulation in the North Atlantic and the Mediterranean Sea and results time series of salinity, temperature and component u, v and w of the velocity. By implementing this model it has generated 46 years of data that it has been validated by comparing with a climatology database (GDP), and by calculating the main transport in the narrow channels Western Mediterranean basin and the Gulf of Mexico. Once it has validated the results also demonstrated the ability of the Medina model to simulate the formation and spread of the water body MOW (Mediterranean Overflow Water) and has succeeded in demonstrating that the z-models, as MEDINA model, are able to adequately simulate density currents, such as the MOW (Dietrich et al., 2008). Finally, it has applied two statistical tools for analyzing the results, the first of these is the standard statistical technique, principal component analysis, also called Empirical Orthogonal Function analysis (Empirical Orthogonal Function, EOF) and the second is Self-Organizing Neural Networks (Self Organizing Maps, SOM). Its have been shown that both, SOM and EOF, as well as being powerful statistical tools are adequate to study in this case, the time series of oceanographic variables of the model obtained from Medina, to obtain ocean patterns and their relationship to atmospheric patterns.
35

Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos)

Cabello Espinosa, María Eugenia 15 December 2008 (has links)
Esta tesis presenta la aproximación denominada Baseline Oriented Modeling (BOM). BOM es un framework que genera automáticamente Sistemas Expertos (SE) basado en Líneas de Producto Software (LPS). En BOM, se generan aplicaciones en un dominio específico, basadas en la estructura y comportamiento de los SE, como modelos arquitectónicos PRISMA, utilizando técnicas de LPS. Este proceso implica, por un lado construir una Baseline (como repositorio que contiene todos los assets necesarios para construir un producto de la LPS), y por otro lado realizar el plan de producción de la LPS. BOM gestiona la especificación de la variabilidad y la funcionalidad en modelos separados, representados a través de modelos conceptuales. La variabilidad se maneja en dos pasos: i) en el primer paso la variabilidad del dominio se refleja en las arquitecturas base de la LPS, que comparten una arquitectura genérica, y ii) en el segundo paso la variabilidad del dominio de aplicación específico se instancia para obtener la arquitectura específica PRISMA como el producto final de la LPS. BOM sigue la iniciativa del Object Management Group (OMG) de Model-Driven Architecture (MDA) para construir modelos de dominio (como Modelos Independientes de Computación), que son transformados en modelos arquitectónicos PRISMA (como Modelos Independientes de Plataforma) y compilados a una aplicación ejecutable en .NET (como Modelos Específicos de Plataforma). Lenguajes Específicos de Dominio han sido utilizados para que la interfaz del usuario sea amigable, clara y sencilla. / Cabello Espinosa, ME. (2008). Baseline-oriented modeling: una aproximación MDA basada en líneas de productos software para el desarrollo de aplicaciones: (dominio de los sistemas expertos) [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3793 / Palancia
36

A formal framework for model management

Boronat Moll, Arturo 07 May 2008 (has links)
El Desarrollo de Software Dirigido por Modelos es una rama de la Ingeniería del Software en la que los artefactos software se representan como modelos para incrementar la productividad, calidady eficiencia económica en el proceso de desarrollo de software, donde un modelo proporciona una representación abstracta del código final de una aplicación. En este campo, la iniciativa Model-Driven Architecture (MDA), patrocinada por la OMG, está constituida por una familia de estándares industriales, entre los que se destacan: Meta-Object Facility (MOF), Unified Modeling Language (UML), Object Constraint Language (OCL), XML Metadata Interchange (XMI), y Query/Views/Transformations (QVT). Estos estándares proporcionan unas directrices comunes para herramientas basadas en modelos y para procesos de desarrollo de software dirigidos por modelos. Su objetivo consiste en mejorar la interoperabilidad entre marcos de trabajo ejecutables, en automatizar el proceso desarrollo de software de software y en proporcionar técnicas que eviten errores durante ese proceso. El estándar MOF describe un marco de trabajo genérico que permite definir la sintaxis abstracta de lenguajes de modelado. Este estándar persigue la definición de los conceptos básicos que son utilizados en procesos de desarrollo de software dirigidos por modelos: que es un modelo, que es un metamodelo, qué es reflexión en un marco de trabajo basado en MOF, etc. Sin embargo, la mayoría de estos conceptos carecen de una semántica formal en la versión actual del estándar MOF. Además, OCL se utiliza como un lenguage de definición de restricciones que permite añadir semántica a un metamodelo MOF. Desafortunadamente, la relación entre un metamodelo y sus restricciones OCL también carece de una semántica formal. Este hecho es debido, en parte, a que los metamodelos solo pueden ser definidos como dato en un marco de trabajo basado en MOF. El estándar MOF también proporciona las llamadas facilidades de reflexión de MOF (MOF Reflecti / Boronat Moll, A. (2007). A formal framework for model management [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1964 / Palancia
37

Rule-Based Software Verification and Correction

Ballis, Demis 07 May 2008 (has links)
The increasing complexity of software systems has led to the development of sophisticated formal Methodologies for verifying and correcting data and programs. In general, establishing whether a program behaves correctly w.r.t. the original programmer s intention or checking the consistency and the correctness of a large set of data are not trivial tasks as witnessed by many case studies which occur in the literature. In this dissertation, we face two challenging problems of verification and correction. Specifically, verification and correction of declarative programs, and the verification and correction of Web sites (i.e. large collections of semistructured data). Firstly, we propose a general correction scheme for automatically correcting declarative, rule-based programs which exploits a combination of bottom-up as well as topdown inductive learning techniques. Our hybrid hodology is able to infer program corrections that are hard, or even impossible, to obtain with a simpler,automatic top-down or bottom-up learner. Moreover, the scheme will be also particularized to some well-known declarative programming paradigm: that is, the functional logic and the functional programming paradigm. Secondly, we formalize a framework for the automated verification of Web sites which can be used to specify integrity conditions for a given Web site, and then automatically check whether these conditions are fulfilled. We provide a rule-based, formal specification language which allows us to define syntactic as well as semantic properties of the Web site. Then, we formalize a verification technique which detects both incorrect/forbidden patterns as well as lack of information, that is, incomplete/missing Web pages. Useful information is gathered during the verification process which can be used to repair the Web site. So, after a verification phase, one can also infer semi-automatically some possible corrections in order to fix theWeb site. The methodology is based on a novel rewrit / Ballis, D. (2005). Rule-Based Software Verification and Correction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1948 / Palancia
38

Towards Data Wrangling Automation through Dynamically-Selected Background Knowledge

Contreras Ochando, Lidia 04 February 2021 (has links)
[ES] El proceso de ciencia de datos es esencial para extraer valor de los datos. Sin embargo, la parte más tediosa del proceso, la preparación de los datos, implica una serie de formateos, limpieza e identificación de problemas que principalmente son tareas manuales. La preparación de datos todavía se resiste a la automatización en parte porque el problema depende en gran medida de la información del dominio, que se convierte en un cuello de botella para los sistemas de última generación a medida que aumenta la diversidad de dominios, formatos y estructuras de los datos. En esta tesis nos enfocamos en generar algoritmos que aprovechen el conocimiento del dominio para la automatización de partes del proceso de preparación de datos. Mostramos la forma en que las técnicas generales de inducción de programas, en lugar de los lenguajes específicos del dominio, se pueden aplicar de manera flexible a problemas donde el conocimiento es importante, mediante el uso dinámico de conocimiento específico del dominio. De manera más general, sostenemos que una combinación de enfoques de aprendizaje dinámicos y basados en conocimiento puede conducir a buenas soluciones. Proponemos varias estrategias para seleccionar o construir automáticamente el conocimiento previo apropiado en varios escenarios de preparación de datos. La idea principal se basa en elegir las mejores primitivas especializadas de acuerdo con el contexto del problema particular a resolver. Abordamos dos escenarios. En el primero, manejamos datos personales (nombres, fechas, teléfonos, etc.) que se presentan en formatos de cadena de texto muy diferentes y deben ser transformados a un formato unificado. El problema es cómo construir una transformación compositiva a partir de un gran conjunto de primitivas en el dominio (por ejemplo, manejar meses, años, días de la semana, etc.). Desarrollamos un sistema (BK-ADAPT) que guía la búsqueda a través del conocimiento previo extrayendo varias meta-características de los ejemplos que caracterizan el dominio de la columna. En el segundo escenario, nos enfrentamos a la transformación de matrices de datos en lenguajes de programación genéricos como R, utilizando como ejemplos una matriz de entrada y algunas celdas de la matriz de salida. También desarrollamos un sistema guiado por una búsqueda basada en árboles (AUTOMAT[R]IX) que usa varias restricciones, probabilidades previas para las primitivas y sugerencias textuales, para aprender eficientemente las transformaciones. Con estos sistemas, mostramos que la combinación de programación inductiva, con la selección dinámica de las primitivas apropiadas a partir del conocimiento previo, es capaz de mejorar los resultados de otras herramientas actuales específicas para la preparación de datos. / [CA] El procés de ciència de dades és essencial per extraure valor de les dades. No obstant això, la part més tediosa del procés, la preparació de les dades, implica una sèrie de transformacions, neteja i identificació de problemes que principalment són tasques manuals. La preparació de dades encara es resisteix a l'automatització en part perquè el problema depén en gran manera de la informació del domini, que es converteix en un coll de botella per als sistemes d'última generació a mesura que augmenta la diversitat de dominis, formats i estructures de les dades. En aquesta tesi ens enfoquem a generar algorismes que aprofiten el coneixement del domini per a l'automatització de parts del procés de preparació de dades. Mostrem la forma en què les tècniques generals d'inducció de programes, en lloc dels llenguatges específics del domini, es poden aplicar de manera flexible a problemes on el coneixement és important, mitjançant l'ús dinàmic de coneixement específic del domini. De manera més general, sostenim que una combinació d'enfocaments d'aprenentatge dinàmics i basats en coneixement pot conduir a les bones solucions. Proposem diverses estratègies per seleccionar o construir automàticament el coneixement previ apropiat en diversos escenaris de preparació de dades. La idea principal es basa a triar les millors primitives especialitzades d'acord amb el context del problema particular a resoldre. Abordem dos escenaris. En el primer, manegem dades personals (noms, dates, telèfons, etc.) que es presenten en formats de cadena de text molt diferents i han de ser transformats a un format unificat. El problema és com construir una transformació compositiva a partir d'un gran conjunt de primitives en el domini (per exemple, manejar mesos, anys, dies de la setmana, etc.). Desenvolupem un sistema (BK-ADAPT) que guia la cerca a través del coneixement previ extraient diverses meta-característiques dels exemples que caracteritzen el domini de la columna. En el segon escenari, ens enfrontem a la transformació de matrius de dades en llenguatges de programació genèrics com a R, utilitzant com a exemples una matriu d'entrada i algunes dades de la matriu d'eixida. També desenvolupem un sistema guiat per una cerca basada en arbres (AUTOMAT[R]IX) que usa diverses restriccions, probabilitats prèvies per a les primitives i suggeriments textuals, per aprendre eficientment les transformacions. Amb aquests sistemes, mostrem que la combinació de programació inductiva amb la selecció dinàmica de les primitives apropiades a partir del coneixement previ, és capaç de millorar els resultats d'altres enfocaments de preparació de dades d'última generació i més específics. / [EN] Data science is essential for the extraction of value from data. However, the most tedious part of the process, data wrangling, implies a range of mostly manual formatting, identification and cleansing manipulations. Data wrangling still resists automation partly because the problem strongly depends on domain information, which becomes a bottleneck for state-of-the-art systems as the diversity of domains, formats and structures of the data increases. In this thesis we focus on generating algorithms that take advantage of the domain knowledge for the automation of parts of the data wrangling process. We illustrate the way in which general program induction techniques, instead of domain-specific languages, can be applied flexibly to problems where knowledge is important, through the dynamic use of domain-specific knowledge. More generally, we argue that a combination of knowledge-based and dynamic learning approaches leads to successful solutions. We propose several strategies to automatically select or construct the appropriate background knowledge for several data wrangling scenarios. The key idea is based on choosing the best specialised background primitives according to the context of the particular problem to solve. We address two scenarios. In the first one, we handle personal data (names, dates, telephone numbers, etc.) that are presented in very different string formats and have to be transformed into a unified format. The problem is how to build a compositional transformation from a large set of primitives in the domain (e.g., handling months, years, days of the week, etc.). We develop a system (BK-ADAPT) that guides the search through the background knowledge by extracting several meta-features from the examples characterising the column domain. In the second scenario, we face the transformation of data matrices in generic programming languages such as R, using an input matrix and some cells of the output matrix as examples. We also develop a system guided by a tree-based search (AUTOMAT[R]IX) that uses several constraints, prior primitive probabilities and textual hints to efficiently learn the transformations. With these systems, we show that the combination of inductive programming with the dynamic selection of the appropriate primitives from the background knowledge is able to improve the results of other state-of-the-art and more specific data wrangling approaches. / This research was supported by the Spanish MECD Grant FPU15/03219;and partially by the Spanish MINECO TIN2015-69175-C4-1-R (Lobass) and RTI2018-094403-B-C32-AR (FreeTech) in Spain; and by the ERC Advanced Grant Synthesising Inductive Data Models (Synth) in Belgium. / Contreras Ochando, L. (2020). Towards Data Wrangling Automation through Dynamically-Selected Background Knowledge [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/160724 / TESIS
39

Development of high-performance algorithms for a new generation of versatile molecular descriptors. The Pentacle software

Durán Alcaide, Ángel 04 March 2010 (has links)
The work of this thesis was focused on the development of high-performance algorithms for a new generation of molecular descriptors, with many advantages with respect to its predecessors, suitable for diverse applications in the field of drug design, as well as its implementation in commercial grade scientific software (Pentacle). As a first step, we developed a new algorithm (AMANDA) for discretizing molecular interaction fields which allows extracting from them the most interesting regions in an efficient way. This algorithm was incorporated into a new generation of alignmentindependent molecular descriptors, named GRIND-2. The computing speed and efficiency of the new algorithm allow the application of these descriptors in virtual screening. In addition, we developed a new alignment-independent encoding algorithm (CLACC) producing quantitative structure-activity relationship models which have better predictive ability and are easier to interpret than those obtained with other methods. / El trabajo que se presenta en esta tesis se ha centrado en el desarrollo de algoritmos de altas prestaciones para la obtención de una nueva generación de descriptores moleculares, con numerosas ventajas con respecto a sus predecesores, adecuados para diversas aplicaciones en el área del diseño de fármacos, y en su implementación en un programa científico de calidad comercial (Pentacle). Inicialmente se desarrolló un nuevo algoritmo de discretización de campos de interacción molecular (AMANDA) que permite extraer eficientemente las regiones de máximo interés. Este algoritmo fue incorporado en una nueva generación de descriptores moleculares independientes del alineamiento, denominados GRIND-2. La rapidez y eficiencia del nuevo algoritmo permitieron aplicar estos descriptores en cribados virtuales. Por último, se puso a punto un nuevo algoritmo de codificación independiente de alineamiento (CLACC) que permite obtener modelos cuantitativos de relación estructura-actividad con mejor capacidad predictiva y mucho más fáciles de interpretar que los obtenidos con otros métodos.

Page generated in 0.1184 seconds