• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 222
  • 198
  • 4
  • 2
  • Tagged with
  • 423
  • 363
  • 362
  • 236
  • 117
  • 53
  • 50
  • 45
  • 44
  • 44
  • 41
  • 40
  • 38
  • 38
  • 36
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Reorganization in Dynamic Agent Societies

Alberola Oltra, Juan Miguel 07 February 2013 (has links)
En la nueva era de tecnologías de la información, los sistemas tienden a ser cada vez más dinámicos, compuestos por entidades heterogéneas capaces de entrar y salir del sistema, interaccionar entre ellas, y adaptarse a las necesidades del entorno. Los sistemas multiagente han contribuído en los ultimos años, a modelar, diseñar e implementar sistemas autónomos con capacidad de interacción y comunicación. Estos sistemas se han modelado principalmente, a través de sociedades de agentes, las cuales facilitan la interación, organización y cooperación de agentes heterogéneos para conseguir diferentes objetivos. Para que estos paradigmas puedan ser utilizados para el desarrollo de nuevas generaciones de sistemas, características como dinamicidad y capacidad de reorganización deben estar incorporadas en el modelado, gestión y ejecución de estas sociedades de agentes. Concretamente, la reorganización en sociedades de agentes ofrece un paradigma para diseñar aplicaciones abiertas, dinámicas y adaptativas. Este proceso requiere determinar las consecuencias de cambiar el sistema, no sólo en términos de los beneficios conseguidos sinó además, midiendo los costes de adaptación así como el impacto que estos cambios tienen en todos los componentes del sistema. Las propuestas actuales de reorganización, básicamente abordan este proceso como respuestas de la sociedad cuando ocurre un cambio, o bien como un mecanismo para mejorar la utilidad del sistema. Sin embargo, no se pueden definir procesos complejos de decisión que obtengan la mejor configuración de los componentes organizacionales en cada momento, basándose en una evaluación de los beneficios que se podrían obtener así como de los costes asociados al proceso. Teniendo en cuenta este objetivo, esta tesis explora el área de reorganización en sociedades de agentes y se centra principalmente, en una propuesta novedosa para reorganización. Nuestra propuesta ofrece un soporte de toma de decisiones que considera cambios en múltiples / Alberola Oltra, JM. (2013). Reorganization in Dynamic Agent Societies [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/19243
52

Análisis semántico y transformación de programas lógico-funcionales

Vidal Oriola, Germán Francisco 08 October 2015 (has links)
El problema de la integraci on de la programaci on l ogica y funcional est a considerado como uno de los m as importantes en el area de investigaci on sobre programaci on declarativa. Para que los lenguajes declarativos sean utiles y puedan utilizarse en aplicaciones reales, es necesario que el grado de e ciencia de su ejecuci on se aproxime al de los lenguajes imperativos, tal y como se ha conseguido con el lenguaje Prolog. Para ello, es imprescindible el desarrollo de herramientas potentes para el an alisis y transformaci on de los programas, capaces de optimizar las implementaciones realizadas. En general, es deseable sustituir las aproximaciones ad-hoc por tratamientos m as sistem aticos para los problemas de an alisis y transformaci on de programas. Puesto que la sem antica de los lenguajes l ogico{funcionales ha sido objeto de numerosos estudios y est a matem aticamente bien formalizada, surge el inter es por el desarrollo de m etodos y t ecnicas formales para la formulaci on de optimizaciones, basadas en la sem antica, que preserven las propiedades computacionales del programa. Esta tesis se centra en el desarrollo de tales t ecnicas, adopt andose una aproximaci on formal basada en la sem antica (operacional) del lenguaje para desarrollar y analizar, en un contexto uni cado, las diferentes optimizaciones. En la primera parte, desarrollamos un marco para el an alisis est atico de programas l ogico{funcionales, basado en la idea de construir aproximaciones correctas de la sem antica operacional del programa. Formalizamos un esquema de an alisis simple, uniforme y exible, que permite estudiar distintos tipos de propiedades (relacionadas con el conjunto de respuestas computadas por el programa) de manera correcta y f acilmente implementable. El esquema es independiente de la estrategia de narrowing usada en la formulaci on del mecanismo operacional del lenguaje, lo que contribuye a dar generalidad al mismo. Las t ecnicas de evaluaci on parcial son, de entre la gran variedad de t ecnicas existentes para la transformaci on de programas, las que mayor inter es han despertado en las dos ultimas d ecadas. Su utilidad no reside unicamente en la posibilidad de especializar programas, sino que sus aplicaciones se extienden tambi en a la generaci on autom atica de compiladores o a la optimizaci on de c odigo, por citar s olo las m as importantes. En la segunda parte de esta tesis mostramos que, en el contexto de los len- i guajes l ogico{funcionales, la especializaci on de programas se puede basar directamente en el mecanismo operacional de narrowing que, debido a la propagaci on bidireccional de par ametros realizada a trav es del procedimiento de uni caci on, es capaz de producir optimizaciones apreciables. Esta visi on uni cada de ejecuci on y especializaci on nos permite explotar las contribuciones de ambos campos, funcional y l ogico, y desarrollar un esquema simple y potente para mejorar el programa original respecto a su capacidad para computar respuestas. Tambi en mostramos que, debido a la componente funcional, son posibles otras optimizaciones (como la inclusi on de pasos de simpli - caci on deterministas) con el bene cio a~nadido de que, en nuestro esquema, todas las optimizaciones quedan `compiladas' en el programa transformado. Formalizamos los conceptos b asicos para la evaluaci on parcial de programas l ogico{funcionales y demostramos la correcci on y completitud de la transformaci on. El esquema presentado en este trabajo constituye la primera aproximaci on totalmente autom atica, correcta y nita para la evaluaci on parcial de programas l ogico{funcionales. / Vidal Oriola, GF. (1996). Análisis semántico y transformación de programas lógico-funcionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55796
53

Extension del lambda-cálculo para la modelizacion de procesos concurrentes

Oliver Villarroya, Francisco Javier 16 December 2015 (has links)
El lambda-cálculo es una teoría sin tipos que interpreta las funciones como reglas, es decir, el proceso de ir de un argumento a un valor, un proceso codificado por una definición. La idea de utilizar el lambda-cálculo como un marco matemático para la descripción y el Razonamiento acerca de los sistemas computacionales es antigua. De hecho, gracias al análisis realizado por Turing, se puede afirmar que, a pesar de que su sintaxis Es muy simple, el lambda-cálculo es lo suficientemente potente para describir todas las funciones computables mecánicamente. Pero, como mostró G. Berry, la computación que captura el lambda-cálculo es esencialmente secuencial. Un desafío importante que, sobre Todo desde _males de los años ochenta, está implicando a muchos investigadores es la construcción de un marco similar al _-cálculo para la concurrencia y la comunicación entre procesos. El objetivo fundamental que guiara el trabajo que a continuación presentamos es la Formalización de un cálculo que extiende el lambda-cálculo para modelizar la concurrencia y la comunicación entre procesos. El lenguaje desarrollado se denomina lambda-cálculo Etiquetado Paralelo (LCEP). Su origen está en una propuesta inicial de H. A _t-Kaci (el _-calculo Etiquetado) que describe un lenguaje, extensión del lambda-cálculo, en el que los argumentos de las funciones se seleccionan mediante etiquetas, incluyendo tanto posiciones numéricas como simbólicas. Esta extensión es conservativa en el sentido de que, cuando el conjunto de etiquetas es el conjunto unario f1g, el lambda-cálculo Etiquetado coincide exactamente con el lambda-cálculo, condición que no se cumple en las otras propuestas que vamos a estudiar comparativamente como punto de partida. Para describir el nuevo cálculo vamos a utilizar una semántica operacional dada por un sistema de transición, a partir de la cual propondremos diferentes relaciones de equivalencia para modelar los distintos aspectos relacionados con el comportamiento operacional de los procesos. Por último, ya que la escritura directa de programas en LCEP resulta demasiado compleja en la mayoría de los casos como para pensar en _el como recurso expresivo adecuado para la programación, vamos a definir un lenguaje de más alto nivel, ALEPH, que posee los recursos expresivos deseables en programación y permite aprovechar la potencia computacional del sistema. Mostraremos como ALEPH se traduce a LCEP como código máquina y es a través de este como se realizan las ejecuciones de los programas. A lo largo del texto es importante descubrir que a través de una sintaxis razonablemente simple es posible expresar todas las características que conlleva la concurrencia dentro de un paradigma funcional / Oliver Villarroya, FJ. (1996). Extension del lambda-cálculo para la modelizacion de procesos concurrentes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58867
54

Modelo de landmarks temporales para problemas de planificación temporal altamente restringidos

Marzal Calatayud, Eliseo Jorge 07 March 2016 (has links)
[EN] Automated temporal planning deals with the construction of plans for problems specified with durative actions of possibly different duration. The goal of temporal planning is to select and schedule the actions so as to achieve the problem goals, and the optimality criteria is the plan makespan. However, many real-word application define goals with time constraints which may not be satisfied with the plan of optimal makespan. The 2006 International Planning Competition introduced the PDDL3.0 language and organized the first and only track in planning with state trajectory constraints, including time restrictions, soft constraints and preferences. Particularly, four domains that feature deadline constraints were tested at the IPC and two planners participated in such competition although no one exhibited a good performance or fully-correction in the fulfillment of deadlines. An early detection of unsolvability in temporal planning problems, specifically those with strict deadlines, is crucial for avoiding an unfruitful exploration of the search space. And this is precisely the objective of this PhD dissertation. This work contributes with a temporal landmark-based model embedded into a temporal planner that allows for a rapid and eficient identification of unsolvable problems with deadline constraints. Our model incorporates the basic model operators of PDDL3.0 for defining temporal constraints and extends the STRIPS landmark concept to a temporal context. A temporal landmark is associated to three intervals that denote the time frame of the generation, validity and necessity of the landmark in the plan, respectively. The set of temporal landmarks of a problem along with their ordering relations and temporal restrictions define a temporal landmark graph which comprises the relationships that must exist between the literals of a solution plan and, therefore, between the corresponding actions. As long as new data is incorporated in the graph, the landmarks intervals are updated and propagated accordingly, thus reflecting a more accurate picture of a solution plan. The temporal landmark model is integrated in a domain-independent temporal planner named TempLM. During the search process, TempLM uses the temporal landmark graph to prune those partial plans of the search tree that are not compliant with the information of the graph. Additionally, we present a further improvement by which a feedback routine between the landmarks graph and the plan of a node tree is established. This process is used to refine the information of the graph and likewise narrow the search. In the experimental evaluation, we show the effectiveness of the proposed approach for detecting unsolvability and solving temporal planning problems with tight deadline constraints. / [ES] El objetivo de la planificación temporal automática es la construcción de planes con acciones de diferente duración que necesitan ser programadas adecuadamente con el fin de conseguir los objetivos del problema. En planificación temporal, la optimalidad se mide como la duración del plan más corto. Sin embargo, en muchos problemas del mundo real es necesario gestionar restricciones temporales asociadas a los objetivos del problema que pueden no satisfacerse con el plan de menor duración. En la Competición Internacional de Planificación del año 2006 se presentó el lenguaje PDDL3.0 y se realizó la primera y única competición de planificadores con gestión de restricciones de trayectorias de estado y preferencias. Concretamente, en esta IPC se probaron cuatro dominios con restricciones temporales donde los objetivos deben satisfacerse dentro de un límite de tiempo establecido o deadline. Dos planificadores participaron en esta competición aunque ninguno presentó un buen comportamiento respecto al cumplimiento de los deadlines. En este tipo de problemas, especialmente cuando se trata de problemas altamente restringidos, es crucial detectar la irresolubilidad de los mismos lo antes posible, y en este punto es donde se establece nuestro objetivo. Este trabajo de tesis presenta un modelo de landmarks temporales que permite identificar rápida y eficientemente la irresolubilidad de problemas de planificación con restricciones. Nuestro modelo incorpora las restricciones temporales del lenguaje PDDL3.0 y extiende el concepto de landmark STRIPS al contexto temporal. A cada landmark temporal se le asocian tres tipos de intervalos que se actualizan y propagan de acuerdo a las relaciones de orden y restricciones temporales entre ellos. Los landmarks temporales junto con sus relaciones de orden y restricciones temporales forman un grafo de landmarks temporales donde se sintetiza las relaciones que existen entre los literales de un plan solución y, consecuentemente, entre sus correspondientes acciones. Cuando se añade nueva información al grafo, se actualizan y propagan los intervalos de los landmarks, reflejando una imagen más precisa del plan solución. Posteriormente, el modelo de landmarks temporales se integra en un planificador temporal heurístico independiente del dominio denominado TempLM. TempLM utiliza toda la información extraída del problema para podar los planes parciales en el árbol de búsqueda que no son compatibles con la información del grafo de landmarks temporales. Además, se dispone de un proceso de retroalimentación entre el grafo de landmarks temporales y el proceso de búsqueda de un plan solución que permite enriquecer el grafo y, asimismo, acotar el espacio de búsqueda. Los resultados experimentales muestran que esta aproximación detecta rápidamente problemas irresolubles y también es muy efectiva para resolver problemas con restricciones muy ajustadas. / [CA] L'objectiu de la planificació temporal automàtica és la construcció de plans amb accions de diferent durada que necessiten ser programades adequadament amb la finalitat d'aconseguir els objectius del problema. En planificació temporal, l'optimitat es mesura com la durada del pla més curt. No obstant açò, en molts problemas del món real és necessari gestionar restriccions temporals associades als objectius del problema que poden no satisfer-se amb el pla de menor durada. En la Competició Internacional de Planificació de l'any 2006 es va presentar el llenguatge PDDL3.0 i es va realitzar la primera i única competició de planificadors amb gestió de restriccions de trajectòries d'estat i preferències. Concretament, en aquesta IPC es van provar quatre dominis amb restriccions temporals on els objectius han de satisfer-se dins d'un límit de temps establit o deadline. Dos planificadors van participar en aquesta competició encara que cap va presentar un bon comportament respecte al compliment dels deadlines. En aquest tipus de problemes, especialment quan es tracta de problemes altament restringits, és crucial detectar la irresolubilitat dels mateixos el més prompte possible, i en aquest punt és on s'estableix el nostre objectiu. Aquest treball de tesi presenta un model de landmarks temporals que permet identificar ràpida i eficientment la irresolubilitat de problemes de planificació amb restriccions. El nostre model incorpora les restriccions temporals del llenguatge PDDL3.0 i estén el concepte de landmark STRIPS al context temporal. A cada landmark temporal se li associen tres tipus d'intervals que s'actualitzen i propaguen d'acord a les relacions d'ordre i restriccions temporals entre ells. Els landmarks temporals juntament amb les seues relacions d'ordre i restriccions temporals formen un graf de landmarks temporals on se sintetitza les relacions que existeixen entre els literals d'un pla solució i, conseqüentment, entre les seues corresponents accions. Quan s'afig nova informació al graf, s'actualitzen i propaguen els intervals dels landmarks, reflectint una imatge més precisa del pla solució. Posteriorment, el model de landmarks temporals s'integra en un planificador temporal heurístic independent del domini denominat TempLM. TempLM utilitza tota la informació extreta del problema per a podar els plans parcials en l'arbre de cerca que no són compatibles amb la informació del graf de landmarks temporals. A més, es disposa d'un procés de retroalimentació entre el graf de landmarks temporals i el procés de cerca d'un pla solució que permet enriquir el graf i, així mateix, limitar l'espai de cerca. Els resultats experimentals mostren que aquesta aproximació detecta ràpidament problemes irresolubles i també és molt efectiva per a resoldre problemes amb restriccions molt ajustades. / Marzal Calatayud, EJ. (2016). Modelo de landmarks temporales para problemas de planificación temporal altamente restringidos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61460
55

La Narración Espacial: una propuesta para el estudio de los lenguajes narrativos en el arte multimedia

Montalvo Gallego, María Blanca 03 June 2016 (has links)
El objetivo de esta tesis es desarrollar un modelo que aquí llamamos Narración Espacial para, a través de su aplicación, acercarnos al estudio de instalaciones interactivas creadas con tecnología multimedia, y que desarrollan narraciones no lineales. Comenzamos el estudio definiendo de manera general en concepto de Narración Espacial, atendiendo a sus características básicas y definitorias, aquellas derivadas de su ser digital, de los conceptos de tiempo y espacio que desarrolla y de la relación que se establece entre el autor y el usuario, a través de la interfaz digital y la interactividad. Continuamos la segunda parte de la investigación aplicando esas características iniciales del modelo de Narración Espacial al análisis de obras no lineales, desde las narraciones orales de la Grecia clásica, pasando por algunos ejemplos de narraciones escritas, cine, instalaciones audiovisuales, e hipertexto, hasta las narraciones multimedia en Internet. Hemos denominado a estas obras antecedentes, pues con ellas pretendemos referenciar algunos puntos de una posible historia de la narración no lineal, que nos muestra muchas de las características que definen las obras estudiadas en el siguiente apartado. En el tercer apartado aplicamos el modelo de Narración Espacial al análisis de instalaciones interactivas multimedia que desarrollan narraciones no lineales, dividiendo este modelo en cuatro apartados, atendiendo a la estructura narrativa que desarrollan: obras de estructura ramificada; obras de estructura rizomática; obras algorítmicas; y un último grupo de obras englobadas aquí como más allá de la estructura. En las conclusiones recapitulamos las características básicas del modelo de Narración Espacial, tras el análisis aplicado al estudio de las obras vistas, y lo delimitamos, destacando las coincidencias que las estructuras del modelo tienen con otras narraciones no lineales. / Montalvo Gallego, MB. (2004). La Narración Espacial: una propuesta para el estudio de los lenguajes narrativos en el arte multimedia [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/65152
56

Optimization Techniques for Algorithmic Debugging

Insa Cabrera, David 01 September 2016 (has links)
[EN] Nowadays, undetected programming bugs produce a waste of billions of dollars per year to private and public companies and institutions. In spite of this, no significant advances in the debugging area that help developers along the software development process have been achieved yet. In fact, the same debugging techniques that were used 20 years ago are still being used now. Along the time, some alternatives have appeared, but there still is a long way for them to be useful enough to get into the software development process. One of them is algorithmic debugging, which abstracts the information the user has to investigate to debug the program, allowing them to focus on what is happening instead of how it is happening. This abstraction comes at a price: the granularity level of the bugs that can be detected allows for isolating wrongly implemented functions, but which part of them contains the bug cannot be found out yet. This thesis focusses on improving algorithmic debugging in many aspects. Concretely, the main aims of this thesis are to reduce the time the user needs to detect a programming bug as well as to provide the user with more detailed information about where the bug is located. To achieve these goals, some techniques have been developed to start the debugging sessions as soon as possible, to reduce the number of questions the user is going to be asked about, and to augment the granularity level of those bugs that algorithmic debugging can detect, allowing the debugger in this way to keep looking for bugs even inside functions. As a result of this thesis, three completely new techniques have been defined, an already existent technique has been improved, and two new algorithmic debugging search strategies have been defined that improve the already existent ones. Besides these theoretical results, a fully functional algorithmic debugger has been implemented that contains and supports all these techniques and strategies. This debugger is written in Java, and it debugs Java code. The election of this language is justified because it is currently one of the most widely extended and used languages. Also because it contains an interesting combination of unsolved challenges for algorithmic debugging. To further increase its usability, the debugger has been later adapted as an Eclipse plugin, so it could be used by a wider number of users. These two debuggers are publicly available, so any interested person can access them and continue with the research if they wish so. / [ES] Hoy en día, los errores no detectados de programación suponen un gasto de miles de millones al año para las empresas e instituciones públicas y privadas. A pesar de esto, no ha habido ningún avance significativo en el área de la depuración que ayude a los desarrolladores durante la fase de desarrollo de software. De hecho, las mismas técnicas de depuración que se utilizaban hace 20 años se siguen utilizando ahora. A lo largo del tiempo, han surgido algunas alternativas, pero todavía queda un largo camino para que estas sean lo suficientemente útiles como para abrirse camino en el proceso de desarrollo de software. Una de ellas es la depuración algorítmica, la cual abstrae la información que el programador debe investigar para depurar el programa, permitiéndole de este modo centrarse en el qué está ocurriendo en vez de en el cómo. Esta abstracción tiene un coste: el nivel de granularidad de los errores que pueden detectarse nos permite como máximo aislar funciones mal implementadas, pero no averiguar qué parte de estas contiene el error. Esta tesis se centra en mejorar la depuración algorítmica en muchos aspectos. Concretamente, los principales objetivos de esta tesis son reducir el tiempo que el usuario necesita para detectar un error de programación así como proporcionar información más detallada de dónde se encuentra el error. Para conseguir estos objetivos, se han desarrollado técnicas para iniciar las sesiones de depuración lo antes posible, reducir el número de preguntas que se le van a realizar al usuario, y aumentar el nivel de granularidad de los errores que la depuración algorítmica puede detectar, permitiendo así seguir buscando el error incluso dentro de las funciones. Como resultado de esta tesis, se han definido tres técnicas completamente nuevas, se ha mejorado una técnica ya existente, y se han definido dos nuevas estrategias de depuración algorítmica que mejoran las previamente existentes. Además de los resultados teóricos, también se ha desarrollado un depurador algorítmico completamente funcional que contiene y respalda todas estas técnicas y estrategias. Este depurador está escrito en Java y depura código Java. La elección de este lenguaje se justifica debido a que es uno de los lenguajes más ampliamente extendidos y usados actualmente. También debido a que contiene una combinación interesante de retos todavía sin resolver para la depuración algorítmica. Para aumentar todavía más su usabilidad, el depurador ha sido posteriormente adaptado como un plugin de Eclipse, de tal manera que pudiese ser usado por un número más amplio de usuarios. Estos dos depuradores están públicamente disponibles para que cualquier persona interesada pueda acceder a ellos y continuar con la investigación si así lo deseara. / [CA] Hui en dia, els errors no detectats de programació suposen una despesa de milers de milions a l'any per a les empreses i institucions públiques i privades. Tot i això, no hi ha hagut cap avanç significatiu en l'àrea de la depuració que ajude als desenvolupadors durant la fase de desenvolupament de programari. De fet, les mateixes tècniques de depuració que s'utilitzaven fa 20 anys es continuen utilitzant ara. Al llarg del temps, han sorgit algunes alternatives, però encara queda un llarg camí perquè estes siguen prou útils com per a obrir-se camí en el procés de desenvolupament de programari. Una d'elles és la depuració algorítmica, la qual abstrau la informació que el programador ha d'investigar per a depurar el programa, permetent-li d'esta manera centrar-se en el què està ocorrent en compte de en el com. Esta abstracció té un cost: el nivell de granularitat dels errors que poden detectar-se ens permet com a màxim aïllar funcions mal implementades, però no esbrinar quina part d'estes conté l'error. Esta tesi es centra a millorar la depuració algorítmica en molts aspectes. Concretament, els principals objectius d'esta tesi són reduir el temps que l'usuari necessita per a detectar un error de programació així com proporcionar informació més detallada d'on es troba l'error. Per a aconseguir estos objectius, s'han desenvolupat tècniques per a iniciar les sessions de depuració com més prompte millor, reduir el nombre de preguntes que se li formularan a l'usuari, i augmentar el nivell de granularitat dels errors que la depuració algorítmica pot detectar, permetent així continuar buscant l'error inclús dins de les funcions. Com resultat d'esta tesi, s'han definit tres tècniques completament noves, s'ha millorat una tècnica ja existent, i s'han definit dos noves estratègies de depuració algorítmica que milloren les prèviament existents. A més dels resultats teòrics, també s'ha desenvolupat un depurador algorítmic completament funcional que conté i protegix totes estes tècniques i estratègies. Este depurador està escrit en Java i depura codi Java. L'elecció d'este llenguatge es justifica pel fet que és un dels llenguatges més àmpliament estesos i usats actualment. També pel fet que conté una combinació interessant de reptes encara sense resoldre per a la depuració algorítmica. Per a augmentar encara més la seua usabilitat, el depurador ha sigut posteriorment adaptat com un plugin d'Eclipse, de tal manera que poguera ser usat per un nombre més ampli d'usuaris. Estos dos depuradors estan públicament disponibles perquè qualsevol persona interessada puga accedir a ells i continuar amb la investigació si així ho desitjara. / Insa Cabrera, D. (2016). Optimization Techniques for Algorithmic Debugging [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68506 / Premios Extraordinarios de tesis doctorales
57

Arquitectura para la gestión de datos en un campus inteligente

Villegas-Ch, William 24 January 2020 (has links)
En la actualidad, las tecnologías de la información y comunicación (TIC) se han convertido en herramientas invaluables en el desarrollo de la sociedad. Estas tecnologías están presentes en las empresas, la medicina, la educación, etc. Prácticamente la sociedad ha llegado a un punto en que el principal asistente en cada una de las actividades son las TIC. Esto ha permitido la globalización de todas las áreas donde estas son aplicadas. Las ventajas del uso de las TIC han permitido mejorar y automatizar los procesos en todo nivel, sea en una empresa, una ciudad, una universidad, un hogar, etc. Para hacerlo, las tecnologías se ajustan a las necesidades del usuario y son capaces de interactuar con él, incluso, están en capacidad de interactuar entre sí sin la intervención de un humano. ¿Pero cómo lo hacen y para qué? Las nuevas tecnologías ahora integran varios sistemas y plataformas que están en la capacidad de adquirir información de las personas y sus entornos, analizar esta información y tomar decisiones con base en los resultados del análisis. Estas decisiones se ven plasmadas, por ejemplo, en la mejora de las ventas de una empresa o en la mejora de los procesos de manufactura. Como estos, existen muchos ejemplos que son resultado de numerosas investigaciones que tienen como objetivo mejorar la calidad de vida de las personas en ecosistemas sostenibles. Uno de estos ecosistemas que ha adquirido gran importancia recientemente son las ciudades inteligentes. El valor de las ciudades inteligentes se basa en satisfacer las necesidades de los miembros de su comunidad en armonía con la naturaleza. Esto involucra una mejor administración de los servicios como el transporte, la generación y consumo energético, la seguridad, la gobernabilidad, etc. Sin embargo, transformar una ciudad común en una ciudad inteligente requiere de muchos esfuerzos y recursos, tanto económicos como humanos. Ante este problema, es necesario contar con escenarios similares que incluso sirvan como un banco de pruebas para la implementación de tecnologías y que su implementación en entornos más grandes sea efectiva y con los recursos adecuados. Las universidades, como generadoras de conocimiento, son las llamadas a realizar los procesos de implementación, pruebas y generación de nuevas tecnologías. Su ambiente, administración y organigrama estructural, sumada a extensas áreas que conforman sus campus, permite compararlas con pequeñas ciudades. Esto permite establecer una línea base donde se apliquen todos los componentes necesarios para transformarlos en campus inteligentes (smart campus). Los campus inteligentes buscan mejorar la calidad de la educación a través de la convergencia de nuevas tecnologías. Es importante establecer que un campus universitario pone a disposición de los estudiantes y los miembros de la comunidad todas las condiciones para garantizar la calidad de la educación. Los campus inteligentes, al igual que las ciudades inteligentes, basan sus entornos en satisfacer las necesidades de sus miembros; para esto, es necesario crear procesos o sistemas que adquieran información sobre ellos. Es por esto, que el Internet de las cosas (IoT, acrónimo en inglés de Internet of Things) se convierte en uno de los componentes necesarios para la transformación de un campus tradicional. La información recolectada necesariamente debe convertirse en conocimiento para ejecutar acciones con base en este conocimiento. Estas acciones responden a una toma de decisiones efectiva y eficiente que satisfaga las necesidades de las personas. Para realizar el análisis de datos es necesario contar con una arquitectura que gestione un gran volumen de datos independientemente de su formato. La tecnología que ofrece estas capacidades es el big data, su integración al campus inteligente genera una estructura lo suficientemente robusta para soportar toda la carga del IoT y el análisis de datos requerido por los usuarios. Estas tecnologías, en compañía de la computación en la nube (cloud computing), permiten a los miembros del campus inteligente desarrollar sus actividades en total armonía con los recursos y la naturaleza. Este trabajo de investigación está enfocado en proponer una arquitectura para la gestión de datos en un campus universitario. Este enfoque trata todas las variables que influyen en la educación universitaria. Descubrir estas variables, tratarlas y establecer sus relaciones entre sí, requiere de la integración de las tecnologías mencionadas incluso con modelos de inteligencia artificial que permitan tomar acciones sobre los resultados del análisis de datos.
58

Partial Evaluation of Rewriting Logic Theories

Cuenca Ortega, Ángel Eduardo 04 November 2019 (has links)
[ES] La evaluación parcial de programas es una técnica general y potente de optimización de programas que preserva su semántica y tiene muchas aplicaciones relevantes. La optimización se consigue al especializar programas con respecto a una parte de sus datos de entrada, lo que produce un nuevo programa llamado residual o programa especializado tal que, al ejecutarlo con los datos de entrada restantes, producirá el mismo resultado que produce el programa original con todos sus datos de entrada. Los esquemas de evaluación parcial existentes no son aplicables a lenguajes expresivos basados en reglas como Maude, CafeOBJ, OBJ, ASF+SDF y ELAN, los cuales soportan: 1) sofisticados tipos estructurados con subtipos y sobrecarga de operadores; y 2) teorías ecuacionales modulo varias combinaciones de axiomas tales como asociatividad, conmutatividad e identidad. Esta tesis desarrolla las bases teóricas necesarias e ilustra los conceptos principales para su aplicación a programas expresivos escritos en el lenguaje Maude. El esquema de evaluación parcial presentado en esta tesis está basado en un algoritmo automático de desplegado que computa variantes de términos. Para asegurar la terminación del proceso de especialización se han diseñado algoritmos de alto rendimiento para la generalización ecuacional menos general con tipos ordenados y subsunción homeomórfica ecuacional con tipos ordenados. Se muestra que la técnica de evaluación parcial desarrollada es correcta y completa para teorías de reescritura convergentes que pueden contener varias combinaciones de axiomas de asociatividad, conmutatividad y/o identidad para diferentes operadores binarios. Finalmente se presenta Victoria, el primer evaluador parcial para teorías ecuacionales de tipos ordenados para el lenguaje Maude, y se demuestra la efectividad y el incremento en eficiencia ganado a través de experimentos realizados con ejemplos reales. / [CA] L'avaluació parcial de programes és una tècnica general i potent d'optimització de programes que preserva la seua semàntica i té moltes aplicacions rellevants. L'optimització s'aconseguix a l'especialitzar programes respecte a una part de les seues dades d'entrada, la qual cosa produïx un nou programa cridat residual o programa especialitzat tal que, a l'executar-ho amb les dades d'entrada restants, produirà el mateix resultat que produïx el programa original amb totes les seues dades d'entrada. Els esquemes d'avaluació parcial existents no són aplicables a llenguatges expressius basats en regles com Maude, CafeOBJ, OBJ, ASF+SDF i ELAN, els quals suporten: 1) sofisticats tipus estructurats amb subtipus i sobrecàrrega d'operadors; i 2) teories equacionals mòdul diverses combinacions d'axiomes com asociativitat, conmutativitat i identitat. Esta tesi desenrotlla les bases teòriques necessàries i il·lustra els conceptes principals per a la seua aplicació a programes expressius escrits en el llenguatge Maude. L'esquema d'avaluació parcial presentat en esta tesi està basat en un algoritme automàtic de desplegat que computa variants de termes. Per a assegurar la terminació del procés d'especialització s'han dissenyat algoritmes d'alt rendiment per a la generalització ecuacional menys general amb subtipus ordenats i subsunción ecuacional homeomórfica amb subtipus ordenats. Es mostra que la tècnica d'avaluació parcial desenrotllada és correcta i completa per a teories de reescriptura convergents que poden contindre diverses combinacions d'axiomes d'asociativitat, conmutativitat i identitat per a diferents operadors binaris. Finalment es presenta Victoria, el primer avaluador parcial per a teories equacionals de tipus ordenats per al llenguatge Maude i es demostra l'efectivitat i l'increment en eficiència guanyat a través d'experiments realitzats amb exemples reals. / [EN] Partial evaluation is a powerful and general program optimization technique that preserves program semantics and has many successful applications. Optimization is achieved by specializing programs w.r.t. a part of their input data so that, when the residual or specialized program is executed on the remaining input data, it produces the same outcome than the original program with all of its input data. Existing PE schemes do not apply to expressive rule-based languages like Maude, CafeOBJ, OBJ, ASF+SDF, and ELAN, which support: 1) rich type structures with sorts, subsorts, and overloading; and 2) equational rewriting modulo various combinations of axioms such as associativity, commutativity, and identity. This thesis develops the new foundations needed and illustrates the key concepts of equational order sorted partial evaluation by showing how they apply to the specialization of expressive programs written in Maude. Our partial evaluation scheme is based on an automatic unfolding algorithm that computes term variants and relies on high-performance order-sorted equational least general generalization and ordersorted equational homeomorphic embedding algorithms for ensuring termination.We show that our partial evaluation technique is sound and complete for order-sorted equational theories that may contain various combinations of associativity, commutativity, and/or identity axioms for different binary operators. Finally, we present Victoria, the first partial evaluator for Maude's order-sorted equational theories, and demonstrate the effectiveness of our partial evaluation scheme on several examples where it shows significant speed-up. / Finally, I extend my thanks to SENESCYT for the support provided for my studies. Also, I thank the Universidad de Guayaquil that is my place of work. / Cuenca Ortega, ÁE. (2019). Partial Evaluation of Rewriting Logic Theories [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130206
59

Avances en la representación y modelado computacionales de la estructura del espacio

Gallego, Antonio-Javier 19 December 2012 (has links)
No description available.
60

Improving the efficiency and reliability of gradual typing

Allende Prieto, Esteban Armando January 2015 (has links)
Doctor en Ciencias, Mención Computación / Gradual Typing permite a un programador aplicar tipos estáticos a ciertas partes de un programa, dejando el resto dinámicamente tipeado. Sin embargo, esto viene con un costo en el rendimiento. Una razón es que el runtime tiene que realizar siempre un casteo en el borde entre tipos estáticos y dinámicos. Otra razón es que el borde puede ser creado accidentalmente. Esto también trae un efecto lateral de reducir la fiabilidad del código estático, porque ahora el programador no puede garantizar que su código no arrojará errores de tipo en tiempo de ejecución. En este trabajo de tesis, mejoramos el rendimiento y la fiabilidad de los programas gradualmente tipeados. Para esto, desarrollamos un lenguaje gradualmente tipeado, Gradualtalk, y luego presentamos dos novedosas ideas: hybrid strategy y Confined Gradual Typing. La hybrid strategy es una nueva forma de insertar los casts al invocar métodos que combina dos estrategias existentes, permitiendo obtener el mejor rendimiento de ambas. Validamos esta afirmación con benchmarks. Confined Gradual Typing refina gradual typing con anotaciones para prohibir explícitamente ciertos cruces de frontera entre el código estáticamente y dinámicamente tipeado. Nosotros desarrollamos formalmente dos variantes de CGT que capturan diferentes compromisos entre flexibilidad/garantías. Probamos que CGT es type sound y que las anotaciones ofrecen las garantías esperadas.

Page generated in 0.0694 seconds