11 |
Reorganization in Dynamic Agent SocietiesAlberola Oltra, Juan Miguel 07 February 2013 (has links)
En la nueva era de tecnologías de la información, los sistemas tienden a ser cada vez más
dinámicos, compuestos por entidades heterogéneas capaces de entrar y salir del sistema,
interaccionar entre ellas, y adaptarse a las necesidades del entorno. Los sistemas multiagente han
contribuído en los ultimos años, a modelar, diseñar e implementar sistemas autónomos con
capacidad de interacción y comunicación. Estos sistemas se han modelado principalmente, a través
de sociedades de agentes, las cuales facilitan la interación, organización y cooperación de agentes
heterogéneos para conseguir diferentes objetivos. Para que estos paradigmas puedan ser utilizados
para el desarrollo de nuevas generaciones de sistemas, características como dinamicidad y
capacidad de reorganización deben estar incorporadas en el modelado, gestión y ejecución de estas
sociedades de agentes.
Concretamente, la reorganización en sociedades de agentes ofrece un paradigma para diseñar
aplicaciones abiertas, dinámicas y adaptativas. Este proceso requiere determinar las consecuencias
de cambiar el sistema, no sólo en términos de los beneficios conseguidos sinó además, midiendo los
costes de adaptación así como el impacto que estos cambios tienen en todos los componentes del
sistema. Las propuestas actuales de reorganización, básicamente abordan este proceso como
respuestas de la sociedad cuando ocurre un cambio, o bien como un mecanismo para mejorar la
utilidad del sistema. Sin embargo, no se pueden definir procesos complejos de decisión que
obtengan la mejor configuración de los componentes organizacionales en cada momento, basándose
en una evaluación de los beneficios que se podrían obtener así como de los costes asociados al
proceso.
Teniendo en cuenta este objetivo, esta tesis explora el área de reorganización en sociedades de
agentes y se centra principalmente, en una propuesta novedosa para reorganización. Nuestra
propuesta ofrece un soporte de toma de decisiones que considera cambios en múltiples / Alberola Oltra, JM. (2013). Reorganization in Dynamic Agent Societies [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/19243
|
12 |
Análisis semántico y transformación de programas lógico-funcionalesVidal Oriola, Germán Francisco 08 October 2015 (has links)
El problema de la integraci on de la programaci on l ogica y funcional est a considerado
como uno de los m as importantes en el area de investigaci on sobre programaci on
declarativa. Para que los lenguajes declarativos sean utiles y puedan utilizarse en
aplicaciones reales, es necesario que el grado de e ciencia de su ejecuci on se aproxime
al de los lenguajes imperativos, tal y como se ha conseguido con el lenguaje Prolog.
Para ello, es imprescindible el desarrollo de herramientas potentes para el an alisis y
transformaci on de los programas, capaces de optimizar las implementaciones realizadas.
En general, es deseable sustituir las aproximaciones ad-hoc por tratamientos
m as sistem aticos para los problemas de an alisis y transformaci on de programas. Puesto
que la sem antica de los lenguajes l ogico{funcionales ha sido objeto de numerosos
estudios y est a matem aticamente bien formalizada, surge el inter es por el desarrollo
de m etodos y t ecnicas formales para la formulaci on de optimizaciones, basadas en la
sem antica, que preserven las propiedades computacionales del programa. Esta tesis se
centra en el desarrollo de tales t ecnicas, adopt andose una aproximaci on formal basada
en la sem antica (operacional) del lenguaje para desarrollar y analizar, en un contexto
uni cado, las diferentes optimizaciones.
En la primera parte, desarrollamos un marco para el an alisis est atico de programas
l ogico{funcionales, basado en la idea de construir aproximaciones correctas de
la sem antica operacional del programa. Formalizamos un esquema de an alisis simple,
uniforme y
exible, que permite estudiar distintos tipos de propiedades (relacionadas
con el conjunto de respuestas computadas por el programa) de manera correcta y
f acilmente implementable. El esquema es independiente de la estrategia de narrowing
usada en la formulaci on del mecanismo operacional del lenguaje, lo que contribuye a
dar generalidad al mismo.
Las t ecnicas de evaluaci on parcial son, de entre la gran variedad de t ecnicas existentes
para la transformaci on de programas, las que mayor inter es han despertado
en las dos ultimas d ecadas. Su utilidad no reside unicamente en la posibilidad de especializar
programas, sino que sus aplicaciones se extienden tambi en a la generaci on
autom atica de compiladores o a la optimizaci on de c odigo, por citar s olo las m as importantes.
En la segunda parte de esta tesis mostramos que, en el contexto de los len-
i
guajes l ogico{funcionales, la especializaci on de programas se puede basar directamente
en el mecanismo operacional de narrowing que, debido a la propagaci on bidireccional
de par ametros realizada a trav es del procedimiento de uni caci on, es capaz de producir
optimizaciones apreciables. Esta visi on uni cada de ejecuci on y especializaci on nos
permite explotar las contribuciones de ambos campos, funcional y l ogico, y desarrollar
un esquema simple y potente para mejorar el programa original respecto a su capacidad
para computar respuestas. Tambi en mostramos que, debido a la componente
funcional, son posibles otras optimizaciones (como la inclusi on de pasos de simpli -
caci on deterministas) con el bene cio a~nadido de que, en nuestro esquema, todas las
optimizaciones quedan `compiladas' en el programa transformado. Formalizamos los
conceptos b asicos para la evaluaci on parcial de programas l ogico{funcionales y demostramos
la correcci on y completitud de la transformaci on. El esquema presentado
en este trabajo constituye la primera aproximaci on totalmente autom atica, correcta
y nita para la evaluaci on parcial de programas l ogico{funcionales. / Vidal Oriola, GF. (1996). Análisis semántico y transformación de programas lógico-funcionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/55796
|
13 |
Extension del lambda-cálculo para la modelizacion de procesos concurrentesOliver Villarroya, Francisco Javier 16 December 2015 (has links)
El lambda-cálculo es una teoría sin tipos que interpreta las funciones como reglas, es decir,
el proceso de ir de un argumento a un valor, un proceso codificado por una definición.
La idea de utilizar el lambda-cálculo como un marco matemático para la descripción y el
Razonamiento acerca de los sistemas computacionales es antigua. De hecho, gracias
al análisis realizado por Turing, se puede afirmar que, a pesar de que su sintaxis
Es muy simple, el lambda-cálculo es lo suficientemente potente para describir todas las
funciones computables mecánicamente. Pero, como mostró G. Berry, la computación
que captura el lambda-cálculo es esencialmente secuencial. Un desafío importante que, sobre
Todo desde _males de los años ochenta, está implicando a muchos investigadores es la
construcción de un marco similar al _-cálculo para la concurrencia y la comunicación
entre procesos.
El objetivo fundamental que guiara el trabajo que a continuación presentamos es la
Formalización de un cálculo que extiende el lambda-cálculo para modelizar la concurrencia
y la comunicación entre procesos. El lenguaje desarrollado se denomina lambda-cálculo
Etiquetado Paralelo (LCEP). Su origen está en una propuesta inicial de H. A _t-Kaci
(el _-calculo Etiquetado) que describe un lenguaje, extensión del lambda-cálculo, en el
que los argumentos de las funciones se seleccionan mediante etiquetas, incluyendo
tanto posiciones numéricas como simbólicas. Esta extensión es conservativa en el
sentido de que, cuando el conjunto de etiquetas es el conjunto unario f1g, el lambda-cálculo
Etiquetado coincide exactamente con el lambda-cálculo, condición que no se cumple en las
otras propuestas que vamos a estudiar comparativamente como punto de partida.
Para describir el nuevo cálculo vamos a utilizar una semántica operacional dada por
un sistema de transición, a partir de la cual propondremos diferentes relaciones de
equivalencia para modelar los distintos aspectos relacionados con el comportamiento
operacional de los procesos.
Por último, ya que la escritura directa de programas en LCEP resulta demasiado
compleja en la mayoría de los casos como para pensar en _el como recurso expresivo
adecuado para la programación, vamos a definir un lenguaje de más alto nivel,
ALEPH, que posee los recursos expresivos deseables en programación y permite aprovechar
la potencia computacional del sistema. Mostraremos como ALEPH se traduce
a LCEP como código máquina y es a través de este como se realizan las ejecuciones
de los programas.
A lo largo del texto es importante descubrir que a través de una sintaxis razonablemente
simple es posible expresar todas las características que conlleva la concurrencia
dentro de un paradigma funcional / Oliver Villarroya, FJ. (1996). Extension del lambda-cálculo para la modelizacion de procesos concurrentes [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/58867
|
14 |
Modelo de landmarks temporales para problemas de planificación temporal altamente restringidosMarzal Calatayud, Eliseo Jorge 07 March 2016 (has links)
[EN] Automated temporal planning deals with the construction of plans for problems specified with durative actions of possibly different duration. The goal of temporal planning is to select and schedule the actions so as to achieve the problem goals, and the optimality criteria is the plan makespan. However, many real-word application define goals with time constraints which may not be satisfied with the plan of optimal makespan.
The 2006 International Planning Competition introduced the PDDL3.0 language and organized the first and only track in planning with state trajectory constraints, including time restrictions, soft constraints and preferences. Particularly, four domains that feature deadline constraints were tested at the IPC and two planners participated in such competition although no one exhibited a good performance or fully-correction in the fulfillment of deadlines. An early detection of unsolvability in temporal planning problems, specifically those with strict deadlines, is crucial for avoiding an unfruitful exploration of the search space. And this is precisely the objective of this PhD dissertation.
This work contributes with a temporal landmark-based model embedded into a temporal planner that allows for a rapid and eficient identification of unsolvable problems with deadline constraints. Our model incorporates the basic model operators of PDDL3.0 for defining temporal constraints and extends the STRIPS landmark concept to a temporal context. A temporal landmark is associated to three intervals that denote the time frame of the generation, validity and necessity of the landmark in the plan, respectively. The set of temporal landmarks of a problem along with their ordering relations and temporal restrictions define a temporal landmark graph which comprises the relationships that must exist between the literals of a solution plan and, therefore, between the corresponding actions. As long as new data is incorporated in the graph, the landmarks intervals are updated and propagated accordingly, thus reflecting a more accurate picture of a solution plan.
The temporal landmark model is integrated in a domain-independent temporal planner named TempLM. During the search process, TempLM uses the temporal landmark graph to prune those partial plans of the search tree that are not compliant with the information of the graph. Additionally, we present a further improvement by which a feedback routine between the landmarks graph and the plan of a node tree is established. This process is used to refine the information of the graph and likewise narrow the search.
In the experimental evaluation, we show the effectiveness of the proposed approach for detecting unsolvability and solving temporal planning problems with tight deadline constraints. / [ES] El objetivo de la planificación temporal automática es la construcción de planes con acciones de diferente duración que necesitan ser programadas adecuadamente con el fin de conseguir los objetivos del problema. En planificación temporal, la optimalidad se mide como la duración del plan más corto. Sin embargo, en muchos problemas del mundo real es necesario gestionar restricciones temporales asociadas a los objetivos del problema que pueden no satisfacerse con el plan de menor duración.
En la Competición Internacional de Planificación del año 2006 se presentó el lenguaje PDDL3.0 y se realizó la primera y única competición de planificadores con gestión de restricciones de trayectorias de estado y preferencias. Concretamente, en esta IPC se probaron cuatro dominios con restricciones temporales donde los objetivos deben satisfacerse dentro de un límite de tiempo establecido o deadline. Dos planificadores participaron en esta competición aunque ninguno presentó un
buen comportamiento respecto al cumplimiento de los deadlines. En este tipo de problemas, especialmente cuando se trata de problemas altamente restringidos, es crucial detectar la irresolubilidad de los mismos lo antes posible, y en este punto es donde se establece nuestro objetivo.
Este trabajo de tesis presenta un modelo de landmarks temporales que permite identificar rápida y eficientemente la irresolubilidad de problemas de planificación con restricciones. Nuestro modelo incorpora las restricciones temporales del lenguaje
PDDL3.0 y extiende el concepto de landmark STRIPS al contexto temporal. A cada landmark temporal se le asocian tres tipos de intervalos que se actualizan y propagan de acuerdo a las relaciones de orden y restricciones temporales entre ellos.
Los landmarks temporales junto con sus relaciones de orden y restricciones temporales forman un grafo de landmarks temporales donde se sintetiza las relaciones que existen entre los literales de un plan solución y, consecuentemente, entre sus correspondientes acciones. Cuando se añade nueva información al grafo, se actualizan y propagan los intervalos de los landmarks, reflejando una imagen más precisa del plan solución.
Posteriormente, el modelo de landmarks temporales se integra en un planificador temporal heurístico independiente del dominio denominado TempLM. TempLM utiliza toda la información extraída del problema para podar los planes parciales en el
árbol de búsqueda que no son compatibles con la información del grafo de landmarks temporales. Además, se dispone de un proceso de retroalimentación entre el grafo de landmarks temporales y el proceso de búsqueda de un plan solución que permite enriquecer el grafo y, asimismo, acotar el espacio de búsqueda.
Los resultados experimentales muestran que esta aproximación detecta rápidamente problemas irresolubles y también es muy efectiva para resolver problemas con restricciones muy ajustadas. / [CA] L'objectiu de la planificació temporal automàtica és la construcció de plans amb accions de diferent durada que necessiten ser programades adequadament amb la finalitat d'aconseguir els objectius del problema. En planificació temporal, l'optimitat
es mesura com la durada del pla més curt. No obstant açò, en molts problemas del món real és necessari gestionar restriccions temporals associades als objectius del problema que poden no satisfer-se amb el pla de menor durada.
En la Competició Internacional de Planificació de l'any 2006 es va presentar el llenguatge PDDL3.0 i es va realitzar la primera i única competició de planificadors amb gestió de restriccions de trajectòries d'estat i preferències. Concretament, en aquesta IPC es van provar quatre dominis amb restriccions temporals on els objectius han de satisfer-se dins d'un límit de temps establit o deadline. Dos planificadors van participar en aquesta competició encara que cap va presentar un bon comportament respecte al compliment dels deadlines. En aquest tipus de problemes, especialment quan es tracta de problemes altament restringits, és crucial detectar la irresolubilitat dels mateixos el més prompte possible, i en aquest punt és on s'estableix el nostre objectiu.
Aquest treball de tesi presenta un model de landmarks temporals que permet identificar ràpida i eficientment la irresolubilitat de problemes de planificació amb restriccions. El nostre model incorpora les restriccions temporals del llenguatge PDDL3.0 i estén el concepte de landmark STRIPS al context temporal. A cada landmark temporal se li associen tres tipus d'intervals que s'actualitzen i propaguen d'acord a les relacions d'ordre i restriccions temporals entre ells. Els landmarks temporals juntament amb les seues relacions d'ordre i restriccions temporals formen un graf de landmarks temporals on se sintetitza les relacions que existeixen entre els literals d'un pla solució i, conseqüentment, entre les seues corresponents accions. Quan s'afig nova informació al graf, s'actualitzen i propaguen els intervals dels landmarks, reflectint una imatge més precisa del pla solució.
Posteriorment, el model de landmarks temporals s'integra en un planificador temporal heurístic independent del domini denominat TempLM. TempLM utilitza tota la informació extreta del problema per a podar els plans parcials en l'arbre de cerca que no són compatibles amb la informació del graf de landmarks temporals. A més, es disposa d'un procés de retroalimentació entre el graf de landmarks temporals i el procés de cerca d'un pla solució que permet enriquir el graf i, així mateix, limitar
l'espai de cerca.
Els resultats experimentals mostren que aquesta aproximació detecta ràpidament problemes irresolubles i també és molt efectiva per a resoldre problemes amb restriccions molt ajustades. / Marzal Calatayud, EJ. (2016). Modelo de landmarks temporales para problemas de planificación temporal
altamente restringidos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/61460
|
15 |
Optimization Techniques for Algorithmic DebuggingInsa Cabrera, David 01 September 2016 (has links)
[EN] Nowadays, undetected programming bugs produce a waste of billions of dollars per year to private and public companies and institutions. In spite of this, no significant advances in the debugging area that help developers along the software development process have been achieved yet. In fact, the same debugging techniques that were used 20 years ago are still being used now. Along the time, some alternatives have appeared, but there still is a long way for them to be useful enough to get into the software development process. One of them is algorithmic debugging, which abstracts the information the user has to investigate to debug the program, allowing them to focus on what is happening instead of how it is happening. This abstraction comes at a price: the granularity level of the bugs that can be detected allows for isolating wrongly implemented functions, but which part of them contains the bug cannot be found out yet. This thesis focusses on improving algorithmic debugging in many aspects. Concretely, the main aims of this thesis are to reduce the time the user needs to detect a programming bug as well as to provide the user with more detailed information about where the bug is located. To achieve these goals, some techniques have been developed to start the debugging sessions as soon as possible, to reduce the number of questions the user is going to be asked about, and to augment the granularity level of those bugs that algorithmic debugging can detect, allowing the debugger in this way to keep looking for bugs even inside functions. As a result of this thesis, three completely new techniques have been defined, an already existent technique has been improved, and two new algorithmic debugging search strategies have been defined that improve the already existent ones. Besides these theoretical results, a fully functional algorithmic debugger has been implemented that contains and supports all these techniques and strategies. This debugger is written in Java, and it debugs Java code. The election of this language is justified because it is currently one of the most widely extended and used languages. Also because it contains an interesting combination of unsolved challenges for algorithmic debugging. To further increase its usability, the debugger has been later adapted as an Eclipse plugin, so it could be used by a wider number of users. These two debuggers are publicly available, so any interested person can access them and continue with the research if they wish so. / [ES] Hoy en día, los errores no detectados de programación suponen un gasto de miles de millones al año para las empresas e instituciones públicas y privadas. A pesar de esto, no ha habido ningún avance significativo en el área de la depuración que ayude a los desarrolladores durante la fase de desarrollo de software. De hecho, las mismas técnicas de depuración que se utilizaban hace 20 años se siguen utilizando ahora. A lo largo del tiempo, han surgido algunas alternativas, pero todavía queda un largo camino para que estas sean lo suficientemente útiles como para abrirse camino en el proceso de desarrollo de software. Una de ellas es la depuración algorítmica, la cual abstrae la información que el programador debe investigar para depurar el programa, permitiéndole de este modo centrarse en el qué está ocurriendo en vez de en el cómo. Esta abstracción tiene un coste: el nivel de granularidad de los errores que pueden detectarse nos permite como máximo aislar funciones mal implementadas, pero no averiguar qué parte de estas contiene el error. Esta tesis se centra en mejorar la depuración algorítmica en muchos aspectos. Concretamente, los principales objetivos de esta tesis son reducir el tiempo que el usuario necesita para detectar un error de programación así como proporcionar información más detallada de dónde se encuentra el error. Para conseguir estos objetivos, se han desarrollado técnicas para iniciar las sesiones de depuración lo antes posible, reducir el número de preguntas que se le van a realizar al usuario, y aumentar el nivel de granularidad de los errores que la depuración algorítmica puede detectar, permitiendo así seguir buscando el error incluso dentro de las funciones. Como resultado de esta tesis, se han definido tres técnicas completamente nuevas, se ha mejorado una técnica ya existente, y se han definido dos nuevas estrategias de depuración algorítmica que mejoran las previamente existentes. Además de los resultados teóricos, también se ha desarrollado un depurador algorítmico completamente funcional que contiene y respalda todas estas técnicas y estrategias. Este depurador está escrito en Java y depura código Java. La elección de este lenguaje se justifica debido a que es uno de los lenguajes más ampliamente extendidos y usados actualmente. También debido a que contiene una combinación interesante de retos todavía sin resolver para la depuración algorítmica. Para aumentar todavía más su usabilidad, el depurador ha sido posteriormente adaptado como un plugin de Eclipse, de tal manera que pudiese ser usado por un número más amplio de usuarios. Estos dos depuradores están públicamente disponibles para que cualquier persona interesada pueda acceder a ellos y continuar con la investigación si así lo deseara. / [CA] Hui en dia, els errors no detectats de programació suposen una despesa de milers de milions a l'any per a les empreses i institucions públiques i privades. Tot i això, no hi ha hagut cap avanç significatiu en l'àrea de la depuració que ajude als desenvolupadors durant la fase de desenvolupament de programari. De fet, les mateixes tècniques de depuració que s'utilitzaven fa 20 anys es continuen utilitzant ara. Al llarg del temps, han sorgit algunes alternatives, però encara queda un llarg camí perquè estes siguen prou útils com per a obrir-se camí en el procés de desenvolupament de programari. Una d'elles és la depuració algorítmica, la qual abstrau la informació que el programador ha d'investigar per a depurar el programa, permetent-li d'esta manera centrar-se en el què està ocorrent en compte de en el com. Esta abstracció té un cost: el nivell de granularitat dels errors que poden detectar-se ens permet com a màxim aïllar funcions mal implementades, però no esbrinar quina part d'estes conté l'error. Esta tesi es centra a millorar la depuració algorítmica en molts aspectes. Concretament, els principals objectius d'esta tesi són reduir el temps que l'usuari necessita per a detectar un error de programació així com proporcionar informació més detallada d'on es troba l'error. Per a aconseguir estos objectius, s'han desenvolupat tècniques per a iniciar les sessions de depuració com més prompte millor, reduir el nombre de preguntes que se li formularan a l'usuari, i augmentar el nivell de granularitat dels errors que la depuració algorítmica pot detectar, permetent així continuar buscant l'error inclús dins de les funcions. Com resultat d'esta tesi, s'han definit tres tècniques completament noves, s'ha millorat una tècnica ja existent, i s'han definit dos noves estratègies de depuració algorítmica que milloren les prèviament existents. A més dels resultats teòrics, també s'ha desenvolupat un depurador algorítmic completament funcional que conté i protegix totes estes tècniques i estratègies. Este depurador està escrit en Java i depura codi Java. L'elecció d'este llenguatge es justifica pel fet que és un dels llenguatges més àmpliament estesos i usats actualment. També pel fet que conté una combinació interessant de reptes encara sense resoldre per a la depuració algorítmica. Per a augmentar encara més la seua usabilitat, el depurador ha sigut posteriorment adaptat com un plugin d'Eclipse, de tal manera que poguera ser usat per un nombre més ampli d'usuaris. Estos dos depuradors estan públicament disponibles perquè qualsevol persona interessada puga accedir a ells i continuar amb la investigació si així ho desitjara. / Insa Cabrera, D. (2016). Optimization Techniques for Algorithmic Debugging [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/68506 / Premios Extraordinarios de tesis doctorales
|
16 |
Partial Evaluation of Rewriting Logic TheoriesCuenca Ortega, Ángel Eduardo 04 November 2019 (has links)
[ES] La evaluación parcial de programas es una técnica general y potente de optimización de programas
que preserva su semántica y tiene muchas aplicaciones relevantes. La optimización se
consigue al especializar programas con respecto a una parte de sus datos de entrada, lo que produce
un nuevo programa llamado residual o programa especializado tal que, al ejecutarlo con
los datos de entrada restantes, producirá el mismo resultado que produce el programa original
con todos sus datos de entrada. Los esquemas de evaluación parcial existentes no son aplicables
a lenguajes expresivos basados en reglas como Maude, CafeOBJ, OBJ, ASF+SDF y ELAN, los
cuales soportan: 1) sofisticados tipos estructurados con subtipos y sobrecarga de operadores;
y 2) teorías ecuacionales modulo varias combinaciones de axiomas tales como asociatividad,
conmutatividad e identidad. Esta tesis desarrolla las bases teóricas necesarias e ilustra los conceptos
principales para su aplicación a programas expresivos escritos en el lenguaje Maude. El
esquema de evaluación parcial presentado en esta tesis está basado en un algoritmo automático
de desplegado que computa variantes de términos. Para asegurar la terminación del proceso
de especialización se han diseñado algoritmos de alto rendimiento para la generalización ecuacional
menos general con tipos ordenados y subsunción homeomórfica ecuacional con tipos
ordenados. Se muestra que la técnica de evaluación parcial desarrollada es correcta y completa
para teorías de reescritura convergentes que pueden contener varias combinaciones de axiomas
de asociatividad, conmutatividad y/o identidad para diferentes operadores binarios. Finalmente
se presenta Victoria, el primer evaluador parcial para teorías ecuacionales de tipos ordenados
para el lenguaje Maude, y se demuestra la efectividad y el incremento en eficiencia ganado a
través de experimentos realizados con ejemplos reales. / [CA] L'avaluació parcial de programes és una tècnica general i potent d'optimització de programes
que preserva la seua semàntica i té moltes aplicacions rellevants. L'optimització s'aconseguix
a l'especialitzar programes respecte a una part de les seues dades d'entrada, la qual cosa produïx
un nou programa cridat residual o programa especialitzat tal que, a l'executar-ho amb les
dades d'entrada restants, produirà el mateix resultat que produïx el programa original amb totes
les seues dades d'entrada. Els esquemes d'avaluació parcial existents no són aplicables a llenguatges
expressius basats en regles com Maude, CafeOBJ, OBJ, ASF+SDF i ELAN, els quals
suporten: 1) sofisticats tipus estructurats amb subtipus i sobrecàrrega d'operadors; i 2) teories
equacionals mòdul diverses combinacions d'axiomes com asociativitat, conmutativitat i identitat.
Esta tesi desenrotlla les bases teòriques necessàries i il·lustra els conceptes principals per a
la seua aplicació a programes expressius escrits en el llenguatge Maude. L'esquema d'avaluació
parcial presentat en esta tesi està basat en un algoritme automàtic de desplegat que computa
variants de termes. Per a assegurar la terminació del procés d'especialització s'han dissenyat
algoritmes d'alt rendiment per a la generalització ecuacional menys general amb subtipus ordenats
i subsunción ecuacional homeomórfica amb subtipus ordenats. Es mostra que la tècnica
d'avaluació parcial desenrotllada és correcta i completa per a teories de reescriptura convergents
que poden contindre diverses combinacions d'axiomes d'asociativitat, conmutativitat i identitat
per a diferents operadors binaris. Finalment es presenta Victoria, el primer avaluador parcial
per a teories equacionals de tipus ordenats per al llenguatge Maude i es demostra l'efectivitat i
l'increment en eficiència guanyat a través d'experiments realitzats amb exemples reals. / [EN] Partial evaluation is a powerful and general program optimization technique that preserves program
semantics and has many successful applications. Optimization is achieved by specializing
programs w.r.t. a part of their input data so that, when the residual or specialized program is
executed on the remaining input data, it produces the same outcome than the original program
with all of its input data. Existing PE schemes do not apply to expressive rule-based languages
like Maude, CafeOBJ, OBJ, ASF+SDF, and ELAN, which support: 1) rich type structures with
sorts, subsorts, and overloading; and 2) equational rewriting modulo various combinations of
axioms such as associativity, commutativity, and identity. This thesis develops the new foundations
needed and illustrates the key concepts of equational order sorted partial evaluation by
showing how they apply to the specialization of expressive programs written in Maude. Our partial
evaluation scheme is based on an automatic unfolding algorithm that computes term variants
and relies on high-performance order-sorted equational least general generalization and ordersorted
equational homeomorphic embedding algorithms for ensuring termination.We show that
our partial evaluation technique is sound and complete for order-sorted equational theories that
may contain various combinations of associativity, commutativity, and/or identity axioms for
different binary operators. Finally, we present Victoria, the first partial evaluator for Maude's
order-sorted equational theories, and demonstrate the effectiveness of our partial evaluation
scheme on several examples where it shows significant speed-up. / Finally, I extend my thanks to SENESCYT for the support provided for my studies. Also, I
thank the Universidad de Guayaquil that is my place of work. / Cuenca Ortega, ÁE. (2019). Partial Evaluation of Rewriting Logic Theories [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/130206
|
17 |
Propuesta de un método para el desarrollo de videojuegos serios accesiblesJaramillo-Alcázar, Angel 08 June 2022 (has links)
Hoy en día, uno de los segmentos de la industria del software que más ha tenido crecimiento, son los videojuegos. Millones de dólares se generan anualmente en este mercado gracias a variados tipos de videojuegos y las distintas plataformas existentes. Este crecimiento también está apalancado por la cantidad de espectadores de algunos tipos de videojuegos, por ejemplo, deportes electrónicos, y el aumento del consumo de jugadores de computadora que se evidencia actualmente. Asimismo, varios estudios han dado a conocer que la cantidad de dispositivos móviles y conexiones en el mundo ha aumentado y que gran parte de la población mundial tendrá acceso a la tecnología móvil. Es por esta razón que el uso de dispositivos móviles en el día a día de las personas se ha vuelto imprescindible. Este efecto se debe a que los dispositivos móviles se consideran más versátiles que los equipos tradicionales como las computadoras de escritorio. Por otro lado, según la Organización Mundial de la Salud (OMS) en el mundo alrededor del 15% de personas tiene algún tipo de discapacidad. Estas personas suelen vivir con limitaciones sociales, educativas y de entretenimiento debido a su condición. Es así que se considera a la accesibilidad como un parámetro que permite que un objeto pueda ser utilizado por una persona indistintamente de su discapacidad. La accesibilidad en los videojuegos es un parámetro que no ha sido considerado por los desarrolladores de este tipo de aplicaciones. Sin embargo, en los últimos años han existido iniciativas de grupos de interés, organizaciones, entre otros, que han empezado a desarrollar y proponer pautas de accesibilidad para los videojuegos. Esto tambien ha sido apalancado debido a que en los recientes años han aparecido novedosas tecnologías de asistencia para los dispositivos móviles, como VoiceOver para iOS o Google TalkBack para Android. Estas tecnologías han permitido evolucionar a las alternativas de solución para reducir la brecha de accesibilidad en los videojuegos. Estas tecnologías permiten nuevos tipos de interfaces y, al mismo tiempo, estas nuevas interfaces pueden ser útiles para algunos grupos de personas con discapacidad. Además, la accesibilidad no solo ha sido considerada en videojuegos sino primordialmente se han generado lineamientos como los propuestos por el Consorcio World Wide Web (World Wide Web Consortium, W3C) en las Pautas de Accesibilidad al Contenido Web (Web Content Accessibility Guidelines, WCAG) 2.1 o también existen varios casos de gobiernos que han denifido sus parámetros para desarrollar sus aplicaciones accesibles. Por otro lado, la educación y sobre todo los métodos de enseñanza-aprendizaje siempre han sido un reto al momento de transmitir el conocimiento en cualquier escenario de educación/capacitación. Los métodos tradicionales se han visto transformados y ahora se complementan de gran manera con las tecnologías. Una de estas variantes de métodos de enseñanza-aprendizaje son los conocidos juegos serios. Los juegos serios, también llamados juegos formativos, son juegos diseñados con un propósito educacional más que para fines de entretenimiento. La expresión “serio” se refiere a aquellos videojuegos que se utilizan en el sector educativo pero también pueden ser aplicados en sectores científicos, industriales y más. Es así que el uso de videojuegos serios en la educación ha ido ganando adeptos y sin duda se ha convertido en la herramienta más aceptada por estudiantes. Sin embargo, la gran mayoría de estos videojuegos serios no se construyen con criterios de accesibilidad, limitando de cierta manera a que puedan ser utilizados por personas con discapacidad. De esta manera es que nace el trabajo realizado, el cual propone un método para el desarrollo de videojuegos serios para personas con discapacidad. Este método aborda tanto los aspectos de la construcción de un videojuego serio con sus características educacionales y los elementos lúdicos para volverlo entretenido y atractivo, así como, las características de accesibilidad que debe considerar su diseño para que personas con discapacidad puedan usarlos como una herramienta de aprendizaje. Además, se presenta un caso de estudio de la aplicación del método propuesto.
|
18 |
Gormas: Guías para el desarrollo de sistemas multiagente abiertos basados en organizacionesArgente Villaplana, Estefanía 03 July 2008 (has links)
Las organizaciones resultan ser un medio efectivo para la coordinación de las actividades, no sólo de los humanos sino también de los agentes. Precisamente, en los últimos años el concepto de organización ha adquirido gran relevancia en el área de los sistemas multiagente, al facilitar el análisis y diseño de mecanismos de coordinación y colaboración en sistemas abiertos.
Dado que la Teoría de Organización aborda las propiedades de las organizaciones humanas y sus aspectos de diseño, en esta tesis se revisa dicha Teoría para así adoptar de ella ciertos mecanismos y guías que faciliten el diseño de sistemas multiagente complejos basados en organizaciones.
Para ello, se han analizado cuáles son los factores principales que determinan las características de las organizaciones y su estructura y que deben ser tenidos cuenta en el diseño de la organización del sistema. Asimismo, se ha realizado un estudio del estado del arte sobre el enfoque dado al concepto de organización, tanto en las principales metodologías de sistemas multiagente como en las plataformas de agente. De este modo, se han determinado sus carencias y necesidades con respecto a la gestión y manejo de las organizaciones.
En base a estos estudios, se ha propuesto un Modelo de Organización que permite describir los principales aspectos de las organizaciones: estructura, funcionalidad, normalización, dinamicidad y entorno. Este modelo constituye la primera aportación de esta tesis. Consta de un conjunto de meta-modelos que extienden las propuestas de INGENIAS y ANEMONA, empleando fundamentalmente los conceptos de unidad organizativa, servicio, norma y entorno. Además se ha elaborado un conjunto de patrones de diseño, con los que facilitar el modelado de la estructura de la organización.
El Modelo de Organización sirve de apoyo, junto al análisis de la Teoría de Organización, para la adaptación del proceso de diseño de las organizaciones al área de los sistemas multiagente. De esta forma, como segunda y pr / Argente Villaplana, E. (2008). Gormas: Guías para el desarrollo de sistemas multiagente abiertos basados en organizaciones [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2481
|
19 |
Aprendizaje de transductores estocásticos de estados finitos y su aplicación en traducción automáticaGonzález Mollá, Jorge 22 October 2009 (has links)
Traducción automática es un área de lingüística computacional que investiga
el uso de software para traducir texto o voz en lenguaje natural hacia
su representación en un idioma destino, también mediante lenguaje natural.
En las últimas décadas ha habido un fuerte impulso sobre la utilización de
técnicas estadísticas para el desarrollo de sistemas de traducción automática.
Para la aplicación de estos métodos sobre un par de lenguas en concreto, se
requiere la disponibilidad de un corpus paralelo para dicho par de idiomas.
El atractivo de estas técnicas radica en que el desarrollo de un sistema se realiza
sin necesidad de trabajo experto por parte de especialistas en lingüística.
Los modelos de estados finitos llevan bastante tiempo empleándose con
éxito en múltiples y variadas disciplinas dentro de la investigación científica
aplicada al lenguaje natural, incluyendo su uso en traducción automática.
Los modelos de estados finitos presentan una serie de ventajas con respecto
a otros modelos estadísticos, como su sencilla integración en entornos de
reconocimiento de voz, su aplicación en sistemas de traducción asistida, o su
capacidad para procesar la información sin necesidad de que esté completa,
por medio de una arquitectura basada en las populares cadenas de montaje.
El objetivo de la investigación consiste en el estudio y la explotación de
las técnicas de traducción automática basadas en modelos de estados finitos.
El trabajo presentado en esta tesis es un análisis detallado de la metodología
GIATI para el aprendizaje de transductores estocásticos de estados finitos
para su aplicación eficaz y eficiente como modelos en traducción automática,
permitiendo su uso sobre tareas de traducción con un gran volumen de datos. / González Mollá, J. (2009). Aprendizaje de transductores estocásticos de estados finitos y su aplicación en traducción automática [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6289
|
20 |
Método de registro no rígido basado en funciones de base radial. Aplicación a neurocirugía utilizando atlas cerebralesOrtega Pérez, Mario 14 January 2010 (has links)
La neurocirugía es una de las especialidades más exigentes en cuanto a precisión en el procedimiento quirúrgico. Los neurocirujanos para realizar dichos procedimientos quirúrgicos pueden utilizar atlas cerebrales. Un atlas cerebral consta de imágenes del cerebro en las que expertos han identificado estructuras anatómicas y/o funcionales. Ya que no existen dos cerebros que sean iguales, es necesario adaptar el atlas cerebral a la anatomía específica del paciente. Mediante el registro con atlas cerebrales los expertos pueden identificar estructuras que difícilmente son visibles en la mayoría de modalidades de imagen médica.
En esta tesis se presenta un nuevo método de registro entre atlas cerebrales e imágenes de Resonancia Magnética. Las hipótesis de trabajo son las siguientes:
1.Un atlas cerebral deformable que utilice funciones de base radial con soporte compacto y Modelos Activos de Apariencia permitirá localizar estructuras cerebrales en imágenes de RM con un error de 1 a 2 mm. Error del mismo orden que los actuales procedimientos quirúrgicos.
2. Las funciones de base radial con soporte compacto presentan ventajas frente a las funciones de base radial como la Thin Plate Spline en el problema de registro de imágenes. Dichas ventajas son: localidad de la transformación, control sobre la naturaleza de la transformación, menor coste computacional, y mayor estabilidad numérica.
Para comprobar las hipótesis, se ha desarrollado:
Un nuevo método de registro no rígido de atlas cerebrales en imágenes de RM basado en el uso de diferentes funciones de base radial con soporte compacto, dentro de las cuales, la función de base radial con soporte compacto de Wu se ha utilizado por primera vez en el campo de registro de imágenes médicas.
Un método de segmentación del córtex y ventrículos en imágenes de RM basado en el atlas de Talairach-Tournoux junto con Modelos Activos de Apariencia.
Un algoritmo que permite la reconstrucción tridimensional del atlas de Talairach / Ortega Pérez, M. (2009). Método de registro no rígido basado en funciones de base radial. Aplicación a neurocirugía utilizando atlas cerebrales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6865
|
Page generated in 0.0214 seconds