Spelling suggestions: "subject:"lenguaje"" "subject:"lengua""
131 |
Diverse Contributions to Implicit Human-Computer InteractionLeiva Torres, Luis Alberto 13 November 2012 (has links)
Cuando las personas interactúan con los ordenadores, hay mucha
información que no se proporciona a propósito. Mediante el estudio de estas
interacciones implícitas es posible entender qué características de la interfaz
de usuario son beneficiosas (o no), derivando así en implicaciones para el
diseño de futuros sistemas interactivos.
La principal ventaja de aprovechar datos implícitos del usuario en
aplicaciones informáticas es que cualquier interacción con el sistema puede
contribuir a mejorar su utilidad. Además, dichos datos eliminan el coste de
tener que interrumpir al usuario para que envíe información explícitamente
sobre un tema que en principio no tiene por qué guardar relación con la
intención de utilizar el sistema. Por el contrario, en ocasiones las
interacciones implícitas no proporcionan datos claros y concretos. Por ello,
hay que prestar especial atención a la manera de gestionar esta fuente de
información.
El propósito de esta investigación es doble: 1) aplicar una nueva visión tanto
al diseño como al desarrollo de aplicaciones que puedan reaccionar
consecuentemente a las interacciones implícitas del usuario, y 2)
proporcionar una serie de metodologías para la evaluación de dichos
sistemas interactivos. Cinco escenarios sirven para ilustrar la viabilidad y la
adecuación del marco de trabajo de la tesis. Resultados empíricos con
usuarios reales demuestran que aprovechar la interacción implícita es un
medio tanto adecuado como conveniente para mejorar de múltiples maneras
los sistemas interactivos. / Leiva Torres, LA. (2012). Diverse Contributions to Implicit Human-Computer Interaction [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17803 / Palancia
|
132 |
Termination of Narrowing: Automated Proofs and Modularity PropertiesIborra López, José 11 February 2013 (has links)
En 1936 Alan Turing demostro que el halting problem, esto es, el problema de decidir
si un programa termina o no, es un problema indecidible para la inmensa mayoria de
los lenguajes de programacion. A pesar de ello, la terminacion es un problema tan
relevante que en las ultimas decadas un gran numero de tecnicas han sido desarrolladas
para demostrar la terminacion de forma automatica de la maxima cantidad posible de
programas. Los sistemas de reescritura de terminos proporcionan un marco teorico
abstracto perfecto para el estudio de la terminacion de programas. En este marco, la
evaluaci on de un t ermino consiste en la aplicacion no determinista de un conjunto de
reglas de reescritura.
El estrechamiento (narrowing) de terminos es una generalizacion de la reescritura
que proporciona un mecanismo de razonamiento automatico. Por ejemplo, dado un
conjunto de reglas que denan la suma y la multiplicacion, la reescritura permite calcular
expresiones aritmeticas, mientras que el estrechamiento permite resolver ecuaciones
con variables. Esta tesis constituye el primer estudio en profundidad de las
propiedades de terminacion del estrechamiento. Las contribuciones son las siguientes.
En primer lugar, se identican clases de sistemas en las que el estrechamiento tiene
un comportamiento bueno, en el sentido de que siempre termina. Muchos metodos
de razonamiento automatico, como el analisis de la semantica de lenguajes de programaci
on mediante operadores de punto jo, se benefician de esta caracterizacion.
En segundo lugar, se introduce un metodo automatico, basado en el marco teorico
de pares de dependencia, para demostrar la terminacion del estrechamiento en un
sistema particular. Nuestro metodo es, por primera vez, aplicable a cualquier clase
de sistemas.
En tercer lugar, se propone un nuevo metodo para estudiar la terminacion del
estrechamiento desde un termino particular, permitiendo el analisis de la terminacion
de lenguajes de programacion. El nuevo metodo generaliza los / Iborra López, J. (2010). Termination of Narrowing: Automated Proofs and Modularity Properties [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/19251 / Palancia
|
133 |
Engineering Regulated Open Multiagent SystemsGarcia Marques, Mª Emilia 06 May 2013 (has links)
Actualmente existe una creciente demanda de sistemas flexibles, adaptables y con gran escalabilidad para apoyar las interacciones de personas e instituciones distribuidas en entornos heterogéneos. Esto se debe principalmente al incremento en la necesidad de trabajo colaborativo y la descentralización de los procesos en muchos dominios de aplicación. Por lo general, estas aplicaciones de software deben seguir legislaciones y normativas específicas, es decir, las entidades que participan en el sistema tienen derechos, deberes y restricciones específicas. Al igual que en otros trabajos del área, en esta tesis se utiliza el término sistemas normativos abiertos para referirse a los sistemas de este tipo. El desarrollo de sistemas normativos abiertos puede producir importantes beneficios para las compañías que los usen, ya que permiten la comunicación de instituciones, entidades heterogéneas y diferentes dispositivos con el fin de lograr tanto los objetivos globales del sistema como los individuales de cada institución y entidad. Sin embargo, también hay algunas cuestiones importantes que potencialmente pueden complicar el análisis, diseño e implementación de estos sistemas. La mayoría de estos problemas están relacionados con la interoperabilidad de sus procesos, la privacidad, la combinación de los objetivos individuales y la combinación de las restricciones y la legislación de cada una de las entidades del sistema. Por lo tanto, es necesario el uso de métodos de ingeniería del software y herramientas de desarrollo para hacer frente a estos problemas y guiar a los desarrolladores durante el proceso de desarrollo.
La tecnología basada en sistemas multiagente (SMA) es considerada una buena candidata para el desarrollo de sistemas normativos abiertos. Durante los últimos años, el uso de las tecnologías SMA se ha incrementado no sólo en el ámbito académico, sino también en el desarrollo e implementación de aplicaciones industriales. Los SMA se han establecido como un paradigma de la ingeniería de software para la creación de sistemas adaptativos complejos, en
entornos distribuidos y heterogéneos. Esta tesis se centra en el análisis y diseño de sistemas normativos abiertos utilizando la tecnología SMA. Algunas metodologías SMA se dedican al desarrollo de sistemas de este tipo. Sin embargo, después de analizar en qué medida las metodologías SMA actuales soportan el análisis y el diseño de estos sistemas, podemos concluir que todavía hay importantes problemas a resolver en el área. Algunos de estos problemas son la integración del contexto normativo del sistema durante el proceso de desarrollo, la falta de directrices para identificar y formalizar este contexto normativo, la falta de técnicas de validación y verificación que garanticen la coherencia del diseño final respecto a los requisitos del sistema, la coherencia entre los objetivos individuales, y la coherencia de las restricciones de cada entidad respecto al contexto normativo del sistema global.
La principal aportación de esta tesis es una nueva metodología SMA llamada ROMAS (Sistemas Multiagente Regulados y Abiertos), que se centra en el análisis y diseño de procesos para el desarrollo de sistemas multiagente organizacionales, donde los agentes interactúan por medio de servicios estándares, y donde las relaciones sociales y contractuales se formalizan mediante normas y contratos. La metodología ROMAS define un proceso de desarrollo orientado a agentes y proporciona guías específicas para identificar y formalizar el marco normativo del sistema, así como las comunicaciones y los intercambios de servicios y recursos. ROMAS especifica tanto el comportamiento global del sistema como las características individuales de cada entidad. En la metodología ROMAS, agentes, roles y organizaciones se definen a través de una estructura social formal basada en un arquitectura orientada a servicios. Aquí, las organizaciones representan un conjunto de personas e instituciones que tienen que coor / Garcia Marques, ME. (2013). Engineering Regulated Open Multiagent Systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/28588 / TESIS
|
134 |
Optimizing recovery protocols for replicated database systemsGarcía Muñoz, Luis Hector 02 September 2013 (has links)
En la actualidad, el uso de tecnologías de informacíon y sistemas de cómputo tienen una gran influencia en la vida diaria. Dentro de los sistemas informáticos actualmente en uso, son de gran relevancia los sistemas distribuidos por la capacidad que pueden tener para escalar, proporcionar soporte para la tolerancia a fallos y mejorar el desempeño de aplicaciones y proporcionar alta disponibilidad.
Los sistemas replicados son un caso especial de los sistemas distribuidos. Esta tesis está centrada en el área de las bases de datos replicadas debido al uso extendido que en el presente se hace de ellas, requiriendo características como: bajos tiempos de respuesta, alto rendimiento en los procesos, balanceo de carga entre las replicas, consistencia e integridad de datos y tolerancia a fallos.
En este contexto, el desarrollo de aplicaciones utilizando bases de datos replicadas presenta dificultades que pueden verse atenuadas mediante el uso de servicios de soporte a mas bajo nivel tales como servicios de comunicacion y pertenencia. El uso de los servicios proporcionados por los sistemas de comunicación de grupos permiten ocultar los detalles de las comunicaciones y facilitan el diseño de protocolos de replicación y recuperación.
En esta tesis, se presenta un estudio de las alternativas y estrategias empleadas en los protocolos de replicación y recuperación en las bases de datos replicadas. También se revisan diferentes conceptos sobre los sistemas de comunicación de grupos y sincronia virtual. Se caracterizan y clasifican diferentes tipos de protocolos de replicación con respecto a la interacción o soporte que pudieran dar a la recuperación, sin embargo el enfoque se dirige a los protocolos basados en sistemas de comunicación de grupos.
Debido a que los sistemas comerciales actuales permiten a los programadores y administradores de sistemas de bases de datos renunciar en alguna medida a la consistencia con la finalidad de aumentar el rendimiento, es importante determinar el nivel de consistencia necesario. En el caso de las bases de datos replicadas la consistencia está muy relacionada con el nivel de aislamiento establecido entre las transacciones.
Una de las propuestas centrales de esta tesis es un protocolo de recuperación para un protocolo de replicación basado en certificación. Los protocolos de replicación de base de datos basados en certificación proveen buenas bases para el desarrollo de sus respectivos protocolos de recuperación cuando se utiliza el nivel de aislamiento snapshot. Para tal nivel de aislamiento no se requiere que los readsets sean transferidos entre las réplicas ni revisados en la fase de cetificación y ya que estos protocolos mantienen un histórico de la lista de writesets que es utilizada para certificar las transacciones, este histórico provee la información necesaria para transferir el estado perdido por la réplica en recuperación. Se hace un estudio del rendimiento del protocolo de recuperación básico y de la versión optimizada en la que se compacta la información a transferir. Se presentan los resultados obtenidos en las pruebas de la implementación del protocolo de recuperación en el middleware de soporte.
La segunda propuesta esta basada en aplicar el principio de compactación de la informacion de recuperación en un protocolo de recuperación para los protocolos de replicación basados en votación débil. El objetivo es minimizar el tiempo necesario para transfeir y aplicar la información perdida por la réplica en recuperación obteniendo con esto un protocolo de recuperación mas eficiente. Se ha verificado el buen desempeño de este algoritmo a través de una simulación. Para efectuar la simulación se ha hecho uso del entorno de simulación Omnet++. En los resultados de los experimentos puede apreciarse que este protocolo de recuperación tiene buenos resultados en múltiples escenarios.
Finalmente, se presenta la verificación de la corrección de ambos algoritmos de recuperación en el Capítulo 5. / Nowadays, information technology and computing systems have a great relevance
on our lives. Among current computer systems, distributed systems are
one of the most important because of their scalability, fault tolerance, performance
improvements and high availability.
Replicated systems are a specific case of distributed system. This Ph.D. thesis is
centered in the replicated database field due to their extended usage, requiring
among other properties: low response times, high throughput, load balancing
among replicas, data consistency, data integrity and fault tolerance.
In this scope, the development of applications that use replicated databases
raises some problems that can be reduced using other fault-tolerant building
blocks, as group communication and membership services. Thus, the usage
of the services provided by group communication systems (GCS) hides several
communication details, simplifying the design of replication and recovery protocols.
This Ph.D. thesis surveys the alternatives and strategies being used in the replication
and recovery protocols for database replication systems. It also summarizes
different concepts about group communication systems and virtual synchrony.
As a result, the thesis provides a classification of database replication
protocols according to their support to (and interaction with) recovery protocols,
always assuming that both kinds of protocol rely on a GCS.
Since current commercial DBMSs allow that programmers and database administrators
sacrifice consistency with the aim of improving performance, it is
important to select the appropriate level of consistency. Regarding (replicated)
databases, consistency is strongly related to the isolation levels being assigned
to transactions.
One of the main proposals of this thesis is a recovery protocol for a replication
protocol based on certification. Certification-based database replication protocols
provide a good basis for the development of their recovery strategies when
a snapshot isolation level is assumed. In that level readsets are not needed in
the validation step. As a result, they do not need to be transmitted to other
replicas. Additionally, these protocols hold a writeset list that is used in the
certification/validation step. That list maintains the set of writesets needed by the recovery protocol. This thesis evaluates the performance of a recovery
protocol based on the writeset list tranfer (basic protocol) and of an optimized
version that compacts the information to be transferred.
The second proposal applies the compaction principle to a recovery protocol
designed for weak-voting replication protocols. Its aim is to minimize the time
needed for transferring and applying the writesets lost by the recovering replica,
obtaining in this way an efficient recovery. The performance of this recovery
algorithm has been checked implementing a simulator. To this end, the Omnet++
simulating framework has been used. The simulation results confirm
that this recovery protocol provides good results in multiple scenarios.
Finally, the correction of both recovery protocols is also justified and presented
in Chapter 5. / García Muñoz, LH. (2013). Optimizing recovery protocols for replicated database systems [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31632 / TESIS
|
135 |
Analysis Techniques for Concurrent Programming LanguagesTamarit Muñoz, Salvador 02 September 2013 (has links)
Los lenguajes concurrentes est an cada d a m as presentes en nuestra sociedad,
tanto en las nuevas tecnolog as como en los sistemas utilizados de manera cotidiana. M as a un, dada la actual distribuci on de los sistemas y su arquitectura interna,
cabe esperar que este hecho siga siendo una realidad en los pr oximos a~nos. En
este contexto, el desarrollo de herramientas de apoyo al desarrollo de programas
concurrentes se vuelve esencial. Adem as, el comportamiento de los sistemas concurrentes es especialmente dif cil de analizar, por lo que cualquier herramienta que
ayude en esta tarea, a un cuando sea limitada, ser a de gran utilidad. Por ejemplo, podemos encontrar herramientas para la depuraci on, an alisis, comprobaci on,
optimizaci on, o simpli caci on de programas. Muchas de ellas son ampliamente
utilizadas por los programadores hoy en d a.
El prop osito de esta tesis es introducir, a trav es de diferentes lenguajes de
programaci on concurrentes, t ecnicas de an alisis que puedan ayudar a mejorar la
experiencia del desarrollo y publicaci on de software para modelos concurrentes.
En esta tesis se introducen tanto an alisis est aticos (aproximando todas las posibles ejecuciones) como din amicos (considerando una ejecuci on en concreto). Los
trabajos aqu propuestos di eren lo su ciente entre s para constituir ideas totalmente independientes, pero manteniendo un nexo com un: el hecho de ser un
an alisis para un lenguaje concurrente. Todos los an alisis presentados han sido
de nidos formalmente y se ha probado su correcci on, asegurando que los resultados obtenidos tendr an el grado de abilidad necesario en sistemas que lo requieran,
como por ejemplo, en sistemas cr ticos. Adem as, se incluye la descripci on de las
herramientas software que implementan las diferentes ideas propuestas. Esto le da
al trabajo una utilidad m as all a del marco te orico, permitiendo poner en pr actica
y probar con ejemplos reales los diferentes an alisis.
Todas las ideas aqu presentadas constituyen, por s mismas, propuestas aplicables en multitud de contextos y problemas actuales. Adem as, individualmente sirven de punto de partida para otros an alisis derivados, as como para la adaptaci on
a otros lenguajes de la misma familia. Esto le da un valor a~nadido a este trabajo,
como bien atestiguan algunos trabajos posteriores que ya se est an bene ciando de
los resultados obtenidos en esta tesis. / Concurrent languages are increasingly present in our society, both in new
technologies and in the systems used on a daily basis. Moreover, given the
current systems distribution and their internal architecture, one can expect
that this remains so in the coming years. In this context, the development of
tools to support the implementation of concurrent programs becomes essential.
Futhermore, the behavior of concurrent systems is particularly difficult
to analyse, so that any tool that helps in this task, even if in a limited way,
will be very useful. For example, one can find tools for debugging, analysis,
testing, optimisation, or simplification of programs, which are widely used
by programmers nowadays.
The purpose of this thesis is to introduce, through various concurrent programming
languages, some analysis techniques that can help to improve the
experience of the software development and release for concurrent models.
This thesis introduces both static (approximating all possible executions) and
dynamic (considering a specific execution) analysis. The topics considered
here differ enough from each other to be fully independent. Nevertheless,
they have a common link: they can be used to analyse properties of a concurrent
programming language. All the analyses presented here have been
formally defined and their correctness have been proved, ensuring that the
results will have the reliability degree which is needed for some systems (for
instance, for critical systems). It also includes a description of the software
tools that implement the different ideas proposed. This gives the work a usefulness
well beyond the theoretical aspect, allowing us to put it in practice
and to test the different analyses with real-world examples All the ideas here presented are, by themselves, approaches that can be applied
in many current contexts and problems. Moreover, individually they
serve as a starting point for other derived analysis, as well as for the adaptation
to other languages of the same family. This gives an added value to
this work, a fact confirmed by some later works that are already benefiting
from the results obtained in this thesis. / Tamarit Muñoz, S. (2013). Analysis Techniques for Concurrent Programming Languages [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/31651 / TESIS
|
136 |
Desarrollo y validación de sistemas de Realidad Aumentada para edutainment y dispositivos móvilesFurió Ferri, David 04 February 2014 (has links)
La Realidad Aumentada (RA) es una tecnología con gran auge en los últimos
años y, en especial, en dispositivos móviles. Es en dichos dispositivos móviles
en los que el hardware y software disponibles presentan mayores diferencias
respecto a sus predecesores. Diferencias que hacen que actualmente se puedan
ejecutar correctamente aplicaciones de RA en tales dispositivos. La RA consiste
en fusionar imagen real con objetos virtuales.
M-learning es una metodología de enseñanza que hace uso de dispositivos
móviles. La enseñanza a través de m-learning presenta ciertas ventajas respecto
a la enseñanza tradicional, como, por ejemplo, la capacidad de seguir aprendiendo
fuera de los entornos educativos. Por otra parte, edutainment se refiere
al contenido que se crea para educar y divertir al mismo tiempo.
El objetivo principal de esta tesis es el desarrollo y validación de juegos educativos
para niños en dispositivos móviles. Los juegos desarrollados combinan
m-learning, edutainment y RA. Los juegos incluyen minijuegos con RA y sin
RA. Para la interacción utilizan manipulación física (tangible), pantalla táctil o
teclado, y acelerómetro. En los estudios realizados, los juegos se comparan con
juego/enseñanza tradicional y otros dispositivos (Tablet PC) con el fin de observar
la eficacia que tienen con respecto al conocimiento adquirido, la diversión, la
facilidad de uso, y su influencia en los niños. Como dispositivos móviles se han
utilizado el Nokia N95 8Gb y el iPhone 3GS. Estos teléfonos poseen las características
mínimas necesarias para desarrollar juegos de RA (cámara, aceleración
gráfica, etc.). Además, el iPhone presenta capacidades táctiles y acelerómetro,
que permiten una interacción más completa y variada.
Se han desarrollado tres juegos educativos para niños con edades comprendidas
entre 8 y 13 años. El juego ARGreenet, desarrollado para el teléfono Nokia
N95 8Gb, trata de concienciar a los niños acerca del problema del cambio climático
y de cómo pueden reducir su impacto ambiental mediante el reciclaje. Para
el iPhone, se han desarrollado dos juegos. El primero de ellos, es un juego de
multiculturalidad donde los niños conocen alimentos, monumentos y animales
típicos de los continentes más pobres del mundo. El segundo juego desarrollado
para el iPhone trata sobre el ciclo del agua.
Se han llevado a cabo un total de seis estudios para determinar la eficacia
de los juegos con respecto al aprendizaje, facilidad de uso, diversión, satisfacción,
e influencia, en general, que tienen en los niños. En el primer estudio, se
comparó la versión de RA (ARGreenet) con una versión sin RA (BasicGreenet).
En el segundo estudio se comparó la versión individual de ARGreenet con una
versión colaborativa del mismo juego (TeamARGreenet). En el tercer estudio
se compararon tres versiones de ARGreenet: una individual, una colaborativa y
una competitiva. Los resultados de estos tres estudios indican que ARGreenet
influye en los niños de forma similar a la versión sin RA y que no hay diferencias
estadísticas significativas entre las distintas versiones de ARGreenet. A pesar de
este hecho, los niños prefirieron ARGreenet sobre BasicGreenet, y la versión
competitiva sobre la individual y la colaborativa.
En el cuarto estudio se comparó el juego de multiculturalidad desarrollado
para el iPhone con juegos tradicionales. Los resultados mostraron que los niños
adquirieron conocimientos similares tanto con el juego desarrollado como con el
tradicional. Además, una gran mayoría de niños indicó que prefería el juego del
iPhone a los juegos tradicionales y que les gustaría volver a jugar de nuevo. Los
niños obtuvieron resultados similares independientemente de que utilizaran el
juego autónomo (iPhone) o el juego guiado (juegos tradicionales).
En el quinto estudio se comparó el juego del ciclo del agua con dos dispositivos
móviles diferentes: un iPhone y un Tablet PC. De los resultados se puede
observar que las diferentes características de los dispositivos (tamaño de la pantalla
y peso) no influyeron en los niños con respecto al conocimiento adquirido.
En el sexto estudio se comparó el juego del ciclo del agua con una lección de
clase tradicional. De los resultados se puede observar que el juego del ciclo del
agua demostró ser igual de eficaz que la lección de clase con respecto al conocimiento
adquirido. Pero, además, el juego del iPhone consiguió motivar más a
los niños.
De los estudios realizados se han extraído las siguientes conclusiones generales:
¿ Los dispositivos móviles poseen características adecuadas (cámara, pantalla
táctil, acelerómetro, GPS) para ayudar en el proceso de aprendizaje.
¿ La inclusión de RA en el juego permite a los niños explorar lo que se está
aprendiendo desde diferentes perspectivas, de forma fácil e intuitiva.
¿ A la mayoría de los niños les gustaría utilizar RA en clase como herramienta
de aprendizaje.
¿ Los juegos educativos en dispositivos móviles son efectivos a la hora de
transmitir conocimiento.
¿ El tipo de juego desarrollado facilita versatilidad en el proceso de aprendizaje,
ya que con un dispositivo móvil se puede aprender en cualquier
lugar, sin que se precise supervisión. Por lo tanto, podrían utilizarse como
complemento a las clases tradicionales.
¿ El uso de dispositivos móviles con diferentes características físicas (tamaño
de la pantalla y peso) no influye significativamente en el aprendizaje
adquirido. Pero, son aspectos a considerar en función de la edad. / Furió Ferri, D. (2014). Desarrollo y validación de sistemas de Realidad Aumentada para edutainment y dispositivos móviles [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/35329 / TESIS
|
137 |
SUPPORTING MULTIPLE ISOLATION LEVELS IN REPLICATED ENVIRONMENTSBernabe Gisbert, Jose Maria 20 March 2014 (has links)
La replicación de bases de datos aporta fiabilidad y escalabilidad aunque hacerlo
de forma transparente no es una tarea sencilla. Una base de datos replicada es
transparente si puede reemplazar a una base de datos centralizada tradicional sin
que sea necesario adaptar el resto de componentes del sistema. La transparencia
en bases de datos replicadas puede obtenerse siempre que (a) la gestión de la
replicación quede totalmente oculta a dichos componentes y (b) se ofrezca la
misma funcionalidad que en una base de datos tradicional.
Para mejorar el rendimiento general del sistema, los gestores de bases de datos
centralizadas actuales permiten ejecutar de forma concurrente transacciones
bajo distintos niveles de aislamiento. Por ejemplo, la especificación del benchmark
TPC-C permite la ejecución de algunas transacciones con niveles de aislamiento
débiles. No obstante, este soporte todavía no está disponible en los
protocolos de replicación. En esta tesis mostramos cómo estos protocolos pueden
ser extendidos para permitir la ejecución de transacciones con distintos niveles
de aislamiento. / Bernabe Gisbert, JM. (2014). SUPPORTING MULTIPLE ISOLATION LEVELS IN REPLICATED ENVIRONMENTS [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/36535 / TESIS
|
138 |
Registro multimodal de mamografías: resonancia magnética y rayos-xSolves Llorens, Juan Antonio 21 July 2014 (has links)
Solves Llorens, JA. (2014). Registro multimodal de mamografías: resonancia magnética y rayos-x [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/38940 / TESIS
|
139 |
Determining the Biomechanical Behavior of the Liver Using Medical Image Analysis and Evolutionary ComputationMartínez Martínez, Francisco 03 September 2014 (has links)
Modeling the liver deformation forms the basis for the development of
new clinical applications that improve the diagnosis, planning and guidance
in liver surgery. However, the patient-specific modeling of this organ and its
validation are still a challenge in Biomechanics. The reason is the difficulty
to measure the mechanical response of the in vivo liver tissue. The current
approach consist of performing minimally invasive or open surgery aimed at
estimating the elastic constant of the proposed biomechanical models.
This dissertation presents how the use of medical image analysis and evolutionary
computation allows the characterization of the biomechanical behavior
of the liver, avoiding the use of these minimally invasive techniques. In particular,
the use of similarity coefficients commonly used in medical image analysis
has permitted, on one hand, to estimate the patient-specific biomechanical
model of the liver avoiding the invasive measurement of its mechanical response.
On the other hand, these coefficients have also permitted to validate
the proposed biomechanical models.
Jaccard coefficient and Hausdorff distance have been used to validate the
models proposed to simulate the behavior of ex vivo lamb livers, calculating
the error between the volume of the experimentally deformed samples of the
livers and the volume from biomechanical simulations of these deformations.
These coefficients has provided information, such as the shape of the samples
and the error distribution along their volume. For this reason, both coefficients
have also been used to formulate a novel function, the Geometric Similarity
Function (GSF). This function has permitted to establish a methodology to
estimate the elastic constants of the models proposed for the human liver using
evolutionary computation. Several optimization strategies, using GSF as cost
function, have been developed aimed at estimating the patient-specific elastic
constants of the biomechanical models proposed for the human liver.
Finally, this methodology has been used to define and validate a biomechanical
model proposed for an in vitro human liver. / Martínez Martínez, F. (2014). Determining the Biomechanical Behavior of the Liver Using Medical Image Analysis and Evolutionary Computation [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/39337 / TESIS
|
140 |
A new approach for the in-vivo characterization of the biomechanical behavior of the breast and the corneaLago Ángel, Miguel Ángel 13 November 2014 (has links)
The characterization of the mechanical behavior of soft living tissues is a big challenge in Biomechanics. The difficulty arises from both the access to the tissues and the manipulation in order to know their physical properties. Currently, the biomechanical characterization of the organs is mainly performed by testing ex-vivo samples or by means of indentation tests. In the first case, the obtained behavior does not represent the real behavior of the organ. In the second case, it is only a representation of the mechanical response of the indented areas. The purpose of the research reported in this thesis is the development of a methodology to in-vivo characterize the biomechanical behavior of two different organs: the breast and the cornea. The proposed methodology avoids invasive measurements to obtain the mechanical response of the organs and is able to completely characterize of the biomechanical behavior of them.
The research reported in this thesis describes a methodology to in-vivo characterize the biomechanical behavior of the breast and the cornea. The estimation of the elastic constants of the constitutive equations that define the mechanical behavior of these organs is performed using an iterative search algorithm which optimizes these parameters. The search is based on the iterative variation of the elastic constants of the model in order to increase the similarity between a simulated deformation of the organ and the real one. The similarity is measured by means of a volumetric similarity function which combines overlap-based coefficients and distance-based coefficients. Due to the number of parameters to be characterized as well as the non-convergences that the solution may present in some regions, genetic heuristics were chosen to drive the search algorithm.
In the case of the breast, the elastic constants of an anisotropic hyperelastic neo-Hookean model proposed to simulate the compression of the breast during an MRI-guided biopsy were estimated. Results from this analysis showed that the proposed algorithm accurately found the elastic constants of the proposed model, providing an average relative error below 10%. The methodology was validated using breast software phantoms. Nevertheless, this methodology can be easily transferred into its use with real breasts. In the case of the cornea, the elastic constants of a hyperelastic second-order Ogden model were estimated for 24 corneas corresponding to 12 patients. The finite element method was applied in order to simulate the deformation of the human corneas due to non-contact tonometry. The iterative search was applied in order to estimate the elastic constants of the model which approximates the most the simulated deformation to the real one. Results showed that these constants can be estimated with an error of about 5%.
After the results obtained for both organs, it can be concluded that the iterative search methodology presented in this thesis allows the \textit{in-vivo} estimation the patient-specific elastic constants of the constitutive biomechanical models that govern the biomechanical behavior of these two organs. / Lago Ángel, MÁ. (2014). A new approach for the in-vivo characterization of the biomechanical behavior of the breast and the cornea [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/44116 / TESIS
|
Page generated in 0.0494 seconds