• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 32
  • 30
  • 5
  • Tagged with
  • 67
  • 41
  • 41
  • 37
  • 27
  • 24
  • 23
  • 20
  • 17
  • 17
  • 16
  • 15
  • 14
  • 12
  • 11
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
51

Un sistema para el mantenimiento de almacenes de datos

García Gerardo, Clemente 04 July 2008 (has links)
Un almacén de datos es una base de datos diseñada para dar soporte al proceso de toma de decisiones en una organización. Un sistema de almacén de datos integra en un único repositorio, información histórica procedente de distintas fuentes de datos operacionales de la organización o externas a ella. Para que el almacén de datos sea en todo momento un reflejo fiel de la organización a la que sirve, debe ser actualizado periódicamente. Este proceso puede consumir muchos recursos, y en algunos casos inhabilitar el almacén de datos para los usuarios. En organizaciones donde el sistema debe estar disponible para los analistas en todo momento, el mantenimiento del almacén se convierte en un punto crítico del sistema. Por este motivo la investigación en estrategias eficientes de mantenimiento de almacenes de datos ha recibido la atención de los investigadores desde la aparición de esta tecnología. El mantenimiento de un almacén de datos se realiza en tres fases: extracción de datos de las fuentes, transformación de los datos y actualización del almacén. En este trabajo de tesis se han abordado, las fases de transformación y principalmente la fase de actualización. Para la fase de transformación se ha desarrollado un sistema que permite realizar tareas de limpieza moderada de los datos, integración de formato e integración semántica. Pero, el trabajo principal se ha centrado en la fase de actualización, para ella se han definido e implementado dos algoritmos que permiten realizar la actualización del almacén de datos de forma incremental y en línea, es decir evitando inhabilitar el almacén de datos durante el mantenimiento. Los algoritmos se basan en una estrategia multiversión, que permite mantener un número ilimitado de versiones de los datos actualizados, permitiendo de esta manera que los usuarios accedan a una misma versión del almacén mientras éste se está actualizando. / García Gerardo, C. (2008). Un sistema para el mantenimiento de almacenes de datos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2505 / Palancia
52

A web engineering approach for the development of business process-driven web applications

Torres Bosch, María Victoria 04 August 2008 (has links)
Actualmente, la World Wide Web se ha convertido en la plataforma más común para llevar a cabo el desarrollo de aplicaciones corporativas. Estas aplicaciones reciben el nombre de aplicaciones Web y entre otras funciones, deben de dar soporte a los Procesos de Negocio (PN) definidos por las corporaciones. Esta tesis presenta un método de Ingeniería Web que permite el modelado y la construcción sistemática de aplicaciones Web que soportan la ejecución de PN. En este trabajo se conciben los PN desde un punto de vista más amplio que el abordado por otros métodos de Ingeniería Web. El tipo de PN abordados incluye tanto procesos cortos como largos. A grosso modo, esta concepción más amplia permite considerar procesos que involucran diferentes participantes (personas y/o sistemas) los cuales cooperan para llevar a cabo un objetivo particular. Además, dependiendo del tipo de proceso que se esté ejecutando (corto o largo), la interacción del usuario con el sistema deberá adaptarse a cada caso. El método presentado en esta tesis ha sido desarrollado basándose en el Desarrollo de Software Dirigido por Modelos. De esta forma, el método propone un conjunto de modelos que permiten representar los diferentes aspectos que caracterizan las aplicaciones Web que soportan la ejecución de PN. Una vez el sistema ha sido representado en los modelos correspondientes, mediante la aplicación de transformación de modelos se obtiene otros modelos (transformaciones de modelo-a-modelo) e incluso el código que representa el sistema modelado en términos de un lenguaje de implementación (transformaciones de modelo-a-texto). El método propuesto en esta tesis está soportado por una herramienta llamada BIZZY. Esta herramienta ha sido desarrollada en el entorno de Eclipse y cubre el proceso de desarrollo desde la fase de modelado hasta la generación de código. En particular, el código generado corresponde con el framework Web Tapestry (framework que genera aplicaciones Web en Java) y con WS-BPEL, / Torres Bosch, MV. (2008). A web engineering approach for the development of business process-driven web applications [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/2933 / Palancia
53

Un método de desarrollo de hipermedia dirigido por modelos

Solís Pineda, Carlos 22 December 2008 (has links)
Esta tesis presenta al Model Driven Hypermedia Development Method (MDHDM). MDHDM es un método de desarrollo de hipermedia basado en el modelado de procesos y la ingeniería dirigida por modelos. La conjunción de hipertexto y multimedia, por un lado, y la popularización de la Web, por otro, generaron desafíos que los métodos tradicionales no eran capaces de resolver. Entre ellos destaca el diseño y control de la navegación por espacios complejos de información, que ha llevado a los métodos de diseño de hipermedia y de la Ingeniería Web a presentar el modelo navegacional como la gran diferencia frente a los métodos tradicionales. Sin embargo, en la mayoría de los casos el modelo navegacional se deriva de los modelos estructurales. En MDHDM el eje central del modelado conceptual lo constituye el modelado del proceso de negocio, debido a que permiten representar la naturaleza dinámica de la realidad. El modelo navegacional de MDHDM está compuesto por las estructuras navegacionales derivadas del modelos de proceso y que son llamadas vistas navegacionales y enlaces fuertes. Este modelo se complementa con las estructuras navegacionales derivadas del modelo estructural compuesto por clases navegacionales, estructuras de acceso y enlaces débiles. En MDHDM se definen los metamodelos, transformaciones y marcas para poder generar automáticamente el modelo navegacional a partir de los modelos de proceso y estructural. Además, se comprueba la correcta construcción de los modelos a través de restricciones OCL. Los pasos siguientes al diseño navegacional: el diseño de la interfaz abstracta de usuario y la implementación también se abordan. Del primero se proporciona un metamodelo y para la implementación se han tratado algunos modelos específicos de la plataforma. Además, en la tesis se presentan dos casos de estudio. / Solís Pineda, C. (2008). Un método de desarrollo de hipermedia dirigido por modelos [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/3884 / Palancia
54

Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas

Fernández Llatas, Carlos 06 May 2009 (has links)
Describir los mejores procesos para ejecutar correctamente una estrategia de una forma eficiente y con calidad no es siempre una tarea fácil. La estandarizaci ón de procesos en general y de Vías Clínicas en particular requiere de potentes herramientas de especificación e implementación que apoyen a los expertos en diseño. La utilización de modelos de Flujos de Trabajo (del inglés Work ows) facilita a los expertos en diseño la creación las reglas de ejecución de sus sistemas como si fueran programadores. Aún así debido a la gran mutabilidad de los procesos reales, es muy difícil conocer como los procesos se están ejecutando en la realidad. La utilización de técnicas de reconocimiento de formas pueden ayudar a los expertos en procesos a inferir, a partir de muestras de ejecución pasadas, modelos que expliquen la forma en la que estos procesos están efectivamente ejecutándose. Este paradigma es conocido como Aprendizaje de Flujos de Trabajo (del inglés Work ow Mining). Los cambios de estado en los procesos de cuidado existentes en las Vías Clínicas se basan en los resultados de las acciones. Los modelos actuales de Aprendizaje de Flujos de Trabajo no recogen esta información en sus corpus. Por eso, los actuales sistemas de aprendizaje no cubren las necesidades de problemas complejos como es el caso de las Vías Clínicas. En esta Tesis se van a estudiar los modelos de representación, interpretación y aprendizaje de Flujos de Trabajo con la intención de proponer un modelo adecuado para resolver los problemas que impiden a los diseñadores de procesos complejos, como Vías Clínicas, utilizar técnicas de Aprendizaje de Flujos de Trabajo. Para ello se va a definir un nuevo paradigma adecuado para el apoyo al diseño de Vías Clínicas, además de proporcionar herramientas para su uso. Por esto en esta Tesis se presenta además un modelo de representación de Flujos de Trabajo con una alta expresividad y legibilidad, una herramienta software capaz de ejecutar y simular Flujos de Trab / Fernández Llatas, C. (2009). Representación, interpretación y aprendizaje de flujos de trabajo basado en actividades para la estandarización de vías clínicas [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4562 / Palancia
55

Métricas fuzzy. Aplicaciones al filtrado de imágenes en color

López Crevillén, Andrés 12 March 2010 (has links)
Uno de los problemas más importantes en Topología Fuzzy es obtener un concepto apropiado de espacio métrico fuzzy. Este problema ha sido abordado por muchos autores desde diferentes puntos de vista. En particular, es de gran interés la noción de métrica fuzzy sobre un conjunto que, con la ayuda de t-normas continuas, introdujeron y estudiaron George y Veeramani. En el presente trabajo hemos continuado con el estudio de estos espacios métricos fuzzy, hemos aportado nuevos ejemplos que nos ayudarán a desarrollar la teoría y hemos tratado otras cuestiones relacionadas con la convergencia, la continuidad y dos tipos de métricas fuzzy llamadas principales y fuertes. En la presente tesis, aportamos nuevos ejemplos de métricas fuzzy y en algunos casos obtenemos que las métricas fuzzy más habituales en la literatura sobre el tema, son casos particulares de las que aquí damos. Tratamos también la extensión de dos métricas fuzzy estacionarias cuando coinciden en la intersección de dos conjuntos. También hemos continuado con el estudio del concepto de p-convergencia en espacios métricos fuzzy introducido por D. Mihet, estudiando algunos aspectos relativos a él y damos una caracterización de aquellos espacios métricos fuzzy, que llamamos principales, en los que la familia de las sucesiones p-convergentes coincide con la familia de las sucesiones convergentes. Además damos un ejemplo de espacio métrico fuzzy no completable y no principal. Definimos el concepto de aplicación t-continua entre espacios métricos fuzzy, que es más fuerte que el de continuidad y revisamos algunas cuestiones referentes a este tipo de aplicaciones, obteniendo como resultado que si el espacio métrico fuzzy de partida es principal entonces las aplicaciones t-continuas coinciden con las aplicaciones continuas. En lo que respecta al capítulo de métricas fuertes, estudiamos una clase de métricas fuzzy estacionarias que incluye la clase de las ultramétricas fuzzy estacionarias. / López Crevillén, A. (2010). Métricas fuzzy. Aplicaciones al filtrado de imágenes en color [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/7351 / Palancia
56

Integración de los modelos de simulación en el diseño de los ensayos clínicos

Abbas, Ismail 26 April 2004 (has links)
Los ensayos clínicos son a menudo muy costosos y pueden tener una duración considerable. Un error en el diseño de un ensayo clínico puede implicar la imposibilidad de verificar la hipótesis que se pretendía probar por falta de significación estadística de los resultados, lo que supondrá una pérdida de recursos y un retraso en el proceso de introducción del nuevo producto farmacéutico en el mercado.En esta tesis se plantea el diseño de un ensayo clínico de medicamentos como un problema económico de optimización. El criterio de optimización concreto puede variar según la perspectiva y el marco de decisión. Desde una perspectiva empresarial de maximización del beneficio, el ensayo clínico puede verse como una inversión con unos costes relativamente predecibles y unos beneficios futuros mucho más inciertos. Objetivos e hipótesis de la tesis El objetivo principal de este trabajo es el análisis y desarrollo de modelos de simulación para la optimización del diseño de los ensayos clínicos. Con este fin se desarrollan diferentes estructuras de modelos estocásticos asistidos por ordenador que permiten representar adecuadamente el ensayo clínico y simular los resultados con diseños e hipótesis alternativas antes de su realización. Con ello se pretende determinar el diseño que optimiza el coste y el tiempo de desarrollo de un ensayo clínico, analizando los resultados hipotéticos antes de su realización real.La hipótesis que se pretende probar es que el desarrollo y la aplicación de los modelos de simulación propuestos permiten alcanzar de forma más eficiente los objetivos de los ensayos clínicos, es decir, obtener con una determinada probabilidad de éxito los resultados buscados -lo que en el caso de nuevos productos es una condición necesaria para su comercialización- en un periodo de tiempo y con un coste óptimos. Metodología El modelo conceptual general para la optimización de un ensayo clínico que proponemos en esta tesis consiste en dos sub-modelos: un sub-modelo de reclutamiento de pacientes y de asignación del tratamiento y un sub-modelo de seguimiento que describe la evolución de la variable o variables de proceso del ensayo clínico y las variables finales de respuesta. La validación del modelo conceptual es interdisciplinaria y es necesaria para comprobar que los objetivos y las hipótesis se corresponden con los establecidos en el protocolo. Resultados de la investigación Los resultados de esta tesis se han aplicado a un ensayo clínico de lipodistrofia en el tratamiento con antiretrovirales (ARV). Por ello, se ha construido, validado y seleccionado un modelo estadístico cuyos resultados se ajustan lo mejor posible a los resultados del ensayo clínico de lipodistrofia. Posteriormente, se aplica este modelo para la optimización del diseño de un ensayo clínico futuro. Comentarios e investigaciones futuras La revisión realizada de la literatura ha permitido constatar que la mayoría de los enfoques que se aplican en la actualidad al diseño de ensayos clínicos, incluyendo los que utilizan modelos de simulación, no tienen en cuenta todos los aspectos relevantes para la optimización del diseño conjuntamente. Lo que propone precisamente esta tesis como principal aportación es integrar todos estos aspectos en un modelo general de simulación para la optimización del diseño de un ensayo clínico según criterios y supuestos explícitos. Este enfoque permite desarrollar el modelo general de optimización en el que se plantee el diseño óptimo en términos de maximización del beneficio neto esperado. Según el promotor, los beneficios serían: o bien el beneficio económico, o bien los beneficios en salud, que podrían, eventualmente, expresarse en unidades monetarias mediante el método de la disponibilidad a pagar u otros enfoques habituales en evaluación económica. / Clinical trials are frequently very expensive and can last quite long. An error in the design of a clinical trial can imply the impossibility of confirming the hypothesis because of the fact results are lacking in statistical significance. This will mean to incur losses in resources and a delay in the introduction of the new pharmaceutical product into the market.In this thesis the clinical trial design is conceived as an economic optimisation problem. The concrete optimisation criterion might depend on the approach and the decision context. From the market point of view that seeks maximising benefits, clinical trials can be seen as an investment with relatively predictable costs but a much more uncertain future benefits. Objectives and hypothesis of this thesis The main objective of this work is analysing and developing simulation models for the optimisation of clinical trial design. We have thus developed different computer-assisted stochastic models structures which allow conveniently to represent the clinical trial and simulate the results with alternative designs and hypothesis before carrying it out. The ultimate goal is determining which design optimises cost and clinical trial duration, by analysing hypothetical results before they are actually put into practice.The hypothesis wanted to be proved is that the development and application of the proposed simulation models allow more efficiently achieve the objectives formulated in a clinical trial, i.e. to obtain the sought results with a given success probability -what, as far as new pharmaceutical products is concerned, is a necessary condition before their commercialisation- with optimal cost and time span. Methods The general conceptual model to optimise a clinical trial we proposes in this thesis consists in two sub-models: a recruitment of patients and treatment assignment sub-model and a follow-up sub-model, which describes the evolution of the clinical trial process and end-point variable or variables. The validation of the conceptual model is interdisciplinary and it is necessary to verify that the objectives and the hypothesis to correspond closely to those established in the protocol. Research results The results of this thesis have been applied to a clinical trial of lipodystrophy in the antrretroviral treatment (ARV). It has been build up, validated and selected a statistic model which results adjust as good as possible to the results of clinical trial of lipodystrophy. Afterwards, this same model is applied for the design optimisation of a future clinical trial. Discussion and future research The review of literature has allowed us to realise that most of the approaches applied nowadays to the design of clinical trials, including those that use simulation models, do not take into account the relevant aspects for the optimisation of the design altogether. What this thesis suggests precisely as main contribution is integrating all these aspects in a general simulation model for the design optimisation of a clinical trial according to explicit criteria and assumptions. This approach allows developing a general model of optimisation where the optimal design is seen in terms of maximisation of the expected net benefit. According to the sponsor, the benefits would be: the economic benefit, or the benefits to health, which could, eventually, be expressed in monetary units based on the willingness to pay method or other usual economic evaluation methods.
57

Design and Analysis of Multidimensional Data Structures

Duch Brown, Amàlia 09 December 2004 (has links)
Aquesta tesi està dedicada al disseny i a l'anàlisi d'estructures de dades multidimensionals, és a dir, estructures de dades que serveixen per emmagatzemar registres $K$-dimensionals que solen representar-se com a punts en l'espai $[0,1]^K$. Aquestes estructures tenen aplicacions en diverses àrees de la informàtica com poden ser els sistemes d'informació geogràfica, la robòtica, el processament d'imatges, la world wide web, el data mining, entre d'altres. Les estructures de dades multidimensionals també es poden utilitzar com a indexos d'estructures de dades que emmagatzemen, possiblement en memòria externa, dades més complexes que els punts.Les estructures de dades multidimensionals han d'oferir la possibilitat de realitzar operacions d'inserció i esborrat de claus dinàmicament, a més de permetre realitzar cerques anomenades associatives. Exemples d'aquest tipus de cerques són les cerques per rangs ortogonals (quins punts cauen dintre d'un hiper-rectangle donat?) i les cerques del veí més proper (quin és el punt més proper a un punt donat?).Podem dividir les contribucions d'aquesta tesi en dues parts: La primera part està relacionada amb el disseny d'estructures de dades per a punts multidimensionals. Inclou el disseny d'arbres binaris $K$-dimensionals al·leatoritzats (Randomized $K$-d trees), el d'arbres quaternaris al·leatoritzats (Randomized quad trees) i el d'arbres multidimensionals amb punters de referència (Fingered multidimensional trees).La segona part analitza el comportament de les estructures de dades multidimensionals. En particular, s'analitza el cost mitjà de les cerques parcials en arbres $K$-dimensionals relaxats, i el de les cerques per rang en diverses estructures de dades multidimensionals. Respecte al disseny d'estructures de dades multidimensionals, proposem algorismes al·leatoritzats d'inserció i esborrat de registres per als arbres $K$-dimensionals i per als arbres quaternaris. Aquests algorismes produeixen arbres aleatoris, independentment de l'ordre d'inserció dels registres i desprès de qualsevol seqüència d'insercions i esborrats. De fet, el comportament esperat de les estructures produïdes mitjançant els algorismes al·leatoritzats és independent de la distribució de les dades d'entrada, tot i conservant la simplicitat i la flexibilitat dels arbres $K$-dimensionals i quaternaris estàndard. Introduïm també els arbres multidimensionals amb punters de referència. Això permet que les estructures multidimensionals puguin aprofitar l'anomenada localitat de referència en cerques associatives altament correlacionades.I respecte de l'anàlisi d'estructures de dades multidimensionals, primer analitzem el cost esperat de las cerques parcials en els arbres $K$-dimensionals relaxats. Seguidament utilitzem aquest resultat com a base per a l'anàlisi de les cerques per rangs ortogonals, juntament amb arguments combinatoris i geomètrics. D'aquesta manera obtenim un estimat asimptòtic precís del cost de les cerques per rangs ortogonals en els arbres $K$-dimensionals aleatoris. Finalment, mostrem que les tècniques utilitzades es poden estendre fàcilment a d'altres estructures de dades i per tant proporcionem una anàlisi exacta del cost mitjà de cerques per rang en estructures de dades com són els arbres $K$-dimensionals estàndard, els arbres quaternaris, els tries quaternaris i els tries $K$-dimensionals. / Esta tesis está dedicada al diseño y al análisis de estructuras de datos multidimensionales; es decir, estructuras de datos específicas para almacenar registros $K$-dimensionales que suelen representarse como puntos en el espacio $[0,1]^K$. Estas estructuras de datos tienen aplicaciones en diversas áreas de la informática como son: los sistemas de información geográfica, la robótica, el procesamiento de imágenes, la world wide web o data mining, entre otras.Las estructuras de datos multidimensionales suelen utilizarse también como índices de estructuras que almacenan, posiblemente en memoria externa, datos complejos.Las estructuras de datos multidimensionales deben ofrecer la posibilidad de realizar operaciones de inserción y borrado de llaves de manera dinámica, pero además deben permitir realizar búsquedas asociativas en los registros almacenados. Ejemplos de búsquedas asociativas son las búsquedas por rangos ortogonales (¿qué puntos de la estructura de datos están dentro de un hiper-rectángulo dado?) y las búsquedas del vecino más cercano (¿cuál es el punto de la estructura de datos más cercano a un punto dado?).Las contribuciones de esta tesis se dividen en dos partes:La primera parte está dedicada al diseño de estructuras de datos para puntos multidimensionales, que incluye el diseño de los árboles binarios $K$-dimensionales aleatorios (Randomized $K$-d trees), el de los árboles cuaternarios aleatorios (Randomized quad trees), y el de los árboles multidimensionales con punteros de referencia (Fingered multidimensional trees).La segunda parte contiene contribuciones al análisis del comportamiento de las estructuras de datos para puntos multidimensionales. En particular, damos el análisis del costo promedio de las búsquedas parciales en los árboles $K$-dimensionales relajados y el de las búsquedas por rango en varias estructuras de datos multidimensionales.Con respecto al diseño de estructuras de datos multidimensionales, proponemos algoritmos aleatorios de inserción y borrado de registros para los árboles $K$-dimensionales y los árboles cuaternarios que producen árboles aleatorios independientemente del orden de inserción de los registros y después de cualquier secuencia de inserciones y borrados intercalados. De hecho, con la aleatorización garantizamos un buen rendimiento esperado de las estructuras de datos resultantes, que es independiente de la distribución de los datos de entrada, conservando la flexibilidad y la simplicidad de los árboles $K$-dimensionales y de los árboles cuaternarios estándar. También proponemos los árboles multidimensionales con punteros de referencia, una técnica que permite que las estructuras de datos multidimensionales exploten la localidad de referencia en búsquedas asociativas que se presentan altamente correlacionadas.Con respecto al análisis de estructuras de datos multidimensionales, comenzamos dando un análisis preciso del costo esperado de las búsquedas parciales en los árboles $K$-dimensionales relajados. A continuación, utilizamos este resultado como base para el análisis de las búsquedas por rangos ortogonales, combinándolo con argumentos combinatorios y geométricos. Como resultado obtenemos un estimado asintótico preciso del costo de las búsquedas por rango en los árboles $K$-dimensionales relajados. Finalmente, mostramos que las técnicas utilizadas pueden extenderse fácilmente a otras estructuras de datos y por tanto proporcionamos un análisis preciso del costo promedio de búsquedas por rango en estructuras de datos como los árboles $K$-dimensionales estándar, los árboles cuaternarios, los tries cuaternarios y los tries $K$-dimensionales. / This thesis is about the design and analysis of point multidimensional data structures: data structures that store $K$-dimensional keys which we may abstract as points in $[0,1]^K$. These data structures are present in many applications of geographical information systems, image processing or robotics, among others. They are also frequently used as indexes of more complex data structures, possibly stored in external memory.Point multidimensional data structures must have capabilities such as insertion, deletion and (exact) search of items, but in addition they must support the so called {em associative queries}. Examples of these queries are orthogonal range queries (which are the items that fall inside a given hyper-rectangle?) and nearest neighbour queries (which is the closest item to some given point?).The contributions of this thesis are two-fold:Contributions to the design of point multidimensional data structures: the design of randomized $K$-d trees, the design of randomized quad trees and the design of fingered multidimensional search trees;Contributions to the analysis of the performance of point multidimensional data structures: the average-case analysis of partial match queries in relaxed $K$-d trees and the average-case analysis of orthogonal range queries in various multidimensional data structures.Concerning the design of randomized point multidimensional data structures, we propose randomized insertion and deletion algorithms for $K$-d trees and quad trees that produce random $K$-d trees and quad trees independently of the order in which items are inserted into them and after any sequence of interleaved insertions and deletions. The use of randomization provides expected performance guarantees, irrespective of any assumption on the data distribution, while retaining the simplicity and flexibility of standard $K$-d trees and quad trees.Also related to the design of point multidimensional data structures is the proposal of fingered multidimensional search trees, a new technique that enhances point multidimensional data structures to exploit locality of reference in associative queries.With regards to performance analysis, we start by giving a precise analysis of the cost of partial matches in randomized $K$-d trees. We use these results as a building block in our analysis of orthogonal range queries, together with combinatorial and geometric arguments and we provide a tight asymptotic estimate of the cost of orthogonal range search in randomized $K$-d trees. We finally show that the techniques used apply easily to other data structures, so we can provide an analysis of the average cost of orthogonal range search in other data structures such as standard $K$-d trees, quad trees, quad tries, and $K$-d tries.
58

Numerical modelling of complex geomechanical problems

Pérez Foguet, Agustí 01 December 2000 (has links)
La tesis se centra en el desarrollo de técnicas numéricas específicas para la resolución de problemas de mecánica de sólidos, tomando como referencia aquellos que involucran geomateriales (suelos, rocas, materiales granulares,...). Concretamente, se tratan los siguientes puntos: 1) formulaciones Arbitrariamente Lagrangianas Eulerianas (ALE) para problemas con grandes desplazamientos del contorno; 2) métodos de resolución para problemas no lineales en el campo de la mecánica de sólidos y 3) modelización del comportamiento mecánico de materiales granulares mediante leyes constitutivas elastoplásticas. Las principales aportaciones de la tesis son: el desarrollo de una formulación ALE para modelos hyperelastoplásticos y el cálculo de operadores tangentes para distintas leyes constitutivas y esquemas de integración temporal no triviales (uso de esquemas de derivación numérica, técnicas de subincrementación y modelos elastoplásticos con endurecimiento y/o reblandecimiento dependientes del trabajo plástico o la densidad). Se presentan diversas aplicaciones que muestran las principales características de los desarrollos presentados (análisis del ensayo del molinete para arcillas blandas, del ensayo triaxial para arenas, de la rotura bajo una cimentación, del proceso de estricción de una barra metálica circular y de un proceso de estampación en frío), dedicando una especial atención a los aspectos computacionales de la resolución de dichos problemas. Por último, se dedica un capítulo específico a la modelización y la simulación numérica de procesos de compactación fría de polvos metálicos y cerámicos. / Numerical modelling of problems involving geomaterials (i.e. soils, rocks, concrete and ceramics) has been an area of active research over the past few decades. This fact is probably due to three main causes: the increasing interest of predicting the material behaviour in practical engineering situations, the great change of computer capabilities and resources, and the growing interaction between computational mechanics, applied mathematics and different engineering fields (concrete, soil mechanics...). This thesis fits within this last multidisciplinary approach. Based on constitutive modelling and applied mathematics and using both languages the numerical simulation of some complex geomechanical problems has been studied.The state of the art regarding experiments, constitutive modelling, and numerical simulations involving geomaterials is very extensive. The thesis focuses in three of the most important and actual ongoing research topics within this framework: 1) the treatment of large boundary displacements by means of Arbitrary Lagrangian-Eulerian (ALE) formulations; 2) the numerical solution of highly nonlinear systems of equations in solid mechanics; and 3) the constitutive modelling of the nonlinear mechanical behaviour of granular materials. The three topics have been analysed and different contributions for each one of them have been developed. Moreover, some of the new developments have been applied to the numerical modelling of cold compaction processes of powders. The process consists in transforming a loose powder into a compacted sample through a large volume reduction. This problem has been chosen as a reference application of the thesis because it involves large boundary displacements, finite deformations and highly nonlinear material behaviour. Therefore, it is a challenging geomechanical problem from a numerical modelling point of view.The most relevant contributions of the thesis are the following: 1) with respect to the treatment of large boundary displacements: quasistatic and dynamic analyses of the vane test for soft materials using a fluid-based ALE formulation and different non-newtonian constitutive laws, and the development of a solid-based ALE formulation for finite strain hyperelastic-plastic models, with applications to isochoric and non-isochoric cases; 2) referent to the solution of nonlinear systems of equations in solid mechanics: the use of simple and robust numerical differentiation schemes for the computation of tangent operators, including examples with several non-trivial elastoplastic constitutive laws, and the development of consistent tangent operators for different substepping time-integration rules, with the application to an adaptive time-integration scheme; and 3) in the field of constitutive modelling of granular materials: the efficient numerical modelling of different problems involving elastoplastic models, including work hardening-softening models for small strain problems and density-dependent hyperelastic-plastic models in a large strain context, and robust and accurate simulations of several powder compaction processes, with detailed analysis of spatial density distributions and verification of the mass conservation principle.
59

Mesh-Free Methods for Dynamic Problems. Incompressibility and Large Strain

Vidal Seguí, Yolanda 17 January 2005 (has links)
This thesis makes two noteworthy contributions in the are of mesh-free methods: a Pseudo-Divergence-Free (PDF) Element Free Galerkin (EFG) method which alleviates the volumetric locking and a Stabilized Updated Lagrangian formulation which allows to solve fast-transient dynamic problems involving large distortions. The thesis is organized in the following way. First of all, this thesis dedicates one chapter to the state of the art of mesh-free methods. The main reason is because there are many mesh-free methods that can be found in the literature which can be based on different ideas and with different properties. There is a real need of classifying, ordering and comparing these methods: in fact, the same or almost the same method can be found with different names in the literature. Secondly, a novel improved formulation of the (EFG) method is proposed in order to alleviate volumetric locking. It is based on a pseudo-divergence-free interpolation. Using the concept of diffuse derivatives an a convergence theorem of these derivatives to the ones of the exact solution, the new approximation proposed is obtained imposing a zero diffuse divergence. In this way is guaranteed that the method verifies asymptotically the incompressibility condition and in addition the imposition can be done a priori. This means that the main difference between standard EFG and the improved method is how is chosen the interpolation basis. Modal analysis and numerical results for two classical benchmark tests in solids corroborate that, as expected, diffuse derivatives converge to the derivatives of the exact solution when the discretization is refined (for a fixed dilation parameter) and, of course, that diffuse divergence converges to the exact divergence with the expected theoretical rate. For standard EFG the typical convergence rate is degrade as the incompressible limit is approached but with the improved method good results are obtained even for a nearly incompressible case and a moderately fine discretization. The improved method has also been used to solve the Stokes equations. In this case the LBB condition is not explicitly satisfied because the pseudo-divergence-free approximation is employed. Reasonable results are obtained in spite of the equal order interpolation for velocity and pressure. Finally, several techniques have been developed in the past to solve the well known tensile instability in the SPH (Smooth Particle Hydrodynamics) mesh-free method. It has been proved that a Lagrangian formulation removes completely the instability (but zero energy modes exist). In fact, Lagrangian SPH works even better than the Finite Element Method in problems involving distortions. Nevertheless, in problems with very large distortions a Lagrangian formulation will need of frequent updates of the reference configuration. When such updates are incorporated then zero energy modes are more likely to be activated. When few updates are carried out the error is small but when updates are performed frequently the solution is completely spoilt because of the zero energy modes. In this thesis an updated Lagrangian formulation is developed. It allows to carry out updates of the reference configuration without suffering the appearance of spurious modes. To update the Lagrangian formulation an incremental approach is used: an intermediate configuration will be the new reference configuration for the next time steps. It has been observed that this updated formulation suffers from similar numerical fracture to the Eulerian case. A modal analysis has proven that there exist zero energy modes. In the paper the updated Lagrangian method is exposed in detail, a stability analysis is performed and finally a stabilization technique is incorporated to preclude spurious modes.
60

Desarrollo y evaluación de diferentes metodologías para la gestión automática del diálogo

Griol Barres, David 07 May 2008 (has links)
El objetivo principal de la tesis que se presenta es el estudio y desarrollo de diferentes metodologías para la gestión del diálogo en sistemas de diálogo hablado. El principal reto planteado en la tesis reside en el desarrollo de metodologías puramente estadísticas para la gestión del diálogo, basadas en el aprendizaje de un modelo a partir de un corpus de diálogos etiquetados. En este campo, se presentan diferentes aproximaciones para realizar la gestión, la mejora del modelo estadístico y la evaluación del sistema del diálogo. Para la implementación práctica de estas metodologías, en el ámbito de una tarea específica, ha sido necesaria la adquisición y etiquetado de un corpus de diálogos. El hecho de disponer de un gran corpus de diálogos ha facilitado el aprendizaje y evaluación del modelo de gestión desarrollado. Así mismo, se ha implementado un sistema de diálogo completo, que permite evaluar el funcionamiento práctico de las metodologías de gestión en condiciones reales de uso. Para evaluar las técnicas de gestión del diálogo se proponen diferentes aproximaciones: la evaluación mediante usuarios reales; la evaluación con el corpus adquirido, en el cual se han definido unas particiones de entrenamiento y prueba; y la utilización de técnicas de simulación de usuarios. El simulador de usuario desarrollado permite modelizar de forma estadística el proceso completo del diálogo. En la aproximación que se presenta, tanto la obtención de la respuesta del sistema como la generación del turno de usuario se modelizan como un problema de clasificación, para el que se codifica como entrada un conjunto de variables que representan el estado actual del diálogo y como resultado de la clasificación se obtienen las probabilidades de seleccionar cada una de las respuestas (secuencia de actos de diálogo) definidas respectivamente para el usuario y el sistema. / Griol Barres, D. (2007). Desarrollo y evaluación de diferentes metodologías para la gestión automática del diálogo [Tesis doctoral no publicada]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1956 / Palancia

Page generated in 0.0308 seconds