• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 221
  • 141
  • 97
  • 5
  • 2
  • 1
  • 1
  • Tagged with
  • 466
  • 204
  • 203
  • 178
  • 162
  • 160
  • 133
  • 131
  • 131
  • 131
  • 131
  • 131
  • 128
  • 81
  • 72
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Els Mediadors interculturals a les institucions educatives de Catalunya

Llevot Calvet, Núria 05 June 2002 (has links)
En Cataluña, en los últimos años, han ido proliferando una serie de "profesionales" que realizan, con más o menos adecuación a la definición teórica, la función de mediadores interculturales. Primeramente se trataba de gitanos, pero recientemente, fruto del incremento de la presencia de niños de origen inmigrante en las escuelas catalanas, se ha visto crecer el número y el protagonismo de los extranjeros por el reconocimiento que se les ha otorgado desde la administración y las instituciones (principalmente, al generar una mayor preocupación los inmigrantes procedentes de África, los mediadores son sobre todo de este continente). Concretamente, los mediadores interculturales han intentado intervenir en cuestiones como la participación de los padres de origen inmigrante o minoritario en los centros escolares, la adaptación del currículum a la diversidad cultural, la negociación de conflictos "culturales" (la carne de cerdo en el comedor escolar, el uso del pañuelo en las clases .), la desescolarización, absentísmo y abandono escolar de los alumnos durante el período de la escolarización obligatoria, la traducción lingüística y la interpretación sociocultural, etc. Al ser una práctica nueva está aún llena de interrogantes, pero al notar que no se está produciendo paralelamente una reflexión y clarificación de sus fundamentos, nos parecía un momento pertinente para examinar su desarrollo, así como la repercusión de la misma en el seno de la comunidad educativa. Mientras el marco teórico tiene una cuenta experiencias internacionales y otros estudios realizados (Quebec y Francia), el trabajo empírico de la investigación se ha circunscrito a toda Cataluña. Éste ha consistido en entrevistas en profundidad a mediadores o personas que ejercen este papel aunque no reciban este nombre, como también a coordinadores y formadores de cursos sobre mediación intercultural (en total 44), y, a la vez, se ha complementado con una encuesta a docentes de primaria y de educación secundaria obligatoria (n=740), que nos han proporcionado su percepción del mediador y la mediación en las instituciones escolares.
42

Address Prediction and Recovery Mechanisms

Morancho Llena, Enric 11 July 2002 (has links)
Uno de los mayores retos que debe ser afrontado por los diseñadores de micro-procesadores es el de mitigar la gran latencia de las instrucciones de carga de datos en registros. Esta tesis analiza una de las posibles alternativas para atacar dicho problema: predicción de direcciones y ejecución especulativa.Varios autores han comprobado que las direcciones efectivas calculadas por las instrucciones de carga son bastante predecibles. En primer lugar, hemos analizado a qué es debida dicha predictabilidad. Este estudio intenta establecer las estructuras típicas presentes en lenguajes de alto nivel que, al ser compiladas, generas instruciones de carga predecibles. También se analizan los predictores convencionales con el objetivo de determinar qué predictores son más adecuados para las típicas aplicaciones.El estudio continúa con la propuesta de nuevos predictores de direcciones que utilizan sus recursos de almacenamiento de forma más eficiente que los previos predictores. Los predictores alamacenan información respecto al comportamiento de las instrucciones de carga; sin embargo, los requisitos de las instrucciones predecibles son diferentes de los de las instrucciones no predecibles. Consecuentemente, se propone una organización de las tablas de predicción que considere la existencia de ambos tipos de instruciones. También se muestra que existe un cierto grado de redundnacia en las tablas de predicción de los predictores. Este estudio propoen organizar las tablas de predicción de forma que se reduzca dicha redundancia. Todas estas propuestas permiten reducir los requisitos de los predictores referentes a espacio de alamacenamiento, sin causar menoscabo en el rendimiento de los predictores.Posteriormente, se evalúa el impacto de la predicción de direcciones en el rendimiento de los processadores. Las evaluaciones asumen que las predicciones se utilizan para iniciar de forma especulativa accessos a memoria y para ejecutar de forma especulativa sus instrucciones dependientes. En caso de una predicción correcta, todo el trabajo realizado de forma especulativa puede considerarse como correcto; en caso de error de predicción, el tranajo realizado especulativamente debe ser descartado. El estudio se centra en diversos aspectos como la interacción entre predicción de direcciones y predicción de saltos, la implementación de mecanismods de verification, los mecanismos re recuperación en casos de errores de predicción y la influencia de varios parámetreos del procesador (el tamaño de la ventana de emisión de instrucciones, la latencia de la memora cache, y la anchura de emisión de instrucciones) en le impacto de la predicción de direcciones en el rendimiento de los procesadores.Finalmente, se han evaluado mechanismos de recuperación para el caso de errores de predicción de latencia. La predicción de latencia es una técnica de ejecución especulativa utilizada por los planificadores de alguncos procesadores superescalares para tratar las instrucciones de latencia variable (por ejemplo, las instrucciones de carga). Nuestras evaluaciones se centran en un mecanismo convencional de recuperación para errores de predicción de latencia y en una nueva propuesta. También se evalúan los mecanismos propuestos en el ámbito de predicción de direcciones. Se concluye con que éstos mecanismos representan una alternativa rentable a los mecanismos de recuperación convencionales utilizados para tratar los errores de predicción de direcciones. / Mitigating the effect of the large latency of load instructions is one of challenges of micro-processor designers. This thesis analyses one of the alternatives for tackling this problem: address prediction and speculative execution.Several authors have noticed that the effective addresses computed by the load instructions are quite predictable. First of all, we study why this predictability appears; our study tries to detect the high-level language structures that are compiled into predictable load instructions. We also analyse the conventional address predictors in order to determine which address predictors are most appropriate for the typical applications.Our study continues by proposing address predictors that use their storage structures more efficiently. Address predictors track history information of the load instructions; however, the requirements of the predictable instructions are different from the requirements of the unpredictable instructions. We then propose an organization of the prediction tables considering the existence of both kinds of instructions. We also show that there is a certain degree of redundancy in the prediction tables of the address predictors. We propose organizing the prediction tables in order to reduce this redundancy. These proposals allow us to reduce the area cost of the address predictors without impacting their performance.After that, we evaluate the impact of address prediction on processor performance. Our evaluations assume that address prediction is used to start speculatively some memory accesses and to execute speculatively their dependent instructions. On a correct prediction, all the speculative work is considered as correct; on a misprediction, the speculative work must be discarded. Our study is focused on several aspects such as the interaction of address prediction and branch prediction, the implementation of verification mechanisms, the recovery mechanism on address mispredictions, and the influence of several processor parameters (the issue-queue size, the cache latency and the issue width) on the performance impact of address prediction. Finally, we evaluate several recovery mechanisms for latency mispredictions. Latency prediction is a speculative technique used by the schedulers of some superscalar processors to deal with variable-latency instructions (for instance, load instructions). Our evaluations are focused on a conventional recovery mechanism for latency mispredictions and a new proposal. We also evaluate the proposed recovery mechanism in the scope of address prediction; we conclude that it represents a cost-effective alternative to the conventional recovery mechanisms used for address mispredictions.
43

Paralelización automática de recurrencias en programas secuenciales numéricos

Ayguadé i Parra, Eduard 21 October 1989 (has links)
La programació d'aplicacions en màquines paral·leles és un tema d'interès quant a que cada vegada són més les màquines d'aquest tipus disponibles comercialment.Per a això l'usuari disposa de dues opcions: (a) Utilització de llenguatges de programació amb primitives específiques que permetin expressar i aprofitar les possibilitats que ofereix la màquina. (b) Utilització de compiladors que de forma automàtica siguin capaces d'extreure el paral·lelisme del programa escrit en un llenguatge de programació convencional. La segona opció presenta certs avantatges, com per exemple, que el programador només deu preocupar se de l'algorisme a resoldre i no de les operacions que poden realitzar-se de forma simultània. D'altra banda són moltes les aplicacions escrites en llenguatges convencionals i que la seva paral·lelització automàtica evitaria la seva reprogramació manual. Aquests compiladors poden extreure paral·lelisme a nivell de procediments ("coarse grain"), bucles ("medium grain") o sentències ("fine grain") existint per a això alguns mètodes proposats en la literatura. En programes numèrics gran part del temps s'empra en l'execució de bucles. Per això, la paral·lelització a nivell de bucles ha estat la més estudiada i es basa en una detallada anàlisi de les dependències entre les sentències que ho componen. Aquesta tesi se centra en l'estudi i proposta de tècniques de reestructuració per a bucles en programes seqüencials. Els principals problemes tractats són l'existència de recurrències i sentències condicionals en aquests bucles. L'avaluació del paral·lelisme d'un bucle és considerada en primer lloc i es realitza a partir del grat de dependències entre sentències obtingut en temps de compilació. El paral·lelisme avaluat és una bona mesura de l'eficiència del procés de reestructuració realitzat. Es proposa un mètode, Graph Traverse Scheduling (GTS) que incorporat en un compilador permet l'extracció del màxim paral·lelisme del bucle. La planificació ("scheduling") realitzada es basa en recorreguts a través d'un cicle del graf de dependències que compleix unes determinades característiques. L'aplicació de GTS per a multiprocessadors amb memòria compartida permet l'obtenció de tasques independents o sincronitzades segons les dependències existents. Un dels temes considerats és la reducció del nombre de sincronitzacions explícites afegides així com el compromís entre paral·lelisme obtingut i sincronització. L'aplicació de GTS per a màquines vectorials permet l'obtenció operacions vectorials de màxima longitud a partir de les operacions incloses en bucles seqüencials. GTS pot ser aplicat a altres arquitectures com multiprocessadors amb memòria distribuïda i màquines VLIW, encara que aquests temes no han estat considerats en aquesta tesi. Es comparen els resultats obtinguts per GTS amb els obtinguts aplicant altres tècniques de reestructuració ja existents, basant-se aquesta comparança en dades obtingudes a partir de grafs de dependència aleatòriament generats. / La programación de aplicaciones en máquinas paralelas es un tema de interés en cuanto a que cada vez son más las máquinas de este tipo disponibles comercialmente. Para ello el usuario dispone de dos opciones: (a) Utilización de lenguajes de programación con primitivas específicas que permitan expresar y aprovechar las posibilidades que ofrece la máquina. (br) Utilización de compiladores que de forma automática sean capaces de extraer el paralelismo del programa escrito en un lenguaje de programación convencional.La segunda opción presenta ciertas ventajas, como por ejemplo, que el programador sólo debe de preocuparse del algoritmo a resolver y no de las operaciones que pueden realizarse de forma simultánea. Por otro lado son muchas las aplicaciones escritas en lenguajes convencionales y cuya paralelización automática evitaría su reprogramación manual. Estos compiladores pueden extraer paralelismo a nivel de procedimientos ("coarse grain"), bucles ("medium grain") o sentencias ("fine grain") existiendo para ello algunos métodos propuestos en la literatura. Enprogramas numéricos gran parte del tiempo se emplea en la ejecución de bucles. Por ello, la paralelización a nivel de bucles ha sido la más estudiada y se basa en un detallado análisis de las dependencias entre las sentencias que lo componen. Esta tesis se centra en el estudio y propuesta de técnicas de restructuración para bucles en programas secuenciales. Los principales problemas tratados son la existencia de recurrencias y sentencias condicionales en estos bucles. La evaluación del paralelismo de un bucle es considerada en primer lugar y se realiza a partir del grato de dependencias entre sentencias obtenido en tiempo de compilación. El paralelismo evaluado es una buena medida de la eficiencia del proceso de reestructuración realizado. Se propone un método, Graph Traverse Scheduling (GTS) que incorporado en un compilador permite la extracción del máximo paralelismo del bucle. El "scheduling' realizado se basa en recorridos a través de un ciclo del grafo de dependencias que cumple unas determinadas características.La aplicación de GTS para multiprocesadores con memoria compartida permite la obtención de tareas independientes o sincronizadas según las dependencias existentes. Uno de los temas considerados es la reducción del número de sincronizaciones explícitas añadidas así como el compromiso entre paralelismo obtenido y sincronización. La aplicación de GTS para máquinas vectoriales permite la obtención operaciones vectoriales de máxima longitud a partir de las operaciones incluidas en bucles secuenciales. GTS puede ser aplicado a otras arquitecturas como multiprocesadores con memoria distribuida y máquinas VLIW, aunque estos temas no han sido considerados en esta tesis. Se comparan los resultados obtenidos por GTS con los obtenidos aplicando otras técnicas de reestructuración ya existentes, basándose esta comparación en datos obtenidos a partir de gráfos de dependencia aleatoriamente generados. / Vectorizing and parallelizing compilers exist today for high performance vector and parallel computers in order to execute efficiently sequential programs written in convencional languages such as FORTRAN. In this thesis the author studies and proposes methods for restructuring recurrences as the main problem in such restructuring compilers. The method presented extracts the maximum parallelism or vector operations out of DO loops with tight recurrences including or no conditional statements. The method is named Graph Traverse Scheduling (GTS) and it is devised for producing code for shared memory multiprocessor systems or vector machines. The method is presented for single nested loops including one or several recurrences; the author also shows how parallel and vector code can be generated. Based on the dependence graph, the author first presents its parallelism and vector length evaluation as loop characteristies that will determine the restructuring process. Then the author presentes the application of GTS in order to distribute iterations of a recurrence between tasks or to generate vector operations of a given length. When this methods is applied for parallel code generation, dependences not inciuded in the sequential execution of each task must be explicitely synchronized. Therefore, hardware support for fast synchronization is assumed in the target architecture. When GTS is applied for vector code generation, a sequential loop of vector operations is obtained. Finally the author performs a brief comparison of the resuits btained by the method presentes and other existing methods used restructuring recurrences in sequential loops.
44

Obtención de capas de nitruro de titanio mediante tratamiento termoquímico en titanio y Ti6A14V y caracterización de sus propiedades para aplicaciones biomédicas

Rodríguez Rius, Daniel 28 February 2000 (has links)
En la presente tesis doctoral se ha estudiado y caracterizado la obtención de capas de nitruro en titanio y Ti6Al4V mediante tratamiento termoquímico de nitruración para la mejora de la dureza superficial y de la resistencia al desgaste del titanio y del Ti6Al4V.Tras un estudio estadístico de los parámetros ópticos y el efecto del tratamiento en los mecanismos de desgaste, se realizó un estudio químico y microestructural, así como de la cinética de nitruración, mediante diferentes técnicas, como rugosimetría, microscopia, difracción de electrones, de rayos X y espectroscopia Auger. El estudio de las propiedades mecánicas se realizó mediante ensayos mecánicos de tracción y de fatiga oligocíclica. Se procedió posteriormente a la caracterización electroquímica mediante técnicas de análisis electroquímico. Por último, se procedió a un estudio de la biocompatibilidad del tratamiento de nitruración.Las conclusiones obtenidas son que el tratamiento termoquímico de nitruración del titanio y de la aleación Ti6Al4V produce una capa lisa y homogénea en las muestras tratadas de titanio y de la aleación Ti6Al4V, con incrementos de la dureza superficial de hasta un 500% respecto al material no tratado, y con obtención de reducciones del coeficiente de desgaste de más de un orden de magnitud en las condiciones ensayadas.La capa de nitruros formada tiene un espesor de 1-2 ?m, formada por pequeños granos de nitruros con diámetros del orden de los 50-100 nm. El componente principal de la capa es nitruro de titanio (Ti2N). Las muestras nitruradas estudiadas exhiben un buen comportamiento electroquímico, con elevadas resistencias de transferencia de carga. A partir de los resultados obtenidos en los ensayos realizados el Ti6Al4V nitrurado no se apreciaron señales de toxicidad. / In this thesis it has been studied and characterised the obtention of titanium and Ti6Al4V nitride layers by means of thermo-chemical nitriding processing for the improvement of the surface hardness and wear resistance. After statistical study of the optical parameters and the effect of nitriding in the wear mechanisms, chemical and microstructural characterisations were made, as well as the study of nitriding kinetics by means of different techniques, like profilometry, optical and electron microscopy, X-ray and electron diffraction techniques and Auger spectroscopy. The study of the mechanical properties was made by means of static and fatigue mechanical tests. Electrochemical characterisation was made by means of electrochemical analyses techniques. Finally, the biocompatibility of Ti6Al4V nitrided samples was studied. It was concluded that thermo-chemical nitriding of titanium and Ti6Al4V alloy produces a smooth and homogenous layer in the treated samples, with increments of surface hardness up to 500% compared to non-treated material. Reductions of the wear coefficient of an order of magnitude were also achieved in test conditions. The obtained nitride layer has a thickness of 1-2 micrometer, and it is formed by small nitride grains with diameters of the order of 50-100 nm. The main component of the layer is titanium nitride (Ti2N). The studied nitrided samples exhibit excellent electrochemical behaviour, with a high resistance to electric load transference. The results obtained in the toxicity tests did not show signals of toxicity of the nitrided Ti6Al4V.
45

Development and Characterisation of Completely Degradable Composite Tissue Engineering Scaffolds

Charles-Harris Ferrer, Montserrat 17 October 2007 (has links)
The field of Tissue Engineering has developed in response to the shortcomings associated to the replacement of tissues lost to disease or trauma: donor tissue rejection, chronic inflammation, and donor tissue shortages. The driving force behind Tissue Engineering is to avoid these problems by creating biological substitutes capable of replacing the damaged tissue. This is done by combining scaffolds, cells and signals in order to create living, physiological, three-dimensional tissues.Scaffolds are porous biodegradable structures that are meant to be colonised by cells and degrade in time with tissue generation. Scaffold design and development is mainly an engineering challenge, and is the goal of this PhD thesis.The main aim of this thesis is to develop and characterise scaffolds for Tissue Engineering applications. Specifically, its objectives are: 1. To study, optimise and characterise two scaffold processing methods: Solvent Casting and Phase Separation. This is done by experiment design analysis. 2. To characterise the degradation, surface properties, and cellular behaviour of the scaffolds produced. The scaffolds are made of a composite of polylactic acid polymer and a calcium phosphate soluble glass. The comparison of the two processing methods reveals that in general, the solvent cast scaffolds have higher porosities and lower mechanical properties than the phase-separated ones. Two compositions containing 20 weight % and 50 weight % of glass particles were chosen for further characterisations including degradation, surface properties and cellular behaviour. The degradation of the scaffolds was studied for a period of 10 weeks. The evolution of various parameters such as: morphology, weight loss, mechanical properties, thermal transitions and porosity, was monitored. Scaffolds produced via solvent casting were found to be more severely affected by degradation than phase-separated ones. The surface properties of the scaffolds were measured by modelling the scaffold pore walls as thin composite films. The morphology, topography, surface energy and protein adsorption of the films was characterised thoroughly. Again, the processing method was critical in determining scaffold properties. Films made via phase-separation processing had markedly different properties due to extensive coating of the glass particles by the polymer. This made the surfaces rougher and more hydrophobic. When the glass particles are not completely coated with polymer, they increase the material's hydrophilic and protein adsorption properties, thus confirming the potential biological benefits of the inclusion of the calcium phosphate glass.The biological behaviour of the scaffolds was characterised by means of in vitro cell cultures with primary osteoblast stem cells and cells from a stable cell line, under static and dynamic conditions. Their morphology, proliferation and differentiation were monitored. Both types of scaffolds sustained osteblastic cell growth. The solvent cast scaffolds were easily colonised by cells which migrated throughout their structure. The cells on the phase-separated scaffolds, however, tended to form thick layers on the scaffold surface. Finally, an alternative characterisation technique was explored applying Synchrotron X-Ray Microtomography and in-situ micromechanical testing. These experiments allowed for the qualitative and quantitative analysis of the microstructure of the scaffolds both at rest and under strain. A finite element model of the solvent cast scaffolds was developed and a preliminary analysis was performed. This technique could be used to complement and overcome some of the limitations of traditional mechanical characterisation of these highly porous materials.
46

Aprendizaje con máquinas núcleo en entornos de multiclasificación

Angulo Bahón, Cecilio 23 May 2001 (has links)
La propiedad de generalización de una máquina de aprendizaje, es decir su capacidad para emitir una respuesta correcta ante una nueva entrada semejante a aquellas con las que ha sido entrenada, es la característica principal que se busca en los sistemas conexionistas supervisados y sirve de justificación en la elección de los principios inductivos y el tipo de estructuras de aprendizaje para elaborar el presente estudio.La regularización o penalización es uno de estos principios que favorecen a nivel teórico la generalización, sobre el cual se ha desarrollado un método de cálculo directo de la matriz de regularización cuando se utiliza como estabilizador un operador diferencial de segundo grado, precisamente aquel que minimiza el grado de convexidad de la función solución, evitando así y el proceso iterativo de cálculo de la matriz hessiana y fijando el tipo de núcleo a ser utilizado.Los nexos de unión entre la regularización y el principio de minimización del riesgo estructural así como las excelentes características teóricas mostradas por este ´ ultimo principio trabajando, por definición, sobre conjuntos finitos de datos y expandiendo su solución sobre un número pequeño de núcleos, han llevado a desplazar el foco de trabajo de numerosos investigadoreshacia las máquinas de soporte vectorial, su materialización procedimental. En este contexto, se ha desarrollado una máquina que permite extender de forma natural el comportamiento binario de estas máquinas núcleo de margen máximo sobre problemas de clasificación hacia una solución ternaria m´asacorde con la estructura geométrica de los datos, en especial en las situaciones habituales de espacios de salida que poseen más de dos clases. El uso de la nueva arquitectura, bautizada K-SVCR,en problemas de multiclasificación resulta más adecuado que las reducciones estándares de problemas multiclase sobre máquinas biclasificadoras en estructuras en paralelo o arbóreas puesto que cada nodo de dicotomía considera todo el espacio de entrenamiento y se fuerza al hiperplano de separación a considerar la estructura geométrica de los patrones de entrenamiento. En especial, se demuestra la robustez del nuevo método ante fallos en las predicciones de algunos de sus nodos de trabajo cuando se considera un tipo especial de combinación de estas respuestas. La nueva arquitectura de multiclasificación ha sido modificada con posterioridad para ser implementada sobre un problema de clasificación con características independientes, la ordenación o problema de aprendizaje de preferencias. Sus prestaciones son evaluadas sobre una aplicación financiera en la determinación de riesgos crediticios. Finalmente, una aplicación de categorización o discriminación de escenarios de depuración donde incide el efecto de la temporalidad sirve también como ejemplo de funcionamiento. / The property of generalization of a learning machine, i.e. its capacity to emit a correct answer on a new similar input to those with wich it has been trained, is the basic behavior looked for in the supervised connexionists systems and it serves as justification in the selection of the inductive principles and the type of learning structures to ellaborate the present study.The penalty is one of these principles that favor at theoretical level the generalization, on which a method of direct calculation of the regularization matrix when a second degree differential operator is used like stabilizer, indeed that diminishing the convexity degree of the solution function, avoiding therefore the iterative process of calculation of the Hessian matrix, has been developed and fixing the type of kernel to be used. Links between regularization and the structural risk minimization principle as well as the excellent theoretical characteristics shown by this last principle working, by definition, on finite data sets and expanding their solution on a small number of kernels, have taken to move the center of study of numerous investigators towards the support vector machines, their procedural materialization. In this context, a machine that allows to extend of natural form the binary behavior of these maximum margin ker-nel machines on classification problems towards an agreed ternary solution with the geometric structure of the data has been developed, in special in the habitual situations of output spaces having more than two classes.The use of the new architecture, named K-SVCR, in multiclassification problems is more suitable than the standard reductions from multiclass problems on biclass machines in tree or parallel structures, since each di-chotomie node considers all the training space and force to the hyperplane of separation to consider the geometric structure of the training patterns.In special, the robustness of the new method is demostrated on failures in the predictions of some of its working nodes when a special type of combination of these answers is considered.The new architecture of multiclassification has been modified later to be implemented on a classification problem with independent characteristics, the ordenation or learning of preferences problem. Their benefits are evaluated on a financial application in the determination of credit risks. Finally, an application of categorization in waste water plant scenes, where the temporality affects, also serves like operation example.
47

Environment learning for indoor mobile robots

Andrade-Cetto, Juan 08 April 2003 (has links)
Aquesta tesi tracta el problema de l'aprenentatge automàtic d'entorns estructurats n robòtica mòbil. Particularment, l'extracció de característiques a partir dels senyals dels sensors, la construcció autònoma de mapes, i l'autolocalització de robots.S'estudien els fonaments matemàtics necessaris per a l'extracció de característiques a partir d'imatges i registres d'un làser, els quals permeten la identificació unívoca dels elements de l'entorn. Els atributs extrets a partir del senyal d'un sol sensor poden ser insuficients quan es volen caracteritzar els elements de l'entorn de forma invariant; això es pot millorar combinant informació de múltiples fonts. Es presenta un nou algorisme per la fusió d'informació complementaria extreta de dos mòduls de visió de baix nivell.Aquesta fusió d'informació produeix descripcions més completes dels objectes de l'entorn, els quals poden ser seguits i apresos dins el context de la robòtica mòbil. Les variacions en les condicions d'il·luminació i les oclusions fan que l'associació de dades en visió per computador sigui una tasca difícil de completar.Tot i això, l'ús de restriccions geomètriques i fotogramètriques permeten reduir la cerca de correspondències entre imatges successives; i al centrar l'atenció en un reduït nombre de característiques, aquestes poden ser seguides en imatges successives, simplificant així el problema d'associació de dades. Es recalquen les tècniques de la geometria de múltiples vistes que són rellevants pel còmput d'una estimació inicial de la posició dels elements de l'entorn, el que permet la reconstrucció del moviment del robot entre imatges successives; situació desitjable quan no existeix odometria o quan las seves lectures són poc fiables.Quan els elements de l'entorn s'han extret i identificat, la segona part del problema consisteix en utilitzar aquestes observacions tant per estimar la posició del robot, com per refinar l'estimació dels mateixos elements de l'entorn. El moviment del robot i les lectures dels sensors es consideren com dos processos estocàstics, i el problema es tracta des del punt de vista de la teoria d'estimació, on el soroll inherent als sensors i al moviment del robot es consideren com a seqüències aleatòries.El principal inconvenient existent en l'ús de tècniques d'estimació pel còmput concurrent de la posició del robot i la construcció d'un mapa, és que fins ara s'ha considerat la seva aplicació únicament en entorns estàtics, i que el seu ús en situacions més realistes ofereix poca robustesa. Es proposa un conjunt de funcions per avaluar la qualitat temporal de les observacions per tal de resoldre les situacions en que les observacions dels elements de l'entorn no siguin consistents en el temps. Es mostra com la utilització d'aquestes proves de qualitat temporal conjuntament amb les proves de compatibilitat espacial milloren els resultats quan es fen servir amb un mètode d'estimació òptima de la construcció concurrent de mapes i l'autolocalització de robots.La idea principal consisteix en emprar un històric dels errors en l'associació de les dades per calcular la possibilitat d'incórrer en nous errors d'associació; i excloure del mapa aquells elements dels quals les observacions no siguin consistents.Es posa especial atenció en el fet que l'eliminació dels elements inconsistents del mapa no violi les propietats dels algorismes de construcció concurrent de mapes i autolocalització descrits en la literatura; és a dir, convergència assimptòtica i correlació completa.Aquesta tesi proporciona també un profund anàlisi del model de construcció concurrent de mapes i autolocalització totalment correlat des d'un punt de vista de la teoria de control de sistemes. Partint del fet que el filtre de Kalman no és més que un estimador òptim, s'analitzen les implicacions de tenir un vector d'estats que es revisa a partir de mesures totalment correladas.Es revela de manera teòrica i amb experiments les limitacions d'utilitzar un enfocament per la construcció concurrent de mapes i l'autolocalització a partir de mesures totalment correladas.El fet de tenir un model parcialment observable inhibeix la reconstrucció total de l'espai d'estats, produint tant mateix una estimació de la posició dels elements de l'entorn que depèn en tot cas de les observacions inicials, i que no garanteix la convergència a una matriu de covariància definida positivament.D'altra banda, el fet de tenir un vector d'estats parcialment controlable fa que, desprès d'un reduït nombre d'iteracions el filtre cregui tenir una estimació perfecta de l'estat dels elements de l'entorn; amb els corresponents guanys de Kalman convergint a zero. Per tant, desprès d'un reduït nombre d'iteracions del filtre, els innovacions no s'utilitzen més. Es mostra com reduir els efectes de la correlació total i de la controlabilitat parcial. A més a més, suposant que el filtre de Kalman és un observador òptim per a la reconstrucció dels estats, és pertinent construir un regulador òptim que permeti conduir el robot el més a prop possible a una trajectòria desitjada durant la construcció d'un mapa. Es mostra com la dualitat existent entre l'observabilitat i la controlabilitat es pot fer servir en el disseny d'aquest regulador òptim.Qualsevol algorisme de construcció concurrent de mapes i autolocalització de robots mòbils que s'ha d'usar en un entorn real ha de ser capaç de relacionar les observacions i els seus corresponents elements del mapa de manera expedita. Algunes de les proves de compatibilitat de les observacions són costoses des del punt de vista de la seva complexitat computacional, i la seva aplicació s'ha de dissenyar amb especial atenció. Es comenten els costos computacionals de les diferents proves de compatibilitat entre observacions; així com altres característiques desitjables de l'estructura de dades que es fa servir per a la construcció del mapa. A més a més es proposen una sèrie de tasques que han de realitzar-se durant l'associació de dades. Començant per les proves de compatibilitat amb un model bàsic dels elements del mapa, i continuant amb la reducció de l'espai de cerca quan es generen hipòtesis d'associació, així com les proves espacial i temporal d'associació de dades.El treball que es presenta en aquesta tesi proposa noves tècniques en àrees de l'enginyera i ciències computacionals, que van des de nous algorismes per la visió per computador, a idees novells de la construcció concurrent de mapes i l'autolocalització de robots mòbils. Les contribucions principals són la proposta d'una nova tècnica per la fusió de dades visuals; la formulació d'un nou algorisme per la construcció concurrent de mapes i l'autolocalització de robots que considera la qualitat temporal dels elements del mapa; nous resultats teòrics en el nivell de reconstrucció possible quan es construeixen mapes a partir d'observacions totalment correladas; i les tècniques necessàries per pal·liar els efectes de l'observabilitat i la controlabilitat parcials, així com els efectes de les no linealitats en la solució del problema de construcció concurrent de mapes i de l'autolocalització. / Esta tesis aborda el problema del aprendizaje automático de entornos estructurados en robótica móvil. Particularmente, la extracción de características a partir de las se nales de los censores, la construcción autónoma de mapas, y la autolocalización de robots.Se estudian los fundamentos matemáticos necesarios para la extracción de características a partir de imágenes y registros de un láser, las cuales permiten la identificación unívoca de los elementos del entorno. Los atributos extraídos a partir de la se nal de un solo sensor pueden ser insuficientes a la hora de caracterizar los elementos del entorno de forma invariante; lo que conlleva a la combinación de información de múltiples fuentes. Se presenta un nuevo algoritmo para la fusión de información complementaria extraída de dos módulos de visión de bajo nivel. Esta fusión de información produce descripciones más completas de los objetos presentes en el entorno, los cuales pueden ser seguidos y aprendidos en el contexto de la robótica móvil.Las variaciones en las condiciones de iluminación y las oclusiones hacen que la asociación de datos en visión por computador sea una tarea difícil de llevar a cabo. Sin embargo, el uso de restricciones geométricas y fotogramétricas permiten reducir la búsqueda de correspondencias entre imágenes; y al centrar la atención en un reducido número de características, estas pueden ser seguidas en imágenes sucesivas, simplificando así el problema de asociación de datos. Se hace hincapié en las técnicas de la geometría de múltiples vistas relevantes para el cómputo de una estimación inicial de la posición de los elementos del entorno, lo cual permite la reconstrucción del movimientodel robot entre imágenes sucesivas; situación deseable cuando se carece de odometría o cuando sus lecturas son poco fiables.Una vez que los elementos del entorno han sido extraídos e identificados, la segunda parte del problema consiste en usar estas observaciones tanto para estimar la posición del robot, como para refinar la estimación de los mismos elementos del entorno. El movimiento del robot y las lecturas de los sensores se consideran como dos procesos estocásticos, y el problema se aborda desde el punto de vista de la teoría de estimación, en donde el ruido inherente a los sensores y al movimiento del robot se consideran como secuencias aleatorias.La principal desventaja existente en el uso de técnicas de estimación para el cómputo concurrente de la posición del robot y la construcción de un mapa, es que hasta ahora se ha considerado su uso en entornos estáticos únicamente, y que su aplicación en situaciones más realistas carece de robustez.Se propone un conjunto de funciones para evaluar la calidad temporal de las observaciones con el fin de solventar aquellas situaciones en que las observaciones de los elementos del entorno no sean consistentes en el tiempo.Se muestra como el uso de estas pruebas de calidad temporal junto con las pruebas de compatibilidad espacial existentes mejora los resultados al usar un método de estimación óptima para la construcción concurrente de mapas y la autolocalización de robots. La idea principal consiste en usar un históricode los errores en la asociación de datos para el cómputo de la posibilidad de incurrir en nuevos errores de asociación; y eliminar del mapa aquellos elementos cuyas observaciones no sean consistentes.Se presta especial atención a que la eliminación de elementos inconsistentes del mapa no viole las propiedades de los algoritmos de construcción concurrente de mapas y autolocalización descritos en la literatura; es decir, convergencia asintótica y correlación completa.Esta tesis proporciona a su vez un análisis en profundidad del modelo de construcción concurrente de mapas y autolocalización totalmente correlado desde un punto de vista de la teoría de control de sistemas. Partiendo del hecho de que el filtro de Kalman no es otra cosa que un estimador óptimo, se analizan las implicaciones de tener un vector de estados que se revisa a partir de mediciones totalmente correladas. Se revela de forma teórica y con experimentos las limitaciones de usar un enfoque para la construcción concurrente de mapas y autolocalización a partir de mediciones totalmente correladas.El hecho de tener un modelo parcialmente observable inhibe la reconstrucción total del espacio de estados, produciendo a su vez una estimación de la posición de los elementos del entorno que dependerá en todo caso de las observaciones iniciales, y que no garantiza la convergencia a una matriz de covarianza positivamente definida. Por otro lado, el hecho de tener un vector de estados parcialmente controlable, produce después de un reducido número de iteraciones que el filtro crea tener una estimación perfecta del estado de los elementos del entorno; con sus correspondientes ganancias de Kalman convergiendo a cero. Esto es, después de un peque no número de iteraciones del filtro, las innovaciones no se usan. Se muestra como reducir los efectos de la correlación total y la controlabilidad parcial. Además, dado que el filtro de Kalman es un observador óptimo para la reconstrucción de los estados, es pertinente construir un regulador óptimo que permita conducir al robot lo más cerca posible de una trayectoria deseada durante la construcción de un mapa. Se muestra como la dualidad existente entre la observabilidad y la controlabilidad se puede emplear en el diseño de este regulador óptimo. Cualquier algoritmo de construcción concurrente de mapas y autolocalización de robots móviles que deba funcionar en un entorno real deberá ser capaz de relacionar las observaciones y sus correspondientes elementos del mapa de manera expedita. Algunas de las pruebas de compatibilidad de las observaciones son caras desde el punto de vista de su complejidad computacional, y su aplicación debe diseñarse con riguroso cuidado. Se comentan los costes computacionales de las distintas pruebas de compatibilidad entre observaciones; así como otras características deseadas de la estructura de datos elegida para la construcción del mapa. Además, se propone una serie de tareas que debe llevarse a cabo durante la asociación de datos. Partiendo por las pruebas de compatibilidad con un modelo básico de los elementos del mapa, y continuando con la reducción del espacio de búsqueda al generar hipótesis de asociación, así como las pruebas espacial y temporal de asociación de datos.El trabajo que se presenta en esta tesis propone nuevas técnicas en áreas de la ingeniería y las ciencias computacionales, que van desde nuevos algoritmos de visión por computador, a ideas noveles en la construcción concurrente de mapas y la autolocalización de robots móviles. Las contribuciones principales son la propuesta de una nueva técnica para la fusión de datos visuales; la formulación de un nuevo algoritmo para la construcción concurrente de mapas y autolocalización de robots que toma en cuenta la calidad temporal de los elementos del mapa; nuevos resultados teóricos en el grado de reconstrucción posible al construir mapas a partir de observaciones totalmente correladas; y las técnicas necesarias para paliar los efectos de la observabilidad y controlabilidad parciales, así como los efectos de las no linealidades en la solución del problema de construcción concurrente de mapas y autolocalización. / This thesis focuses on the various aspects of autonomous environment learning for indoor service robots. Particularly, on landmark extraction from sensor data, autonomous map building, and robot localization. To univocally identify landmarks from sensor data, we study several landmark representations, and the mathematical foundation necessary to extract the features that build them from images and laser range data. The features extracted from just one sensor may not suce in the invariant characterization of landmarks and objects, pushing for the combination of information from multiple sources. We present a new algorithm that fuses complementary information from two low level vision modules into coherent object models that can be tracked and learned in a mobile robotics context. Illumination conditions and occlusions are the most prominent artifactsthat hinder data association in computer vision. By using photogrammetric and geometric constraints we restrict the search for landmark matches in successive images, and by locking our interest in one or a set of landmarks in the scene, we track those landmarks along successive frames, reducing considerably the data association problem. We concentrate on those tools from the geometry of multiple views that are relevant to the computation of initial landmark location estimates for coarse motion recovery; a desirable characteristic when odometry is not available or is highly unreliable.Once landmarks are accurately extracted and identied, the second part of the problem is to use these observations for the localization of the robot, as well as the renement of the landmark location estimates. We consider robot motion and sensor observations as stochastic processes, and treat the problem from an estimation theoretic point of view, dealing with noise by using probabilistic methods.The main drawback we encounter is that current estimation techniques have been devised for static environments, and that they lack robustness in more realistic situations. To aid in those situations in which landmark observations might not be consistent in time, we propose a new set of temporal landmark quality functions, and show how by incorporating these functions in the data association tests, the overall estimation-theoretic approach to map building and localization is improved. The basic idea consists on using the history of data association mismatches for the computation of the likelihood of future data association, together with the spatial compatibility tests already available.Special attention is paid in that the removal of spurious landmarks from the map does not violate the basic convergence properties of the localization and map building algorithms already described in the literature; namely, asymptotic convergence and full correlation.The thesis also gives an in depth analysis of the fully correlated model to localization and map building from a control systems theory point of view. Considering the fact that the Kalman .lter is nothing else but an optimal observer, we analyze the implications of having a state vector that is being revised by fully correlated noise measurements. We end up revealingtheoretically and with experiments the strong limitations of using a fully correlated noise driven estimation theoretic approach to map building and localization in relation to the total number of landmarks used. Partial observability hinders full reconstructibility of the state space, making the .nal map estimate dependant on the initial observations, and does not guarantee convergence to a positive de nite covariance matrix. Partial controllability on the other hand, makes the .lter beleive after a number of iterations, that it has accurate estimates of the landmark states, with their corresponding Kalman gains converging to zero. That is, after a few steps, innovations are useless. We show how to palliate the e.ects of full correlationand partial controllability. Furthermore, given that the Kalman .lter is an optimal observer for the reconstruction of fully correlated states; it seems pertinent to build an optimal regulator in order to keep the robot as close as possible to a desired motion path when building a map. We show also how the duality between observability and controllability can be exploited in designing such an optimal regulator. Any map building and localization algorithm for mobile robotics that is to work in real time must be able to relate observations and model matches in an expeditious way. Some of the landmark compatibility tests are computationally expensive, and their application has to be carefully designed. We touch upon the time complexity issues of the various landmark compatibility tests used, and also on the desirable properties of our chosen map data structure.Furthermore, we propose a series of tasks that must be handled when dealing with landmark data association. From model compatibility tests, to search space reduction and hypothesis formation, to the actual association of observations and models. The work presented in this thesis spans several areas of engineering and computer science, from new computer vision algorithms, to novel ideas in mobile robot localization and map building. The key contributions are the proposal of a new technique to fuse visual data; the formulation of new algorithms to concurrent localization and map building that take into account temporal landmark quality; new theoretical results on the degree of reconstruction possible when building maps from fully correlated observations; and the necessary techniques to palliate partial observability, partial controllability, and the nonlinear e.ects when solving the simultaneous localization and map building problem.
48

YAM^2: a multidimensional conceptual model

Abelló Gamazo, Alberto 26 April 2002 (has links)
ABRSTRACTThis thesis proposes YAM^2, a multidimensional conceptual model for OLAP(On-Line Analytical Processing). It is defined as an extension of UML (Unified Modeling Language). The aim is to benefit from Object-Oriented concepts and relationships to allow the definition of semantically rich multi-star schemas. Thus, the usage of Generalization, Association, Derivation, and Flow relationships (in UML terminology) is studied.An architecture based on different levels of schemas is proposed and the characteristics of its different levels defined. The benefits of this architecture are twofold. Firstly, it relates Federated Information Systems with Data Warehousing, so that advances in one area can also be used in the other. Moreover, the Data Mart schemas are defined so that they can be implemented on different Database Management Systems, while still offering a common integrated vision that allows to navigate through the different stars.The main concepts of any multidimensional model are facts and dimensions. Both are analyzed separately, based on the assumption that relationships between aggregation levels are part-whole (or composition) relationships. Thus, mereology axioms are used on that analysis to prove some properties.Besides structures, operations and integrity constraints are also defined for YAM^2. Due to the fact that, in this thesis, a data cube is defined as a function, operations (i.e. Drill-across, ChangeBase, Roll-up, Projection, and Selection) are defined over functions. Regarding the set of integrity constraints, they reflect the importance of summarizability (or aggregability) of measures, and pay special attention to it. / Esta tesis propone YAM^2, un modelo conceptual multidimensional para OLAP (On-Line Analytical Processing). Éste se define como una extensión de UML (Unified Modeling Language). La intención es beneficiarse de los conceptos y relaciones de la Orientación a Objetos para permitir la definición de esquemas multi-estrella semánticamente ricos. Así, se estudia la utilización de relaciones de tipo Generalization, Association, Derivation, y Flow (en terminología UML).Se propone también una arquitectura basada en diferentes niveles de esquemas, y se estudian las características de cada uno de esos niveles. De esta arquitectura se obtienen dos beneficios. Primeramente, relaciona los Sistemas de Información Federados con los Almacenes de Datos, de manera que los avances en una de las áreas se puedan utilizar en la otra. Además, los esquemas de los Almacenes de Datos Departamentales son definidos de forma que estos se pueden implementar sobre diferentes Sistemas de Gestión de Bases de Datos, al mismo tiempo que ofrecen una visión común e integrada, que permite navegar entre las diferentes estrellas.Los principales conceptos de cualquier modelo multidimensional son los hechos y las dimensiones. Ambos son estudiados de forma independiente, basado en la asunción de que las relaciones entre los niveles de agregación son de tipo parte-todo (o composición). Así, los axiomas de la mereología son utilizados en ese análisis para demostrar algunas propiedades.Juntamente con las estructuras, operaciones y restricciones de integridad son también definidas para YAM^2. Debido al hecho de que, en esta tesis, un cubo de datos es definido como una función, la operaciones (Drill-across, ChangeBase, Roll-up, Projection, y Selection) son definidas sobre funciones. Respecto al conjunto de restricciones de integridad, estas reflejan la importancia de la sumarizabilidad (o agregabilidad) de las medidas, y presta especial atención a ello. / Aquesta tesi proposa YAM^2, un model conceptual multidimensional per OLAP (On-Line Analytical Processing). El model es defineix com una extensió d'UML (Unified Modeling Language). La intenció és aprofitar conceptes i relacions de la Orientació a Objectes per permetre la definició d'esquemes multi-estrella semànticament rics. Així, s'estudia la utilització de relacions del tipus Generalization, Association, Derivation, i Flow (utilitzant la terminologia d'UML).Es proposa una arquitectura basada en diferents nivells d'esquemes i es defineixen les característiques dels nivells. Els beneficis d'aquesta arquitectura tenen dues vessants. Primerament, relaciona els Sistemes d'Informació Federats amb els Magatzems de Dades, de manera que els avenços en els primers es puguin utilitzar en els segons. A més, els Magatzems de Dades Departamentals es defineixen de manera que es puguin implementar en Sistemes Gestors de Bases de Dades diferents, al mateix temps que ofereixen una visió integrada que permet navegar a través de diferents estrelles.Els principals conceptes de qualsevol model multidimensionals són els fets i les dimensions. Ambdós són analitzats de forma separada, basat en l'assumpció que les relacions entre els nivells d'agregació són de tipus part-tot (o composició). Així, els axiomes de la mereologia són utilitzats en l'anàlisi per provar algunes propietats.Juntament amb les estructures, operacions i restriccions d'integritat han estat definides per YAM^2. Degut al fet que, en aquesta tesi, un cub de dades es definit com una funció, les operacions (Drill-across, ChangeBase, Roll-up, Projection, i Selection) són definides sobre funcions. Respecte al conjunt de restriccions d'integritat, aquestes reflecteixen la importància de la sumaritzabilitat (o agregabilitat) de les mesures, i paren especial atenció a ella.
49

Complexity measures for resolution

Esteban Ángeles, Juan Luis 15 December 2003 (has links)
Esta obra es una contribución al campo de la Complejidad de la Demostración, que estudia la complejidad de los sistemas de demostración en términos de los recursos necesarios para demostrar o refutar fórmulas proposicionales. La Complejidad de la Demostración es un interesante campo relacionado con otros campos de la Informática como la Complejidad Computacional o la Demostración Automática entre otros. Esta obra se centra en medidas de complejidad para sistemas de demostración refutacionales para fórmulas en FNC. Consideramos varios sistemas de demostración, concretamente Resolución, R(k) y Planos Secantes y nuestros resultados hacen referencia a las medidas de complejidad de tamaño y espacio.Mejoramos separaciones de tamaño anteriores entre las versiones generales y arbóreas de Resolución y Planos Secantes. Para hacerlo, extendemos una cota inferior de tamaño para circuitos monótonos booleanos de Ran y McKenzie a circuitos monótonos reales. Este tipo de separaciones es interesante porque algunos demostradores automáticos se basan en la versión arbórea de sistemas de demostración, por tanto la separación indica que no es siempre una buena idea restringirnos a la versión arbórea.Tras la reciente aparición de R(k), que es un sistema de demostración entre Resolución y Frege con profundidad acotada, era importante estudiar cuan potente es y su relación con otros sistemas de demostración. Resolvemos un problema abierto propuesto por Krajícek, concretamente mostramos que R(2) no tiene la propiedad de la interpolación monónota factible. Para hacerlo, mostramos que R(2) es estrictamente más potente que Resolución.Una pregunta natural es averiguar si se pueden separar sucesivos niveles de R(k) o R(k) arbóreo. Mostramos separaciones exponenciales entre niveles sucesivos de lo que podemos llamar la jerarquía R(k) arbórea. Esto significa que hay formulas que requieren refutaciones de tamaño exponencial en R(k) arbóreo, pero tienen refutaciones de tamaño polinómico en R(k+1) arbóreo. Propusimos una nueva definición de espacio para Resolución mejorando la anterior de Kleine-Büning y Lettmann. Dimos resultados generales sobre el espacio para Resolución y Resolución arbórea y también una caracterización combinatoria del espacio para Resolución arbórea usando un juego con dos adversarios para fórmulas en FNC. La caracterización permite demostrar cotas inferiores de espacio para la Resolución arbórea sin necesidad de usar el concepto de Resolución o Resolución arbórea. Durante mucho tiempo no se supo si el espacio para Resolución y Resolución arbórea coincidían o no. Hemos demostrado que no coinciden al haber dado la primera separación entre el espacio para Resolución y Resolución arbórea.También hemos estudiado el espacio para R(k). Demostramos que al igual que pasaba con el tamaño, R(k) arbóreo también forma una jerarquía respecto alespacio. Por tanto, hay fórmulas que necesitan espacio casi lineal en R(k) arbóreo mientras que tienen refutaciones en R(k+1) arbóreo con espacio contante. Extendemos todas las cotas inferiores de espacio para Resolución conocidas a R(k) de una forma sencilla y unificada, que también sirve para Resolución, usando el concepto de satisfactibilidad dinámica presentado en esta obra. / This work is a contribution to the field of Proof Complexity, which studies the complexity of proof systems in terms of the resources needed to prove or refute propositional formulas. Proof Complexity is an interesting field which has several connections to other fields of Computer Science like Computational Complexity or Automatic Theorem Proving among others. This work focuses in complexity measures for refutational proof systems for CNF formulas. We consider several proof systems, namely Resolution, R(k) and Cutting Planes and our results concern mainly to the size and space complexity measures. We improve previous size separations between treelike and general versions of Resolution and Cutting Planes. To do so we extend a size lower bound for monotone boolean circuits by Raz and McKenzie, to monotone real circuits. This kind of separations is interesting because some automated theorem provers rely on the treelike version of proof systems, so the separations show that is not always a good idea to restrict to the treelike version. After the recent apparition of R(k) which is a proof system lying between Resolution and bounded-depth Frege it was important to study how powerful it is and its relation with other proof systems. We solve an open problem posed by Krajícek, namely we show that R(2) does not have the feasible monotone interpolation property. To do so, we show that R(2) is strictly more powerful than Resolution. A natural question is to find out whether we can separate successive levels of R(k) or treelike R(k). We show exponential separations between successive levels of what we can call now the treelike R(k) hierarchy. That means that there are formulas that require exponential size treelike R(k) refutations whereas they have polynomial size treelike R(k+1) refutations. We have proposed a new definition for Resolution space improving a previous one from Kleine-Büning and Lettmann. We give general results for Resolution and treelike Resolution space and also a combinatorial characterization of treelike Resolution space via a Player-Adversary game over CNF formulas. The characterization allows to prove lower bounds for treelike Resolution space with no need to use the concept of Resolution or Resolution refutations at all. For a long time it was not known whether Resolution space and treelike Resolution space coincided or not. We have answered this question in the negative because we give the first space separation from Resolution to treelike Resolution. We have also studied space for R(k). We show that, as happened with respect to size, treelike R(k) forms a hierarchy respect to space. So, there are formulas that require nearly linear space for treelike R(k) whereas they have constant space treelike R(k+1) refutations. We extend all known Resolution space lower bounds to R(k) in an easier and unified way, that also holds for Resolution, using the concept of dynamical satisfiability introduced in this work.
50

Dynamical Analysis of Lower Abdominal Wall in the Human Inguinal Hernia

Fortuny Anguera, Gerard 20 February 2009 (has links)
En aquesta tesi es construeix un simulador numèric de la paret abdominal inferior, per tal de determinar la gènesis i les causes de les hernies inguinal humanes. Així, un model amb dades reals d'aquesta regió del cos humà (correctament discretitzades) ens permetrà reproduir les propietats dinàmiques de diferents elements de la regió permetent la simulació de la hernia en el moment que te lloc.La simulació muscular en general, ha tingut un paper secundari en la simulació numèrica, ja que en ocasions sols han interessat les propietats genèriques del múscul (per això es considera el múscul com un sol element) i no en un estudi detallat de les parts del múscul. El camp on la simulació ha estat més productiva ha estat la simulació cardíaca, a causa del constant interès en la creació de models del múscul cardíac i es per aquest motiu que sols es troben models detallats en aquest cas.La contracció de la fibra muscular va ser simulada fen servir el model reològic de Hill-Maxwell presentat per en J.Bestel en el que es regula la contracció muscular amb una funció de potencial d'activació u(t). Aquest model és el primer model dinàmic en dimensió u a nivell microscòpic de la contracció muscular.Actualment, existeixen moltes conjectures sobre les causes de les hèrnies, malgrat tot, no ha estat possible un estudi detallat sobre l'origen de les hèrnies. Per altra banda, és impossible captar el moment en que es genera una hèrnia, i per altra banda hi ha una carència de model prou detallats de la contracció muscular.En aquesta tesi es presenta un estudi dinàmic de la paret abdominal inferior amb els elements actius (els músculs) i els elements passius (fàscies, lligaments i altres teixits), és per això que es pot dur a terme un estudi amb varis aspectes físics i químics que intervenen a la gènesis de les hernies. El model reprodueix la dinàmica real del àrea tal i com A. Keith i W.J. Lytle varen conjecturar als inicis del segle passat i que són usualment acceptats per la comunitat de cirurgians.Aquest és el primer model que reprodueix la dinàmica real de la regió inguinal, prova la existència de dos mecanismes de defensa (el mecanisme de persiana i el mecanisme de esfínter a l'anell inguinal). Amb aquest model de contracció muscular podem estudiar diversos paràmetres que tenen un paper important a la gènesis de les hernies inguinals i podem dur a terme un estudi més detallat sobre els elements de risc. Aquests paràmetres ( el mòdul de Young, el coeficient de Poison o la pressió intraabdominal, per exemple) tenen un efecte hipotètic no provat en la gènesis de les hèrnies. Aquest treball, avalua l'efecte real de diversos paràmetres al model lineal i proposa una simulació no lineals per la simulació muscular.ABSTRACT / This PhD thesis aims to build a numerical simulator of the inferior abdominal wall, in order to determine the genesis and causes of the inguinal hernia. Thus, a model with real data on the region of human body (properly discretized) has been built that reproduces the dynamic properties of the various elements of the region allowing the simulation of the moment at which the hernia occurs. Muscular simulation in general, has became a secondary subjec regarding numerical simulation, because on many occasions the interest has been concentrated in the general properties of the muscle (so that the muscle is considered a single element) and not in a detailed study of each of the parts of the muscle. The field where simulation has possibly been more productive is the cardiac simulation because of the constant interest in creating models of the cardiac muscle and it is for this reason that the only detailed models that exist are those related to the cardiac muscle. The muscular fibre contraction was simulated using the Hill-Maxwell rehologic model presented by J. Bestel which it regulates the contraction and recovery by means of potential activation function u(t). This model is the first dynamic model in dimension one of a microscopic muscle level. Currently, there is much varying conjecture regarding the causes of hernias, despite this however, a detailed study of their genesis, has not been possible. This is because on the one hand, it is impossible to catch the moment in which a hernia is generated, and, on the other, there is a lack of sufficiently detailed models of the muscles involved. We present a dynamic model of the inferior abdominal wall with the active elements (the muscles) and the passive elements (fascias, ligaments and other tissues), so that a study can be made of the various physical and chemical aspects that generate hernias. The model reproduces the real dynamic of the area, as A. Keith and W.J. Lytle conjectured at the beginning of the past century and commonly accepted by surgery community. This is the first model which reproduces the real dynamic in the inguinal area, so that we can prove the existence of the two defence mechanisms (the shutter mechanism and the sphincter mechanism in the inguinal ring). With this muscular contraction model we can study several parameters that it have an important role in the inguinal hernia genesis and we can do an accurate study about risk elements in the hernia inguinal. This parameters (Young's modulus, Poison's coefficient or intraabdominal pressure, for instance) have an hypothetical and no proved effect in the genesis of inguinal hernias. This work, evaluate the real effect of several parameters in the lineal model and propose a non linear model for the muscular simulation.

Page generated in 0.0364 seconds