Spelling suggestions: "subject:"indústries"" "subject:"indústrias""
51 |
Ésteres alquílicos de los ácidos poli(gama-glutámico) y poli(beta-aspártico): síntesis, estructura y propiedadesMorillo Cazorla, Margarita 03 July 2002 (has links)
Se han obtenido y caracterizado una serie de poli(a-n-alquil g-glutamato)s (PAAG-n) con n³12 y de poli(a-n-alquil b,L-aspartato)s (PAALA-n), mediante transesterificación con n-alcoholes y se ha estudiado la influencia que ejerce el grupo lateral sobre la estructura y propiedades de estos polímeros. Los polímeros se han caracterizado mediante FTIR, RMN de 1H y 13C y análisis elemental. La composición enantiomérica se ha determinado midiendo rotaciones específicas de los polímeros hidrolizados y/o mediante HPLC. Los pesos moleculares se han evaluado por viscosimetría y/o SEC/LS. La caracterización térmica se ha llevado a cabo mediante DSC, TGA y DMTA. El análisis estructural se ha realizado mediante las técnicas de DIR, 13C-CP/MAS-RMN, difracción de rayos X y de electrones. Los PAAG-n se han obtenido a partir del ácido poli(g-glutámico) (PGGA) de biosíntesis, de dos composiciones enantioméricas diferentes, uno enriquecido en el isómero D y otro de composición cercana a la racémica. El procedimiento general está basado en dos reacciones sucesivas (esterificación y transesterificación) y ha resultado especialmente útil para la preparación de ésteres de cadena larga difíciles de obtener por otros métodos. Las conversiones han sido completas no observándose racemización significativa. Los PAAG-n con n³14 forman una estructura bifásica supramolecular en láminas. Las cadenas principales adoptan una conformación helicoidal tipo hélice a y se alinean en láminas con las cadenas laterales interdigitadas formando una microfase entre las láminas. La distancia interlaminar es proporcional a n. Para estos polímeros se han encontrado las transiciones de fase A®B y B®C, a temperaturas T1 y T2. La transición A®B es reversible y tiene lugar a temperaturas entre 20 y 80 ºC. La transición B®C se ha observado para los PAAG-n con n³18 a temperaturas superiores a los 100 ºC. En la fase A las cadenas laterales están cristalizadas en una red hexagonal y dispuestas perpendicularmente a la cadena principal. En la fase B las cadenas laterales están desordenadas pero más o menos estiradas. La fase C presenta las cadenas laterales totalmente desordenadas. No se han observado efectos termocrómicos al calentar las muestras desde temperatura ambiente hasta temperaturas superiores a T2 cuando se observan bajo luz polarizada.Los PAALA-n y el PIBLA (poli(a-isobutil b,L-aspartato)) se han obtenido por transesterificación del PABLA (poli(a-bencil b,L-aspartato)). Resultó difícil conseguir conversiones completas debido a la existencia de reacciones de imidación. Los PAALA-n obtenidos mediante transesterificación mostraron temperaturas de descomposición similares a las de los PAALA-n obtenidos mediante polimerización. Las transiciones a y b (DMTA) se observan en los PAALA-n de cadenas cortas e intermedias a temperaturas más elevadas que las descritas para los PAAG-n con el mismo valor de n. La Ta disminuye a medida que aumenta n. La Tb aumentó ligeramente con n para los PAALA-n con n£ 8. La relajación g se observa para los PAALA-n con n³6.
|
52 |
Open, Reusable and Configurable Multi Agent Systems: A Knowledge Modelling ApproachGómez Martínez, Mario 15 June 2004 (has links)
Aunque los Sistemas Multiagente se suponen abiertos, la mayor parte de la investigación realizada se ha centrado en sistemas cerrados, diseñados por un sólo equipo de desarrollo, sobre un entorno homogéneo, y un único dominio.Esta tesis pretende avanzar hacia la consecución de Sistemas Multiagente abiertos. Nuestros esfuerzos se han centrado en desarrollar un marco de trabajo para Sistemas Multiagente que permita maximizar la reutilización de agentes en diferentes dominios, y soporte la formación de equipos bajo demanda, satisfaciendo los requerimientos de cada problema particular.Por un lado, este trabajo investiga el uso de Métodos de Solución de Problemas para describir las capacidades de los agentes con el objetivo de mejorar su reutilización. Hemos tenido que adaptar el modelo para trabajar con aspectos específicos de los agentes, como el lenguaje de comunicación y los protocolos de interacción.Por otro lado, esta tesis propone un nuevo modelo para el Proceso de Solución de Problemas Cooperativo, el cual introduce una fase de configuración previa a la formación de un equipo. El proceso de configuración se encarga de obtener un diseño de equipo, expresado en términos de las tareas a resolver, las capacidades a utilizar, y el conocimiento del dominio disponible.El marco de trabajo desarrollado ha sido puesto a prueba mediante la implementación de una infraestructura para agentes. Esta infraestructura proporciona un nivel de mediación social para los proveedores y clientes del sistema de resolución de problemas, sin imponer una arquitectura particular para los agentes participantes, ni un modelo mental o lógico para explicar la cooperación.Las contribuciones de este trabajo adoptan la forma de un marco de trabajo multi-capa, desde los conceptos más abstractos a los más concretos, para terminar con la implementación de una aplicación particular basada en agentes de información cooperativos. / Although Multi Agent Systems are supposed to be open systems, most of the initial research has focused on closed systems, which are designed by one developer team for one homogeneous environment, and one single domain.This thesis aims to advance some steps towards the realization of the open Multi Agent Systems vision. Our work has been materialized into a framework for developing Multi Agent Systems that maximize the reuse of agent capabilities across multiple application domains, and support the automatic, on-demand configuration of agent teams according to stated problem requirements.On the one hand, this work explores the feasibility of the Problem Solving Methods approach to describe agent capabilities in a way that maximizes their reuse. However, since Problem Solving Methods are not designed for agents, we have had to adapt them to deal with agent specific concepts concerning the agent communication languages and interaction protocols.One the other hand, this thesis proposes a new model of the Cooperative Problem Solving process that introduces a Knowledge Configuration stage previous to the Team Formation stage. The Knowledge Configuration process performs a bottom-up design of a team in term of the tasks to be solved, the capabilities required, and the domain knowledge available.The statements made herein are endorsed by the implementation of an agent infrastructure that has been tested in practice. This infrastructure has been developed according to the electronic institutions formalism to specifying open agent societies. This infrastructure provides a social mediation layer for both requesters and providers of capabilities, without imposing neither an agent architecture, nor an attitudinal theory of cooperation.The contributions of our work are presented as a multilayered framework, going from the more abstract aspects, to the more concrete, implementation dependent aspects, concluding with the implementation of the agent infrastructure and a particular application example for cooperative information agents.
|
53 |
Information theory techniques for multimedia data classification and retrievalVila Duran, Marius 09 July 2015 (has links)
We are in the information age where most data is stored in digital format. Thus, the management of digital documents and videos requires the development of efficient techniques for automatic analysis. Among them, capturing the similarity or dissimilarity between different document images or video frames are extremely important.
In this thesis, we first analyze for several image resolutions the behavior of three different families of image-based similarity measures applied to invoice classification. In these three set of measures, the computation of the similarity between two images is based, respectively, on intensity differences, mutual information, and normalized compression distance. As the best results are obtained with mutual information-based measures, we proceed to investigate the application of three different Tsallis-based generalizations of mutual information for different entropic indexes. These three generalizations derive respectively from the Kullback-Leibler distance, the difference between entropy and conditional entropy, and the Jensen-Shannon divergence.
In relation to digital video processing, we propose two different information-theoretic approaches based, respectively, on Tsallis mutual information and Jensen-Tsallis divergence to detect the abrupt shot boundaries of a video sequence and to select the most representative keyframe of each shot.
Finally, Shannon entropy has been commonly used to quantify the image informativeness. The main drawback of this measure is that it does not take into account the spatial distribution of pixels. In this thesis, we analyze four information-theoretic measures that overcome this limitation. Three of them (entropy rate, excess entropy, and erasure entropy) consider the image as a stationary stochastic process, while the fourth (partitional information) is based on an information channel between image regions and histogram bins / Ens trobem a l’era de la informació on la majoria de les dades s’emmagatzemen en format digital. Per tant, la gestió de documents i vídeos digitals requereix el desenvolupament de tècniques eficients per a l’anàlisi automàtic. Entre elles, la captura de la similitud o dissimilitud entre diferents imatges de documents o fotogrames de vídeo és extremadament important.
En aquesta tesi, analitzem, a diverses resolucions d’imatge, el comportament de tres famílies diferents de mesures basades en similitud d’imatges i aplicades a la classificació de factures. En aquests tres conjunt de mesures, el càlcul de la similitud entre dues imatges es basa, respectivament, en les diferències d’intensitat, en la informació mútua, i en la distància de compressió normalitzada. Degut a que els millors resultats s’obtenen amb les mesures basades en la informació mútua, es procedeix a investigar l’aplicació de tres generalitzacions de la informació mútua basades en Tsallis en diferents índexs entròpics. Aquestes tres generalitzacions es deriven respectivament de la distància de Kullback-Leibler, la diferència entre l’entropia i entropia condicional, i la divergència de Jensen-Shannon.
En relació al processament de vídeo digital, proposem dos enfocaments diferents de teoria de la informació basats respectivament en la informació mútua de Tsallis i en la divergència de Jensen-Tsallis, per detectar els límits d’un pla cinematogràfic en una seqüència de vídeo i per seleccionar el fotograma clau més representatiu de cada pla.
Finalment, l’entropia de Shannon s’ha utilitzat habitualment per quantificar la informativitat d’una imatge. El principal inconvenient d’aquesta mesura és que no té en compte la distribució espacial dels píxels. En aquesta tesi, s’analitzen quatre mesures de teoria de la informació que superen aquesta limitació. Tres d’elles (entropy rate, excess entropy i erasure entropy) consideren la imatge com un procés estocàstic estacionari, mentre que la quarta (partitional information) es basa en un canal d’informació entre les regions d’una imatge i els intervals de l’histograma
|
54 |
Perceptual information-theoretic measures for viewpoint selection and object recognitionBonaventura Brugués, Xavier 10 July 2015 (has links)
Viewpoint selection has been an emerging area in computer graphics for some years, and it is now getting maturity with applications in fields such as scene navigation, volume visualization, object recognition, mesh simplification, and camera placement. But why is viewpoint selection important? For instance, automated viewpoint selection could play an important role when selecting a representative model by exploring a large 3D model database in as little time as possible. Such an application could show the model view that allows for ready recognition or understanding of the underlying 3D model. An ideal view should strive to capture the maximum information of the 3D model, such as its main characteristics, parts, functionalities, etc. The quality of this view could affect the number of models that the artist can explore in a certain period of time.
In this thesis, we present an information-theoretic framework for viewpoint selection and object recognition. From a visibility channel between a set of viewpoints and the polygons of a 3D model we obtain several viewpoint quality measures from the respective decompositions of mutual information. We also review and compare in a common framework the most relevant viewpoint quality measures for polygonal models presented in the literature.
From the information associated to the polygons of a model, we obtain several shading approaches to improve the object recognition and the shape perception. We also use this polygonal information to select the best views of a 3D model and to explore it. We use these polygonal information measures to enhance the visualization of a 3D terrain model generated from textured geometry coming from real data.
Finally, we analyze the application of the viewpoint quality measures presented in this thesis to compute the shape similarity between 3D polygonal models. The information of the set of viewpoints is seen as a shape descriptor of the model. Then, given two models, their similarity is obtained by performing a registration process between the corresponding set of viewpoints / La selecció de punts de vista ha estat una àrea emergent en la computació gràfica des de fa alguns anys i ara està aconseguint la maduresa amb aplicacions en camps com la navegació d’una escena, la visualització de volums, el reconeixement d’objectes, la simplificació d’una malla i la col·locació de la càmera. Però per què és important la selecció del punt de vista? Per exemple, la automatització de la selecció de punts de vista podria tenir un paper important a l’hora de seleccionar un model representatiu mitjançant l’exploració d’una gran base de dades de models 3D en el menor temps possible. Aquesta aplicació podria mostrar la vista del model que permet el millor reconeixement o comprensió del model 3D. Un punt de vista ideal ha de captar la màxima informació del model 3D, com per exemple les seves principals característiques, parts, funcionalitats, etc. La qualitat d’aquest punt de vista pot afectar el nombre de models que l’artista pot explorar en un determinat període de temps.
En aquesta tesi, es presenta un marc de teoria de la informació per a la selecció de punts de vista i el reconeixement d’objectes. Obtenim diverses mesures de qualitat de punt de vista a través de la descomposició de la informació mútua d’un canal de visibilitat entre un conjunt de punts de vista i els polígons d’un model 3D. També revisem i comparem en un marc comú les mesures més rellevants que s’han presentat a la literatura sobre la qualitat d’un punt de vista d’un model poligonal.
A partir de la informació associada als polígons d’un model, obtenim diversos tipus de renderitzat per millorar el reconeixement d’objectes i la percepció de la forma. Utilitzem aquesta informació poligonal per seleccionar les millors vistes d’un model 3D i per la seva exploració. També usem aquestes mesures d’informació poligonal per millorar la visualització d’un model de terreny 3D amb textures generat a partir de dades reals.
Finalment, s’analitza l’aplicació de les mesures de qualitat de punt de vista presentades en aquesta tesi per calcular la similitud entre dos models poligonals. La informació del conjunt de punts de vista és vista com un descriptor del model. Llavors, donats dos models poligonals, la seva similitud s’obté mitjançant la realització d’un procés de registre entre els conjunts de punts de vista corresponents
|
55 |
On rank and kernel of perfect codesVillanueva, M. (Mercè) 19 October 2001 (has links)
No description available.
|
56 |
Coding techniques for distributed storageGastón Brasó, Bernat 29 November 2013 (has links)
Encara que l'emmagatzematge online d'informació és un negoci creixent, no està exempt de problemàtiques, una d'elles és la persistència i accessibilitat de les dades. Cal replicar les dades de manera que si es perd una còpia no es perdi la informació de forma definitiva. Malauradament, la replicació de dades (coneguda com a ``backup'') no és una solució eficient, ja que introdueix molta redundància que provoca sobre costos. Els codis correctors d'errors són coneguts per augmentar la persistència i l'accessibilitat de les dades minimitzant la redundància necessària. Però el seu us introdueix altres problemes com l'anomenat ``repair problem'': com substituir un node d'emmagatzematge descarregant el mínim de dades dels altres nodes.
En aquesta dissertació, estudiem l'estat de l'art pel que fa als codis aplicats a sistemes d'emmagatzematge distribuïts, com per exemple el ``cloud storage''. També ens introduïm al ``repair problem'' des de la vessant més aplicada, usant topologies de sistemes reals com els ``data centers''.
Concretament, aportem una família de codis regeneratius que anomenem quasi-cyclic flexible regenerating codes i que es caracteritza per minimitzar l'ús de recursos computacionals en el procés de regeneració d'un node. Alhora, aquesta solució minimitza les dades emmagatzemades i l'ample de banda necessari per regenerar un node que falla.
També estudiem el cas en que els costos de descàrrega de les dades no són homogenis. En concret, ens centrem en el cas dels racks, on els nodes d'emmagatzematge estan distribuïts en racks, i el cost de descàrrega de dades dels nodes en el mateix rack és molt menor que el cost de descàrrega de dades dels nodes en un altre rack. Aquest nou model generalitza els models teòrics anteriors i ens permet comprovar que els costos poden disminuir si adaptem el model teòric a la topologia concreta del sistema d'emmagatzematge distribuït. / Online data storage is often regarded as a growing business, yet many unresolved issues linger in this specific field and prevent researchers from driving it to full capacity. Data replication (most commonly known as backup) is simply not efficient when improving persistence and accessibility of such data. Error correcting codes are known for their efficiency when adding redundancy to avoid lose of information. Unfortunately, the use of error correcting codes entail additional problems such as the repair problem: how do we replace a storage node downloading as less data as possible from other nodes.
In this dissertation, we deepen on state-of-the-art of codes applied to distributed storage systems. Additionally, a family of regenerative codes which we call quasi-cyclic flexible regenerating codes is provided. Quasi-cyclic flexible minimum storage regenerating (QCFMSR) codes are constructed and their existence is well-proven. Quasi-cyclic flexible regenerating codes with minimum bandwidth constructed from a base QCFMSR code are also provided.
Quasi-cyclic flexible regenerating codes are very interesting because of their simplicity and low complexity. They allow exact repair-by-transfer in the minimum bandwidth case and an exact pseudo repair-by-transfer in the MSR case, where operations are needed only when a new node enters into the system replacing a lost one.
Finally, we propose a new model whereby storage nodes are placed in two racks. This unprecedented two-rack model is generalized to any number of racks. In this specific set-up, storage nodes have different repair costs depending on the rack where they are placed. A threshold function, which minimizes the amount of stored data per node and bandwidth needed to regenerate a failed node, is also shown. This latter threshold function generalizes those given by previous distributed storage models. Tradeoff curves obtained from this threshold function are compared with those obtained from previous models, and it is shown that this new model outperforms previous ones in terms of repair cost.
|
57 |
Relational models for visual understanding of graphical documents. Application to architectural drawings.Heras, Lluís-Pere de las 01 December 2014 (has links)
Els documents gráfics són documents que expressen continguts semántics utilitzant
majoritáriament un llenguatge visual. Aquest llenguatge está format per un vocabulari
(símbols) i una sintaxi (relacions estructurals entre els símbols) que conjuntament
manifesten certs conceptes en un context determinat. Per tant, la interpretació dun
document gráfic per part dun ordinador implica tres fases. (1) Ha de ser capadçe
detectar automáticament els símbols del document. (2) Ha de ser capadç extreure les
relacions estructurals entre aquests símbols. I (3), ha de tenir un model del domini per
tal poder extreure la semántica. Exemples de documents gráfics de diferents dominis
són els planells darquitectural i d’enginyeria, mapes, diagrames de flux, etc.
El Reconeixement de Gráfics, dintre de lárea de recerca de Análisi de Documents,
neix de la necessitat de la indústria dinterpretar la gran quantitat de documents gráfics
digitalitzats a partir de laparició de lescáner. Tot i que molts anys han passat daquests
inicis, el problema de la interpretació automática de documents sembla encara estar
lluny de ser solucionat. Básicament, aquest procés sha alentit per una raó principal:
la majoria dels sistemes dinterpretació que han estat presentats per la comunitat són
molt centrats en una problemática específica, en el que el domini del document marca
clarament la implementació del mètode. Per tant, aquests mètodes són difícils de
ser reutilitzats en daltres dades i marcs daplicació, estancant així la seva adopció i
evolució en favor del progrés.
En aquesta tesi afrontem el problema de la interpretació automática de documents
gráfics a partir dun seguit de models relacionals que treballen a tots els nivells
del problema, i que han estat dissenyats des dun punt de vista genèric per tal de que
puguin ser adaptats a diferents dominis. Per una part, presentem 3 mètodes diferents
per a lextracció dels símbols en un document. El primer tracta el problema des dun
punt de vista estructural, en el que el coneixement general de lestructura dels símbols
permet trobar-los independentment de la seva aparença. El segon és un mètode estad
ístic que aprèn laparença dels símbols automáticament i que, per tant, sadapta a
la gran variabilitat del problema. Finalment, el tercer mètode és una combinació
dambdós, heretant els beneficis de cadascun dels mètodes. Aquesta tercera implementaci
ó no necessita de un aprenentatge previ i a més sadapta fácilment a múltiples
notacions gráfiques. D’altra banda, presentem dos mètodes per a la extracció del context
visuals. El primer mètode segueix una estratègia bottom-up que cerca les relacions
estructurals en una representació de graf mitjançant algorismes dintel_ligència artificial.
La segona en canvi, és un mètode basat en una gramática que mitjançant un model
probabilístic aprèn automáticament lestructura dels planells. Aquest model guia la
interpretació del document amb certa independència de la implementació algorísmica.
Finalment, hem definit una base del coneixement fent confluir una definició ontol`ogica
del domini amb dades reals. Aquest model ens permet raonar les dades des dun punt
de vista contextual i trobar inconsistències semántiques entre les dades. Leficiència
daquetes contribucions han estat provades en la interpretació de planells darquitectura.
Aquest documents no tenen un estándard establert i la seva notació gráfica
i inclusió dinformació varia de planell a planell. Per tant, és un marc rellevant del
problema de reconeixement gráfic. A més, per tal de promoure la recerca en termes
de interpretació de documents gráfics, fem públics tant les dades, leina per generar
les dades i els evaluadors del rendiment. / Graphical documents express complex concepts using a visual language. This language
consists of a vocabulary (symbols) and a syntax (structural relations among
symbols) that articulate a semantic meaning in a certain context. Therefore, the
automatic interpretation of these sort of documents by computers entails three main
steps: the detection of the symbols, the extraction of the structural relations among
these symbols, and the modeling of the knowledge that permits the extraction of
the semantics. Different domains in graphical documents include: architectural and
engineering drawings, maps, flowcharts, etc.
Graphics Recognition in particular and Document Image Analysis in general are
born from the industrial need of interpreting a massive amount of digitalized documents
after the emergence of the scanner. Although many years have passed, the
graphical document understanding problem still seems to be far from being solved.
The main reason is that the vast majority of the systems in the literature focus on
a very specific problems, where the domain of the document dictates the implementation
of the interpretation. As a result, it is difficult to reuse these strategies on
different data and on different contexts, hindering thus the natural progress in the
field.
In this thesis, we face the graphical document understanding problem by proposing
several relational models at different levels that are designed from a generic perspective.
Firstly, we introduce three different strategies for the detection of symbols.
The first method tackles the problem structurally, wherein general knowledge of the
domain guides the detection. The second is a statistical method that learns the
graphical appearance of the symbols and easily adapts to the big variability of the
problem. The third method is a combination of the previous two inheriting their
respective strengths, i.e. copes the big variability and does not need of annotated
data. Secondly, we present two relational strategies that tackle the problem of the
visual context extraction. The first one is a full bottom up method that heuristically
searches in a graph representation the contextual relations among symbols. Contrarily,
the second is syntactic method that models probabilistically the structure of the
documents. It automatically learns the model, which guides the inference algorithm
to counter the best structural representation for a given input. Finally, we construct a
knowledge-based model consisting of an ontological definition of the domain and real
data. This model permits to perform contextual reasoning and to detect semantic
inconsistencies within the data. We evaluate the suitability of the proposed contributions
in the framework of floor plan interpretation. Since there is no standard in the modeling of these documents, there exists an enormous notation variability and the
sort of information included in the documents also varies from plan to plan. Therefore,
floor plan understanding is a relevant task in the graphical document understanding
problem. It is also worth to mention that, we make freely available all the resources
used in this thesis (the data, the tool used to generate the data, and the evaluation
scripts) aiming at fostering the research in graphical document understanding task.
|
58 |
On the automatic detection of otolith features for fish species identification and their age estimationSória Pérez, José A. (José Antonio) 21 January 2013 (has links)
This thesis deals with the automatic detection of features in signals, either extracted from photographs or captured by means of electronic sensors, and its possible application in the detection of morphological structures in fish otoliths so as to identify species and estimate their age at death. From a more biological perspective, otoliths, which are calcified structures located in the auditory system of all teleostean fish, constitute one of the main elements employed in the study and management of marine ecology. In this sense, the application of Fourier descriptors to otolith images, combined with component analysis, is habitually a first and a key step towards characterizing their morphology and identifying fish species. However, some of the main limitations arise from the poor interpretation that can be obtained with this representation and the use that is made of the coefficients, as generally they are selected manually for classification purposes, both in quantity and representativity. The automatic detection of irregularities in signals, and their interpretation, was first addressed in the so-called Best-Basis paradigm. In this sense, Saito's Local discriminant Bases algorithm (LDB) uses the Discrete Wavelet Packet Transform (DWPT) as the main descriptive tool for positioning the irregularities in the time-frequency space, and an energy-based discriminant measure to guide the automatic search of relevant features in this domain. Current density-based proposals have tried to overcome the limitations of the energy-based functions with relatively little success. However, other measure strategies more consistent with the true classification capability, and which can provide generalization while reducing the dimensionality of features, are yet to be developed. The proposal of this work focuses on a new framework for one-dimensional signals. An important conclusion extracted therein is that such generalization involves a mesure system of bounded values representing the density where no class overlaps. This determines severely the selection of features and the vector size that is needed for proper class identification, which must be implemented not only based on global discriminant values but also on the complementary information regarding the provision of samples in the domain. The new tools have been used in the biological study of different hake species, yielding good classification results. However, a major contribution lies on the further interpretation of features the tool performs, including the structure of irregularities, time-frequency position, extension support and degree of importance, which is highlighted automatically on the same images or signals. As for aging applications, a new demodulation strategy for compensating the nonlinear growth effect on the intensity profile has been developed. Although the method is, in principle, able to adapt automatically to the specific growth of individual specimens, preliminary results with LDB-based techniques suggest to study the effect of lighting conditions on the otoliths in order to design more reliable techniques for reducing image contrast variation. In the meantime, a new theoretic framework for otolith-based fish age estimation has been presented. This theory suggests that if the true fish growth curve is known, the regular periodicity of age structures in the demodulated profile is related to the radial length the original intensity profile is extracted from. Therefore, if this periodicity can be measured, it is possible to infer the exact fish age omitting feature extractors and classifiers. This could have important implications in the use of computational resources anc current aging approaches. / El eje principal de esta tesis trata sobre la detección automática de singularidades en señales, tanto si se extraen de imágenes fotográ cas como si se capturan de sensores electrónicos, así como su posible aplicación en la detección de estructuras morfológicas en otolitos de peces para identi car especies, y realizar una estimación de la edad en el momento de su muerte.
Desde una vertiente más biológica, los otolitos, que son estructuras calcáreas alojadas en el sistema auditivo de todos los peces teleósteos, constituyen uno de los elementos principales en el estudio y la gestión de la ecología marina. En este sentido, el uso combinado de descriptores de Fourier y el análisis de componentes es el primer paso y la clave para caracterizar su morfología e identi car especies marinas. Sin embargo, una de las limitaciones principales de este sistema de representación subyace en la interpretación limitada que se puede obtener de las irregularidades, así como el uso que se hace de los coe cientes en tareas de clasi cación que, por lo general, acostumbra a seleccionarse manualmente tanto por lo que respecta a la cantidad y a su importancia.
La detección automática de irregularidades en señales, y su interpretación, se abordó por primera bajo el marco del Best-Basis paradigm. En este sentido, el algoritmo Local Discriminant Bases (LDB) de N. Saito utiliza la Transformada Wavelet Discreta (DWT) para describir el posicionamiento de características en el espacio tiempo-frecuencia, y una medida discriminante basada en la energía para guiar la búsqueda automática de características en dicho dominio. Propuestas recientes basadas en funciones de densidad han tratado de superar las limitaciones que presentaban las medidas de energía con un éxito relativo. No obstante, todavía están por desarrollar nuevas estrategias más
consistentes con la capacidad real de clasi cación y que ofrezcan mayor generalización al reducir la dimensión de los datos de entrada.
La propuesta de este trabajo se centra en un nuevo marco para señales unidimensionales.
Una conclusión principal que se extrae es que dicha generalización pasa por un marco de medidas de valores acotados que re ejen la densidad donde las clases no se solapan. Esto condiciona severamente el proceso de selección de características y el tamaño del vector necesario para identi car las clases correctamente, que se ha de establecer no sólo en base a valores discriminantes globales sino también en la información complementaria sobre la disposición de las muestras en el dominio.
Las nuevas herramientas han sido utilizadas en el estudio biológico de diferentes especies de merluza, donde se han conseguido buenos resultados de identi cación. No obstante, la contribución principal subyace en la interpretación que dicha herramienta hace de las características seleccionadas, y que incluye la estructura de las irregularidades, su posición temporal-frecuencial, extensión en el eje y grado de relevancia, el cual, se resalta automáticamente sobre la misma imagen o señal.
Por lo que respecta a la determinación de la edad, se ha planteado una nueva estrategia de demodulación para compensar el efecto del crecimiento no lineal en los per les de intensidad. Inicialmente, aunque el método implementa un proceso de optimización capaz de adaptarse al crecimiento individual de cada pez automáticamente, resultados preliminares obtenidos con técnicas basadas en el LDB sugieren estudiar el efecto de las condiciones lumínicas sobre los otolitos con el n de diseñar algoritmos que reduzcan la variación del contraste de la imagen más ablemente.
Mientras tanto, se ha planteado una nueva teoría para estimar la edad de los peces en base a otolitos. Esta teoría sugiere que si la curva de crecimiento real del pez se conoce, el período regular de los anillos en el per l demodulado está relacionado con la longitud total del radio donde se extrae el per l original. Por tanto, si dicha periodicidad es medible, es posible determinar la edad exacta sin necesidad de utilizar extractores de características o clasi cadores, lo cual tendría implicaciones importantes en el uso de recursos computacionales y en las técnicas actuales de estimación de la edad. / L'eix principal d'aquesta tesi tracta sobre la detecció automàtica d'irregularitats en senyals, tant si s'extreuen de les imatges fotogrà ques com si es capturen de sensors electrònics, així com la seva possible aplicació en la detecció d'estructures morfològiques en otòlits de peixos per identi car espècies, i realitzar una estimació de l'edat en el moment de la seva mort.
Des de la vesant més biològica, els otòlits, que son estructures calcàries que es troben en el sistema auditiu de tots els peixos teleostis, constitueixen un dels elements principals en l'estudi i la gestió de l'ecologia marina. En aquest sentit, l'ús combinat de descriptors de Fourier i l'anàlisi de components es el primer pas i la clau per caracteritzar la seva morfologia i identi car espècies marines. No obstant, una de les limitacions principals d'aquest sistema de representació consisteix en la interpretació limitada de les irregularitats que pot desenvolupar, així com l'ús que es realitza dels coe cients en tasques de classi cació, els quals, acostumen a ser seleccionats manualment tant pel que
respecta a la quantitat com la seva importància. La detecció automàtica d'irregularitats en senyals, així com la seva interpretació, es
va tractar per primera vegada sota el marc del Best-Basis paradigm. En aquest sentit, l'algorisme Local Discriminant Bases (LDB) de N. Saito es basa en la Transformada Wavelet Discreta (DWT) per descriure el posicionament de característiques dintre de l'espai temporal-freqüencial, i en una mesura discriminant basada en l'energia per guiar la cerca automàtica de característiques dintre d'aquest domini. Propostes més recents basades en funcions de densitat han tractat de superar les limitacions de les mesures d'energia amb un èxit relatiu. No obstant, encara s'han de desenvolupar noves estratègies que siguin més consistents amb la capacitat real de classi cació i ofereixin més
generalització al reduir la dimensió de les dades d'entrada.
La proposta d'aquest treball es centra en un nou marc per senyals unidimensionals. Una de las conclusions principals que s'extreu es que aquesta generalització passa per establir un marc de mesures acotades on els valors re ecteixin la densitat on cap classe es solapa. Això condiciona bastant el procés de selecció de característiques i la mida del vector necessari per identi car les classes correctament, que s'han d'establir no només en base a valors discriminants globals si no també en informació complementària sobre la disposició de les mostres en el domini. Les noves eines s'han utilitzat en diferents estudis d'espècies de lluç, on s'han obtingut bons resultats d'identi cació. No obstant, l'aportació principal consisteix en la interpretació que l'eina extreu de les característiques seleccionades, i que inclou l'estructura de les irregularitats, la seva posició temporal-freqüencial, extensió en l'eix i grau de rellevància, el qual, es ressalta automàticament sobre les mateixa imatge o senyal.
En quan a l'àmbit de determinació de l'edat, s'ha plantejat una nova estratègia de demodulació de senyals per compensar l'efecte del creixement no lineal en els per ls d'intensitat. Tot i que inicialment aquesta tècnica desenvolupa un procés d'optimització capaç d'adaptar-se automàticament al creixement individual de cada peix, els resultats amb el LDB suggereixen estudiar l'efecte de les condicions lumíniques sobre els otòlits amb la nalitat de dissenyar algorismes que redueixin la variació del contrast de les imatges més ablement.
Mentrestant s'ha plantejat una nova teoria per realitzar estimacions d'edat en peixos en base als otòlits. Aquesta teoria suggereix que si la corba de creixement és coneguda, el període regular dels anells en el per l d'intensitat demodulat està relacionat amb la longitud total de radi d'on s'agafa el per l original. Per tant, si la periodicitat es pot mesurar, es possible conèixer l'edat exacta del peix sense usar extractors de
característiques o classi cadors, la qual cosa tindria implicacions importants en l'ús de recursos computacionals i en les tècniques actuals d'estimació de l'edat.
|
59 |
Fine-motion planning for robotic assembly under modelling and sensing uncertaintiesRosell Gratacòs, Jan 13 October 1998 (has links)
This thesis proposes a fine-motion planner for assembly tasks in the plane considering two degrees of freedom of translation and one of rotation, taking into account modelling and sensing uncertainties and the effect of friction. The proposed planner is based on a two-phase approach. First, uncertainty is not considered and a nominal solution path is searched in a graph representing the free configuration space, which has been obtained with an exact cell decomposition method. Then, uncertainty is considered and the arcs of the solution path are evaluated in order that the possible contacts occurring during the traversing of the arc do not provoke a failure of the task execution. When this is not possible, the planner finds a patch plan in contact-space in an analogous way as the nominal solution path in free-space.This work:- introduces the parametrized translational configuration space, which is an embedding of the rotational degree of freedom into the translational configuration space, for the analysis of the geometric constraints of planar assembly tasks.- makes a thorough analysis of the sources of uncertainty that affect an assembly task. Modelling and sensing uncertainties have been considered. Although modelling uncertainty is an important source of uncertainty that affects assembly tasks, it has usually been overlooked by most of the researchers. In this work, this source of uncertainty has been meticulously studied, by analyzing the effects of both positioning uncertainty and manufacturing tolerances. The dependence between sources of uncertainty is also taken into account.- includes a force analysis using the dual representation of forces, which allows to consider in an easy way both the geometric uncertainties that affect the possible raction forces arising at the contact situations, as well as the sensor uncertainties. Friction has been considered and modelled with the generalized friction cone. The suitability of this model for this kind of tasks has been validated from the experiments. - synthesizes the robot motions using a force-compliant control based on the generalized damping model. Task execution includes uncertainty reduction routines in order to adapt the robot commands to the actual geometry of the task.
|
60 |
Gestion informatica en la dirección clinica hospitalaria. aplicación a un servicio de urologíaUria González-Tova, Juan 31 March 2004 (has links)
La evolución y transformación de los sistemas públicos de salud han hecho necesaria una descentralización y una mayor autonomía en la gestión hospitalaria para poder mantener los compromisos de eficacia, eficiencia y calidad en las prestaciones sanitarias.· La autonomía en la gestión ha de llegar al nivel de cada Servicio o Unidad funcional, implicando de mayor manera al profesional sanitario en el análisis de su actividad diaria y los diferentes parámetros que la componen, para una mejora continua en la calidad de la actividad asistencial, facilitando así mismo un desarrollo satisfactorio de su papel como profesional.La presente Tesis expone el desarrollo de una aplicación informática original en su concepto, para ser aplicada por una Dirección clínica, en este caso a un Servicio de Urología (pero aplicable por cualquier Servicio), que permita un completo análisis desde el punto de vista clínico, económico y científico del conjunto del Servicio o de manera especifica del personal que lo compone. La filosofía de la aplicación es que utilizando el sistema informático como herramienta diaria de trabajo para todo el personal implicado en la labor diaria de un Servicio de Urología y sin suponer ningún tipo de trabajo adicional o duplicación de tareas, se recoja de manera fácil, automatizada e instantánea toda la información que podamos necesitar para el análisis tanto clínico como económico del Servicio. La información está disponible en la red y puede ser consultada "on-line" por los Servicios que colaboran con el Servicio de Urología o por los estamentos directivos del Hospital, pudiendo volcar en sus bases de datos todos aquellos parámetros necesarios para la gestión del Hospital en su conjunto.Se quiere destacar que tomando al paciente como eje único y final de todos los actos que se llevan a cabo en un Servicio, se obtienen por contabilidad analítica los datos microeconómicos a partir de los cuales se pueden ofrecer los resultados para que los estamentos gestores dispongan de los datos suficientes para elaborar la macroeconomía sanitaria de un área, provincia o Estado La aplicación informática que se desarrolla en esta Tesis, se organiza en torno a una estación clínica central, que tiene como eje principal al paciente, ya sea en el área de Ingresos, de Consulta Externas o de Urgencias. Desde la pantalla de cada enfermo se accede a la Historia Clínica, los Servicios Centrales y las pruebas complementarias de manera directa, sin claves ni pasos intermedios. Consideramos fundamental este tipo de estructuración modular en la que desde un único punto de origen se pueden obtener todos los datos que necesitemos para el correcto proceso asistencial del enfermo, sin necesidad de cambiar aplicativos ni menús.Se ha desarrollado un entorno cliente-servidor, en Visual Basic 6.0, sobre tecnología ADO, por lo que el programa es escalable y conectable a cualquier tipo de origen de datos, dentro de la Intranet hospitalaria. El Servicio de informática ha colaborado con un modulo que realiza una consulta al servidor central Oracle (SIAH) y con solo introducir el numero de historia o de episodio clínico, devuelve un recordset de solo lectura con los datos de filiación del paciente. Es la forma de evitar errores de trascripción sintáctica que dificultarían la búsqueda de la filiación correcta del cliente. En un segundo paso se esta migrando a Oracle y a la plataforma de programación .NETEsta Tesis intenta ser una aproximación desde el punto de vista de un Clínico, a como debería de informatizarse un Servicio de Urología para poder llevar a cabo una gestión clínica y contable lo más automatizada y precisa posible, en base a los modelos y parámetros vigentes. / The evolution and transformation of the public health systems have made necessary the decentralization and a major autonomy in the hospital management to be able to support the commitments of efficacy, efficiency and quality in the sanitary benefits. The autonomy in the management has to come at the level of every Service or functional Unit involving in a major way to all the sanitary professionals in the analysis of their daily activities and the different parameters that compose it, for a constant improvement in the quality of the medical assistance, facilitating likewise a satisfactory development of their role as professionals.The present Thesis exposes the development of a computer application, original in its concept, to be applied by a clinical Direction, in this case to a service of Urology (but applicable for any Service), that allows a complete analysis from the clinical, scientist and economic point of view over the set of the Service or the personnel that composes it.The philosophy of the application is that using the computer system as the daily tool of work for the whole personnel involved in the daily work of the service of Urology and without supposing any type of additional work or duplication of tasks, there is gathered from easy, automated and instantaneous way all the information that we prune to need for the analysis so much clinical as economically of the Service.The information is available in the net and can be consulted "on-line" by the Services that collaborate with the Service of Urology or for the managerial estates of the Hospital, being able to overturn in their information databases all those necessary parameters for the management of the HospitalWe would like to emphasize that taking to the patient as the axis of all the acts that are carried out in a Service, there are obtained by analytical accounting the microeconomic information from which obtain the results to the managing estates, in order to have the necessary information to elaborate the sanitary macroeconomics of an area, province or StateThe computer application that develops in this Thesis, one organizes around a clinical central station, which takes as the principal axis to the patient, as well in the income area as in emergency or in consulting room. From the screen of every patient one accedes to the Clinical History, the Central Services and the complementary tests in a direct way, without keys or intermediate steps. We consider fundamental this type of modular structure where from an only point there can be obtained all the information that we need for the correct medical assistance of the patient, without need to change applications not even menus.We have developed a client-server environment with Visual Basic 6.0 and technology ADO, to make the program scalable and connectable to any type of information system, inside the hospital Intranet. The Service of computer science has collaborated with a module that realizes a consultation to the central Oracle server (SIAH) and with only to introduce the number of history or of clinical episode, returns an only read recordset with the filiation of the patient. It is the way of avoiding mistakes of syntactic transcription. In a second step we perform a migration to Oracle and to the programming platform .NETThis Thesis tries to be an approximation from the point of view of a clinical professional, to the computerization of a service of Urology in order to be able to carry out a clinical and countable management in the most automated and precise way, on the basis of the valid models and parameters.
|
Page generated in 0.0751 seconds