Spelling suggestions: "subject:"cibernética.""
1 |
Generation and control of locomotion for biped robots based on biologically inspired approachesCristiano Rodríguez, Julián Efrén 15 January 2016 (has links)
Aquesta tesi proposa l'ús d'aproximacions de control inspirades biològicament per a generar i controlar el patró de locomoció omnidireccional de robots humanoides, adaptant el seu moviment a diversos tipus de terreny pla usant realimentació multisensorial. Els sistemes de control de locomoció proposats van ser implementats usant xarxes de Generadors Centrals de Patrons (CPG) basades en el model de neurona de Matsuoka. Els CPGs són xarxes neuronals biològiques situades en el sistema nerviós central dels vertebrats o en els ganglis principals d'invertebrats, les quals poden controlar moviments coordinats.
El fet que, a la natura, la locomoció humana i animal sigui controlada mitjançant xarxes CPG ha inspirat la teoria en la qual es basa la present tesi. En particular, la tesi proposa dues arquitectures de control en llaç tancat basades en mètodes de control CPG-espai-articulacions, les quals han estat validades mitjançant un robot simulat i un robot humanoide NAO real. La primera arquitectura de control va identificar algunes característiques importants que un esquema de control CPG-espai-articulacions ha de tenir si es vol descriure un patró de locomoció útil. A partir d'aquesta anàlisi, la segona arquitectura de control va ser proposada per descriure patrons de locomoció ben caracteritzats.
Per a millorar el comportament del sistema en llaç tancat, s’ha proposat un mecanisme de reinicialització de fase per a xarxes CPG basades en el model de neurona de Matsuoka. Aquest mecanisme fa possible dissenyar i estudiar controladors de realimentació que poden modificar ràpidament els patrons de locomoció generats.
Els resultats obtinguts mostren que els esquemes de control proposats poden produir patrons de locomoció ben caracteritzats amb una resposta ràpida adequada per a robots humanoides amb una capacitat de processament reduïda. Els experiments també indiquen que el sistema de control proposat habilita el robot a respondre ràpida i robustament, i poder fer front a situacions complexes. / Esta tesis propone el uso de aproximaciones de control inspiradas biológicamente para generar y controlar el modo de caminar omnidireccional de robots humanoides, adaptando su movimiento a varios tipos de terreno plano usando realimentación multisensorial. Los sistemas de control de locomoción propuestos fueron implementados usando redes de Generadores Centrales de Patrones (CPG) basadas en el modelo de neurona de Matsuoka. Los CPGs son redes neuronales biológicas ubicadas en el sistema nervioso central de vertebrados o en los ganglios principales de invertebrados, las cuales pueden controlar movimientos coordinados.
El hecho de que, en la naturaleza, la locomoción humana y animal sea controlada mediante redes CPG ha inspirado la teoría en la cual se basa la presente tesis. En particular, dos arquitecturas de control en lazo cerrado basadas en métodos de control CPG-espacio-articulaciones han sido propuestas y probadas mediante ambos un robot simulado y un robot humanoide NAO real. La primera arquitectura de control identificó algunas características importantes que un esquema de control CPG-espacio-articulaciones debe tener si se quiere describir un patrón de locomoción útil. A partir de este análisis, la segunda arquitectura de control fue propuesta para describir patrones de locomoción bien caracterizados.
Para mejorar cómo se comporta el sistema en lazo cerrado, un mecanismo de reseteo de fase para redes CPG basadas en el modelo de neurona de Matsuoka ha sido propuesto. Este mecanismo hace posible diseñar y estudiar controladores de realimentación que pueden modificar rápidamente los patrones de locomoción generados.
Los resultados obtenidos muestran que los esquemas de control propuestos pueden producir patrones de locomoción bien caracterizados con una respuesta rápida adecuada para robots humanoides con una capacidad de procesamiento reducida. Estos experimentos también indican que el sistema de control propuesto habilita al robot a responder rápida y robustamente, y poder hacer frente a situaciones complejas. / This thesis proposes the use of biologically inspired control approaches to generate and control the omnidirectional gait of humanoid robots, adapting their movement to various types of flat terrain using multi-sensory feedback. The proposed locomotion control systems were implemented using Central Pattern Generator (CPG) networks
based on Matsuoka’s neuron model. CPGs are biological neural networks located in the central nervous system of vertebrates or in the main ganglia of invertebrates, which can control coordinated movements, such as those involved in locomotion, respiration, chewing or swallowing.
The fact that, in nature, human and animal locomotion is controlled by CPG networks has inspired the theory on which the present thesis is based. In particular, two closed-loop control architectures based on CPG-joint-space control methods have been proposed and tested by using both a simulated and a real NAO humanoid
robot. The first control architecture identified some important features that a CPG-joint-space control scheme must have if a useful locomotion pattern is to be described. On the basis of this analysis, the second control architecture was proposed to describe well-characterized locomotion patterns. The new system, characterized by optimized parameters obtained with a genetic algorithm (GA), effectively generated and controlled locomotion patterns for biped robots on flat and sloped terrain.
To improve how the system behaves in closed loop, a phase resetting mechanism for CPG networks based on Matsuoka’s neuron model has been proposed. It makes it possible to design and study feedback controllers that can quickly modify the locomotion pattern generated.
The results obtained show that the proposed control schemes can yield well-characterized locomotion patterns with a fast response suitable for humanoid robots with a reduced processing capability. These experiments also indicate that
the proposed system enables the robot to respond quickly and robustly, and to cope with complex situations.
|
2 |
High dynamic range content acquisition from multiple exposuresRamírez Orozco, Raissel 29 January 2016 (has links)
The limited dynamic range of digital images can be extended by composing different exposures of the same scene to produce HDR images. This thesis is composed of an overview of the state of the art techniques and three methods to tackle the image alignment and deghosting problems in the HDR imaging domain.
The first method detects the areas affected by motion, registers the dynamic objects over a reference image, and combines low-dynamic range values to recover HDR values in the whole image.
The second approach builds multiscopic HDR images from LDR multi-exposure images. It is based on a patch match algorithm which was adapted and improved to take advantage of epipolar geometry constraints of stereo images.
The last method proposes to replace under/over exposed pixels in the reference image by using valid HDR values from other images in the multi-exposure LDR image sequence. / El limitado rango dinámico de las imágenes digitales puede ampliarse mezclando varias imágenes adquiridas con diferentes valores de exposición. Esta tesis incluye un detallado resumen del estado del arte y tres métodos diferentes para alinear las imágenes y corregir el efecto ’ghosting’ en imágenes HDR.
El primer método está centrado en detectar las áreas afectadas por el movimiento y registrar los objetos dinámicos sobre una imagen de referencia de modo que se logre recuperar información a lo largo de toda la imagen.
Nuestra segunda propuesta es un método para obtener imágenes HDR multiscópicas a partir de diferentes exposiciones LDR. Está basado en un algoritmo de ’patch match’ que ha sido adaptado para aprovechar las ventajas de las restricciones de la geometría epipolar de imágenes estéreo.
Por último proponemos reemplazar los píxeles saturados en la imagen de referencia usando valores correctos de otras imágenes de la secuencia.
|
3 |
Domain adaptation of deformable part-based modelsXu, Jiaolong 24 April 2015 (has links)
La detecció de vianants és crucial per als sistemes d’assistència a la conducció (ADAS).
Disposar d’un classificador precís és fonamental per a un detector de vianants basat
en visió. Al entrenar un classificador, s’assumeix que les característiques de les dades
d’entrenament segueixen la mateixa distribució de probabilitat que la de les dades de
prova. Tot i això, a la pràctica, aquesta assumpció pot no complir-se per diferents
causes. En aquests casos, en la comunitat de visió per computador és cada cop més
comú utilitzar tècniques que permeten adaptar els classificadors existents del seu
entorn d’entrenament (domini d’origen) al nou entorn de prova (domini de destí). En
aquesta tesi ens centrem en l’adaptació de domini dels detectors de vianants basats
en models deformables basats en parts (DPMs). Com a prova de concepte, utilitzem
dades sintètiques com a domini d’origen (món virtual) i adaptem el detector DPM
entrenat en el món virtual per a funcionar en diferents escenaris reals. Començem
explotant al màxim les capacitats de detecció del DPM entrenant en dades del món
virtual, però, tot i això, al aplicar-lo a diferents conjunts del món real, el detector
encara perd poder de discriminació degut a les diferències entre el món virtual i el
real. És per això, que ens centrem en l’adaptació de domini del DPM.
Per començar, considerem un únic domini d’origen per a adaptar-lo a un únic
domini de destí mitjançant dos mètodes d’aprenentatge per lots, l’A-SSVM i el SASSVM.
Després, l’ampliem a treballar amb múltiples (sub-)dominis mitjançant una
adaptació progressiva, utilitzant una jerarquia adaptativa basada en SSVM (HASSVM)
en el procés d’optimització. Finalment, extenem HA-SSVM per a aconseguir
un detector que s’adapti de forma progressiva i sense intervenció humana al domini de
destí. Cal destacar que cap dels mètodes proposats en aquesta tesi requereix visitar
les dades del domini d’origen. L’evaluació dels resultats, realitzada amb el sistema
d’evaluació de Caltech, mostra que el SA-SSVM millora lleugerament respecte el ASSVM
i millora en 15 punts respecte el detector no adaptat. El model jeràrquic
entrenat mitjançant el HA-SSVM encara millora més els resultats de la adaptació de
domini. Finalment, el mètode sequencial d’adaptació de domini ha demostrat que pot
obtenir resultats comparables a la adaptació per lots, però sense necessitat d’etiquetar
manualment cap exemple del domini de destí. L’adaptació de domini aplicada a la
detecció de vianants és de gran importància i és una àrea que es troba relativament
sense explorar. Desitgem que aquesta tesi pugui assentar les bases del treball futur
d’aquesta àrea. / La detección de peatones es crucial para los sistemas de asistencia a la conducción
(ADAS). Disponer de un clasificador preciso es fundamental para un detector de
peatones basado en visión. Al entrenar un clasificador, se asume que las características
de los datos de entrenamiento siguen la misma distribución de probabilidad que las de
los datos de prueba. Sin embargo, en la práctica, esta asunción puede no cumplirse
debido a diferentes causas. En estos casos, en la comunidad de visión por computador
cada vez es más común utilizar técnicas que permiten adaptar los clasificadores existentes
de su entorno de entrenamiento (dominio de origen) al nuevo entorno de prueba
(dominio de destino). En esta tesis nos centramos en la adaptación de dominio de los
detectores de peatones basados en modelos deformables basados en partes (DPMs).
Como prueba de concepto, usamos como dominio de origen datos sintéticos (mundo
virtual) y adaptamos el detector DPM entrenado en el mundo virtual para funcionar
en diferentes escenarios reales. Comenzamos explotando al máximo las capacidades
de detección del DPM entrenado en datos del mundo virtual pero, aun así, al aplicarlo
a diferentes conjuntos del mundo real, el detector todavía pierde poder de discriminaci
ón debido a las diferencias entre el mundo virtual y el real. Es por ello que nos
centramos en la adaptación de dominio del DPM.
Para comenzar, consideramos un único dominio de origen para adaptarlo a un
único dominio de destino mediante dos métodos de aprendizaje por lotes, el A-SSVM
y SA-SSVM. Después, lo ampliamos a trabajar con múltiples (sub-)dominios mediante
una adaptación progresiva usando una jerarquía adaptativa basada en SSVM
(HA-SSVM) en el proceso de optimización. Finalmente, extendimos HA-SSVM para
conseguir un detector que se adapte de forma progresiva y sin intervención humana
al dominio de destino. Cabe destacar que ninguno de los métodos propuestos en esta
tesis requieren visitar los datos del dominio de origen. La evaluación de los resultados,
realizadas con el sistema de evaluación de Caltech, muestran que el SA-SSVM
mejora ligeramente respecto al A-SSVM y mejora en 15 puntos respecto al detector
no adaptado. El modelo jerárquico entrenado mediante el HA-SSVM todavía mejora
más los resultados de la adaptación de dominio. Finalmente, el método secuencial de
adaptación de domino ha demostrado que puede obtener resultados comparables a
la adaptación por lotes pero sin necesidad de etiquetar manualmente ningún ejemplo
del dominio de destino. La adaptación de domino aplicada a la detección de peatones
es de gran importancia y es un área que se encuentra relativamente sin explorar.
Deseamos que esta tesis pueda sentar las bases del trabajo futuro en esta área. / On-board pedestrian detection is crucial for Advanced Driver Assistance Systems
(ADAS). An accurate classi cation is fundamental for vision-based pedestrian detection.
The underlying assumption for learning classi ers is that the training set and the
deployment environment (testing) follow the same probability distribution regarding
the features used by the classi ers. However, in practice, there are di erent reasons
that can break this constancy assumption. Accordingly, reusing existing classi ers by
adapting them from the previous training environment (source domain) to the new
testing one (target domain) is an approach with increasing acceptance in the computer
vision community. In this thesis we focus on the domain adaptation of deformable
part-based models (DPMs) for pedestrian detection. As a prof of concept, we use a
computer graphic based synthetic dataset, i.e. a virtual world, as the source domain,
and adapt the virtual-world trained DPM detector to various real-world dataset.
We start by exploiting the maximum detection accuracy of the virtual-world
trained DPM. Even though, when operating in various real-world datasets, the virtualworld
trained detector still su er from accuracy degradation due to the domain gap
of virtual and real worlds. We then focus on domain adaptation of DPM. At the rst
step, we consider single source and single target domain adaptation and propose two
batch learning methods, namely A-SSVM and SA-SSVM. Later, we further consider
leveraging multiple target (sub-)domains for progressive domain adaptation and propose
a hierarchical adaptive structured SVM (HA-SSVM) for optimization. Finally,
we extend HA-SSVM for the challenging online domain adaptation problem, aiming
at making the detector to automatically adapt to the target domain online, without
any human intervention. All of the proposed methods in this thesis do not require
revisiting source domain data. The evaluations are done on the Caltech pedestrian
detection benchmark. Results show that SA-SSVM slightly outperforms A-SSVM
and avoids accuracy drops as high as 15 points when comparing with a non-adapted
detector. The hierarchical model learned by HA-SSVM further boosts the domain
adaptation performance. Finally, the online domain adaptation method has demonstrated
that it can achieve comparable accuracy to the batch learned models while not
requiring manually label target domain examples. Domain adaptation for pedestrian
detection is of paramount importance and a relatively unexplored area. We humbly
hope the work in this thesis could provide foundations for future work in this area.
|
4 |
Computational representation and discovery of transcription factor binding sitesMaynou Fernàndez, Joan 01 February 2016 (has links)
Tesi per compendi de publicacions. / The information about how, when, and where are produced the proteins has been one of the major challenge in molecular biology. The studies about the control of the gene expression are essential in order to have a better knowledge about the protein synthesis.
The gene regulation is a highly controlled process that starts with the DNA transcription. This process operates at the gene level, hereditary basic units, which will be copied into primary ribonucleic acid (RNA). This first step is controlled by the binding of specific proteins, called as Transcription Factors (TF), with a sequence of the DNA (Deoxyribonucleic Acid) in the regulatory region of the gene. These DNA sequences are known as binding sites (BS).
The binding sites motifs are usually very short (5 to 20 bp long) and highly degenerate. These sequences are expected to occur at random every few hundred base pairs. Besides, a TF can bind among different sites. Due to its highly variability, it is difficult to establish a consensus sequence. The study and identification binding sites is important to clarify the control of the gene expression.
Due to the importance of identifying binding sites sequences, projects such as ENCODE (Encyclopedia of DNA elements), have dedicated efforts to map binding sites for large set of transcription factor to identify regulatory regions.
In this thesis, we have approached the problem of the binding site detection from another angle. We have developed a set of toolkit for motif binding detection based on linear and non-linear models. First of all, we have been able to characterize binding sites using different approaches. The first one is based on the information that there is in each binding sites position. The second one is based on the covariance model of an aligned set of binding sites sequences.
From these motif characterizations, we have proposed a new set of computational methods to detect binding sites. First, it was developed a new method based on parametric uncertainty measurement (Rényi entropy). This detection algorithm evaluates the variation on the total Rényi entropy of a set of sequences when a candidate sequence is assumed to be a true binding site belonging to the set. This method was found to perform especially well on transcription factors that the correlation among binding sites was null.
The correlation among binding sites positions was considered through linear, Q-residuals, and non-linear models, alpha-Divergence and SIGMA. Q-residuals is a novel motif finding method which constructs a subspace based on the covariance of numerical DNA sequences. When the number of available sequences was small, The Q-residuals performance was significantly better and faster than all the others methodologies.
Alpha-Divergence was based on the variation of the total parametric divergence in a set of aligned sequenced with binding evidence when a candidate sequence is added. Given an optimal q-value, the alpha-Divergence performance had a better behavior than the others methodologies in most of the studied transcription factor binding sites. And finally, a new computational tool, SIGMA, was developed as a trade-off between the good generalisation properties of pure entropy methods and the ability of position-dependency metrics to improve detection power. In approximately 70% of the cases considered, SIGMA exhibited better performance properties, at comparable levels of computational resources, than the methods which it was compared.
This set of toolkits and the models for the detection of a set of transcription factor binding sites (TFBS) has been included in an R-package called MEET. / La informació sobre com, quan i on es produeixen les proteïnes ha estat un dels majors reptes en la biologia molecular. Els estudis sobre el control de l'expressió gènica són essencials per conèixer millor el procés de síntesis d'una proteïna. La regulació gènica és un procés altament controlat que s'inicia amb la transcripció de l'ADN. En aquest procés, els gens, unitat bàsica d'herència, són copiats a àcid ribonucleic (RNA). El primer pas és controlat per la unió de proteïnes, anomenades factors de transcripció (TF), amb una seqüència d'ADN (àcid desoxiribonucleic) en la regió reguladora del gen. Aquestes seqüències s'anomenen punts d'unió i són específiques de cada proteïna. La unió dels factors de transcripció amb el seu corresponent punt d'unió és l'inici de la transcripció. Els punts d'unió són seqüències molt curtes (5 a 20 parells de bases de llargada) i altament degenerades. Aquestes seqüències poden succeir de forma aleatòria cada centenar de parells de bases. A més a més, un factor de transcripció pot unir-se a diferents punts. A conseqüència de l'alta variabilitat, és difícil establir una seqüència consensus. Per tant, l'estudi i la identificació del punts d'unió és important per entendre el control de l'expressió gènica. La importància d'identificar seqüències reguladores ha portat a projectes com l'ENCODE (Encyclopedia of DNA Elements) a dedicar grans esforços a mapejar les seqüències d'unió d'un gran conjunt de factors de transcripció per identificar regions reguladores. L'accés a seqüències genòmiques i els avanços en les tecnologies d'anàlisi de l'expressió gènica han permès també el desenvolupament dels mètodes computacionals per la recerca de motius. Gràcies aquests avenços, en els últims anys, un gran nombre de algorismes han sigut aplicats en la recerca de motius en organismes procariotes i eucariotes simples. Tot i la simplicitat dels organismes, l'índex de falsos positius és alt respecte als veritables positius. Per tant, per estudiar organismes més complexes és necessari mètodes amb més sensibilitat. En aquesta tesi ens hem apropat al problema de la detecció de les seqüències d'unió des de diferents angles. Concretament, hem desenvolupat un conjunt d'eines per la detecció de motius basats en models lineals i no-lineals. Les seqüències d'unió dels factors de transcripció han sigut caracteritzades mitjançant dues aproximacions. La primera està basada en la informació inherent continguda en cada posició de les seqüències d'unió. En canvi, la segona aproximació caracteritza la seqüència d'unió mitjançant un model de covariància. A partir d'ambdues caracteritzacions, hem proposat un nou conjunt de mètodes computacionals per la detecció de seqüències d'unió. Primer, es va desenvolupar un nou mètode basat en la mesura paramètrica de la incertesa (entropia de Rényi). Aquest algorisme de detecció avalua la variació total de l'entropia de Rényi d'un conjunt de seqüències d'unió quan una seqüència candidata és afegida al conjunt. Aquest mètode va obtenir un bon rendiment per aquells seqüències d'unió amb poca o nul.la correlació entre posicions. La correlació entre posicions fou considerada a través d'un model lineal, Qresiduals, i dos models no-lineals, alpha-Divergence i SIGMA. Q-residuals és una nova metodologia per la recerca de motius basada en la construcció d'un subespai a partir de la covariància de les seqüències d'ADN numèriques. Quan el nombre de seqüències disponible és petit, el rendiment de Q-residuals fou significant millor i més ràpid que en les metodologies comparades. Alpha-Divergence avalua la variació total de la divergència paramètrica en un conjunt de seqüències d'unió quan una seqüència candidata és afegida. Donat un q-valor òptim, alpha-Divergence va tenir un millor rendiment que les metodologies comparades en la majoria de seqüències d'unió dels factors de transcripció considerats. Finalment, un nou mètode computacional, SIGMA, va ser desenvolupat per tal millorar la potència de detecció
|
5 |
Localización de robots móviles en entornos cerrados mediante características de audioManzanares Brotons, Manuel 03 February 2016 (has links)
When GPS is not operative in closed environments, mobile robots use different types of sensor in order to locate their position. However, the use of audiofrequency signals sensors is significative lower than other type of sensors. Audio characteristics present interesting properties and robots can obtain great advantages if there are able to process acoustics signals. The main objective of this PhD tesis is to propose and investigate acoustic models and localization systems based in the treatment of audio signals thought for mobile robots self-localization in closed enviroments.This work will help to cover a great gap in this field. In this thesis, a first experimental approach is presented for self-location systems based in proposed models to test their validity by real tests. In this work also new models with simplified hypothesis are proposed which are specially conceived for their application in location systems. First a theoretical model, based in the physical description of sound propagation is proposed, allowing a robot to locate determining the magnitude of gains for different transfer function obtained in different robot location inside an environment. Second, parametrical identification models have been also proposed which allow a robot to locate by means of a system based in the observation of the parameters variations of the models in the different robot locations and the subsequent application of a transformation function. In this research, also an audio signal filtering systems is proposed, near the Schroeder frequency that allow reducing the complexity of the proposed models. The uncertainty of the models is also studied and treated in basis of supplied information by signals acquired in a small set of labeled sampled in the working robot environment that allow the possibility of SLAM techniques usage. The validity of researched location systems is checked with the realization of experimental tests where a comparative study among them is carried out. Strong and weak points in location systems are studied. The outcome of such a study show similar results for proposed systems, but it enhances the lesser degree of uncertainty in the results yielded by the location systems based in the theoretical model than those systems based in parametric identification models. Other relevant conclusions in this research work are, apart from the validation of presented location systems, the need to detemine the orientation angle of the robot respect a known reference point due the high directionality present in the sound pressure wave that is propagated in closed environments. It is also remarkable the excellent results of the proposed functions that allow to obtaining the robot position in a closed environment through the processing of different acoustic signals features acquired by the robot. Another important conclusion to remark for the theoretical model definition is the determination of some mathematical expressions that relate the acoustic response of the environments (obtained from the Sabine's statistical model) with some parameters of such theoretical model making more practicable their application. / Los robots móviles que trabajan en entornos cerrados, en los que el uso del sistema de navegación GPS no es operativo, usan diferentes tipos de sensores para determinar su posición. No obstante, es significativa la poca utilización de los sensores de señales de audiofrecuencia si la comparamos con el grado de utilización de otros tipos de sensores. La audición presenta varias propiedades muy interesantes, y un robot que posea la capacidad de procesar señales acústicas puede obtener importantes ventajas. El objetivo principal de esta tesis es el de proponer e investigar modelos acústicos y sistemas de localización basados en el tratamiento de señales de audio y concebidos para la autolocalización de robots móviles que trabajen en entornos cerrados, que ayuden a cubrir el vacío existente en este campo. En el desarrollo de la tesis se realiza también una primera aproximación experimental de los sistemas de autolocalización basados en los modelos propuestos con objeto de comprobar su validez mediante la realización de diversos ensayos. En este trabajo se proponen nuevos modelos que contemplan diversas hipótesis simplificativas y que están concebidos especialmente para su aplicación en los sistemas de localización: un modelo teórico, basado en la descripción física de la propagación del sonido, que permite la autolocalización del robot mediante un sistema que se basa en la determinación del módulo de las ganancias de las diferentes funciones de transferencia obtenidas en las distintas posiciones del robot en el recinto, y unos modelos de identificación paramétricos, que permiten la autolocalización del robot mediante un sistema que se basa en el estudio de la variación de los parámetros de los modelos en las distintas posiciones del robot y la posterior aplicación de una función de transformación. En el trabajo realizado también se propone un sistema de filtrado de las señales de audio, situado alrededor de la frecuencia de Schroeder, que permite reducir la complejidad de los modelos propuestos, y se propone también un tratamiento de la incertidumbre de los modelos, en base a la información suministrada por diferentes señales captadas en un número reducido de muestras etiquetadas en el recinto de trabajo del robot, que permite contemplar la posibilidad de su posible utilización en técnicas de SLAM. La validez de los sistemas de localización desarrollados se comprueba con la realización de unos primeros ensayos experimentales, en los que se realiza un estudio comparativo entre ellos y se estudian los puntos fuertes y los puntos débiles de los sistemas de localización presentados. El resultado de este estudio muestra unos resultados bastante similares para los sistemas propuestos, pero pone de manifiesto el menor grado de incertidumbre en los resultados que proporciona el sistema de localización basado en el modelo teórico, respecto a los que presentan los sistemas basados en modelos de identificación paramétricos. Otras conclusiones destacables obtenidas del desarrollo del trabajo de investigación son, además de la comprobación de la viabilidad de los sistemas de localización presentados, la necesidad de determinar el ángulo de orientación del robot en el recinto respecto a algún punto de referencia conocido, debido a la elevada directividad que presenta la onda de presión sonora que se propaga en el interior de los recintos cerrados, o los buenos resultados de las funciones definidas, que permiten obtener, a partir del tratamiento de las características de las distintas señales acústicas captadas por el robot, su posición en el recinto. Otra conclusión importante a destacar deriva de que para la definición del modelo teórico, establecido en base al modelo ondulatorio, se han definido unas expresiones que relacionan la respuesta acústica de los recintos, obtenidas a partir del modelo estadístico de Sabine, con algunos de los parámetros de dicho modelo teórico, facilitando en gran medida su aplicación práctica.
|
6 |
El modelo eléctrico de conductancias aplicado al isomorfismo de grafos : el método de la estrellaIgelmo Ganzo, Manuel 28 January 2016 (has links)
The first objective proposed in the research of this thesis was the select and develop a (preferably simple) model for graphs, thus, the results obtained through the model may be extrapolated to the modeled objects: graphs. The theory associated with the model has to be consolidated, mature, closed and, therefore, accepted by all. The second objective proposed in the research, once selected and developed a model, was the design of an application of the model that would address the graph isomorphism problem. The third and final objective was to experimentally test the model and the application.
The first objective resulted in the selection and development of an electric model in which applies the Circuit Theory meeting the requirements above mentioned. This model will be called "Conductance Electrical Model" (CEM). In the CEM graphs are transformed into electrical circuits of pure resistive concentrated parameters (without sources, inductors or capacitors) preserving the topology of the graph. From this point opens lots of possibilities with only contemplate the CEM obtained from one or more graphs. The computational complexity of obtaining of the CEM of a graph is always polynomial of order two according to the graph degree. Obtaining the CEM is always deterministic (it is not probabilistic, is not recursive and is not iterative). Graphs (weighted or not) that apply the CEM should be undirected and unlabeled nodes. The second objective resulted in the design of the "Star Method" (SM) which, from the CEM, allows to approach the open problem of isomorphism of graphs. Before applying the SM gets the CEM of two graphs of degree N, then SM begins from the two circuits that model, each one of them, a graph. It is advisable (but in any case optional) to perform a previous filter before starting the SM in order to discard pairs of graphs that, clearly, they may not be isomorphic. The first phase of the SM consists of obtaining all the equivalent resistance of the CEMs views from each pair of nodes in each pure resistive circuit (each with N (N -1)/2 values). At this stage already is if the graphs are isomorphic in binary form except false positive, these are those graphs which, despite not being isomorphic, present the same set of equivalent resistance. In a second phase each of electrical circuits is approximated by an electrical circuit in star with N +1 nodes and N branches (with a resistor in each branch). In this approach, they have get the values of the N resistors of the branches of the star so that minimizes the mean square error (mse) between the values of the equivalent resistance of the original circuit and circuit star equivalent resistances. In a third phase, ordering such values, the mapping of the isomorphism is obtained. In the fourth and final phase the retrieved mapping is validated so that SM is exact (may be caused by a false positive).
SM is always exact if it reaches the phase of validation. If the resistances of the star does not have values repeated then it has a polynomial computational complexity of order three according to the number of nodes that, on the other hand, experiments corroborate is the majority of the cases. But if there are repeated values, SM has no polynomial computational complexity, going to be factorial but, in any case, not as N but according to the maximum number of repetitions that occur in the values of the resistances of the branches of the star. Even so, the rest of the nodes can be obtained (almost complete) partial mapping with polynomial computational complexity so that, at least, the SM no wasted temporal resources. Finally, it must be said that the experimental results have been satisfactory. / El primer objetivo propuesto en la investigación de esta tesis fue seleccionar y desarrollar un modelo (preferentemente sencillo) para los grafos de forma tal que, en el modelo, se pueda aplicar y utilizar una teoría asociada al mismo que sea consolidada, madura, cerrada y, en definitiva, aceptada por todos. De esta forma, los resultados que se obtienen a través del modelo son extrapolables a los objetos modelizados: los grafos. El segundo objetivo propuesto en la investigación, una vez seleccionado y desarrollado un modelo, fue diseñar y explotar una aplicación del modelo que permitiera abordar el problema del isomorfismo de grafos. El tercer y último objetivo fue probar experimentalmente el modelo y la aplicación. El resultado del primer objetivo fue la selección y desarrollo de un modelo eléctrico en donde aplica la Teoría de Circuitos que cumple los requisitos más arriba enunciados. Este modelo será denominado como "Modelo Eléctrico de Conductancias" (CEM en inglés). En el CEM los grafos se transforman en circuitos eléctricos de parámetros concentrados resistivos puros (sin fuentes, ni inductores, ni condensadores) conservando la topología del grafo. A partir de este punto se abren multitud de posibilidades con sólo contemplar el CEM obtenido de uno o varios grafos. La complejidad computacional de la obtención del CEM a partir de un grafo es siempre polinomial de orden dos según el grado del grafo, siendo el algoritmo de obtención determinista, no iterativo y no recursivo. Los grafos a los que se puede aplicar el CEM deben ser no dirigidos (ponderados o no) y sin etiquetas en los nodos. EL resultado del segundo objetivo fue el diseño del "Método de la Estrella" (SM en inglés) que, a partir del CEM, permite abordar el problema abierto del isomorfismo de grafos. Antes de aplicar el SM se obtiene el CEM de dos grafos ambos de grado N, entonces el SM comienza a partir de los dos circuitos que modelan, cada uno, un grafo. Como fase previa al SM es conveniente, pero en todo caso opcional, realizar un filtrado previo con el fin de descartar los pares de grafos que, de forma evidente, no podrán ser isomorfos. La primera fase del SM consiste en la extracción de todas las resistencias equivalentes de los CEMs vistas desde cada par de nodos de cada circuito resistivo puro (cada uno con N (N -1)/2 valores). En esta fase ya se está en condiciones de detectar el isomorfismo de forma binaria salvo falsos positivos, estos serán aquellos grafos que, aún no siendo isomorfos, presenten el mismo conjunto de resistencias equivalentes. En una segunda fase cada uno de los circuitos eléctricos se aproxima por un circuito eléctrico en estrella de N +1 nodos y N ramas con un resistor en cada rama. En esta aproximación se han de obtener los valores de los N resistores de las ramas de la estrella para que se minimice el error cuadrático medio (ecm) entre los valores de las resistencias equivalentes del circuito original y las resistencias equivalentes del circuito en estrella. En una tercera fase, ordenando dichos valores, se extrae el mapeado del isomorfismo. En la cuarta y última fase, con el objetivo de que el SM sea exacto, se valida el mapeado obtenido ya que puede haberse producido un falso positivo. El SM es siempre exacto si se llega hasta la fase de validación. Si en las resistencias de la estrella no hay valores repetidos entonces tiene una complejidad computacional polinomial de orden tres según el número de nodos que, por otro lado, los experimentos corroboran es la mayoría de los casos. Pero si existen valores repetidos, el SM ya no tiene complejidad computacional polinomial, y pasa a ser factorial pero, en todo caso, ya no según N sino según el número máximo de repeticiones que se pueden producir en los valores de las resistencias de las ramas de la estrella. Aún así, del resto de nodos se puede obtener el mapeado parcial (casi total) con complejidad computacional polinomial por lo que, al menos, el SM no malgasta recursos temporales.
|
7 |
Energy efficient control of electrostatically actuated MEMSFargas Marquès, Andreu 22 January 2016 (has links)
Plenty of Micro-electro-mechanical Systems (MEMS) devices are actuated using electrostatic forces, and specially, parallel-plate actuators are extensively used, due to the simplicity of their design. Nevertheless, parallel-plate actuators have some limitations due to the nonlinearity of the generated force. The dissertation analyzes the dynamics of the lumped electrostatically actuated nonlinear system, in order to obtain insight on its characteristics, define desired performance goals and implement a controller for energy efficient robustly stable actuation of MEMS resonators.
In the first part of the dissertation, the modeling of the electromechanical lumped system is developed. From a complete distributed parameters model for MEMS devices which rely on electrostatic actuation, a concentrated parameters simplification is derived to be used for analysis and control design.
Based on the model, energy analysis of the pull-in instability is performed. The classic approach is revisited to extend the results to models with a nonlinear springs. Analysis of the effect of dynamics is studied as an important factor for the stability of the system. From this study, the Resonant Pull-in Condition for parallel-plate electrostatically actuated MEMS resonators is defined and experimentally validated.
Given the importance of the nonlinear dynamics and its richness in behaviors, Harmonic Balance is chosen as a tool to characterize the steady-state oscillation of the resonators. This characterization leads to the understanding of the key factors for large and stable oscillation of resonators. An important conclusion is reached, Harmonic Balance predicts that any oscillation amplitude is possible for any desired frequency if the appropriate voltage is applied to the resonator. And the energy consumption is dependent on this chosen oscillation frequency.
Based on Harmonic Balance results, four main goals are defined for the control strategy:
Stable oscillation with large amplitudes of motion; Robust oscillation independently of MEMS imperfections; Pure sinus-like oscillation for high-grade sensing; and Low energy consumption.
The second part of the dissertation deals with the controller selection, design and verification.
A survey of prior work on MEMS control confirms that existing control approaches cannot provide the desired performance. Consequently, a new three-stage controller is proposed to obtain the desired oscillation with the expected stability and energy efficiency. The controller has three different control loops. The first control loop includes a Robust controller designed using on µ-synthesis, to deal with MEMS resonators uncertainties. The second control loop includes an Internal-Model-Principle Resonant controller, to generate the desired control action to obtain the desired oscillation. And the third control loop handles the energy consumption minimization through an Extremum Seeking Controller, which selects the most efficient working frequency for the desired oscillation.
The proposed controller is able to automatically generate the needed control voltage, as predicted by the Harmonic Balance analysis, to operate the parallel-plate electrostatically actuated MEMS resonator at the desired oscillation. Performance verification of stability, robustness, sinus-like oscillation and energy efficiency is carried out through simulation.
Finally, the needed steps for a real implementation are analyzed. Independent two-sided actuation for full-range amplitude oscillation is introduced to overcome the limitations of one-sided actuation. And a modification of standard Electromechanical Amplitude Modulation is analyzed and validated for position feedback implementation. With these improvements, a MEMS resonator with the desired specifications for testing the proposed control is designed for fabrication. Based on this design, testing procedure is discussed as future work. / Molts microsistemes (MEMS) són actuats amb forces electrostàtiques, i especialment, els actuadors electrostàtics de plaques paral.leles són molt usats, degut a la simplicitat del seu disseny. Tot i això, aquests actuadors tenen limitacions degut a la no-linealitat de les forces generades. La tesi analitza el sistema mecànic no-lineal actuat electrostàticament que forma el MEMS, per tal d'entendre'n les característiques, definir objectius de control de l'oscil.lació, i implementar un controlador robust, estable i eficient energèticament. A la primera part de la tesi es desenvolupa el modelat del sistema electromecànic complert. A partir de la formulació de paràmetres distribuïts aplicada a dispositius MEMS amb actuació electrostàtica, es deriva una formulació de paràmetres concentrats per a l'anàlisi i el disseny del control. Basat en aquest model, s'analitza energèticament la inestabilitat anomenada Pull-in, ampliant els resultats de l'enfocament clàssic al model amb motlles no-lineals. Dins de l'anàlisi, l'evolució dinàmica s'estudia per ser un factor important per a l'estabilitat. D'aquest estudi, la Resonant Pull-in Condition per a actuadors electrostàtics de plaques paral.leles es defineix i es valida experimentalment. Donada la importància de la dinàmica no-lineal del sistema i la seva riquesa de comportaments, s'utilitza Balanç d'Harmònics per tal de caracteritzar les oscil.lacions en estacionari. Aquesta caracterització permet entendre els factors claus per a obtenir oscil.lacions estables i d'amplitud elevada. El Balanç d'Harmònics dóna una conclusió important: qualsevol amplitud d'oscil.lació és possible per a qualsevol freqüència desitjada si s'aplica el voltatge adequat al ressonador. I el consum energètic associat a aquesta oscil.lació depèn de la freqüència triada. Llavors, basat en aquests resultats, quatre objectius es plantegen per a l'estratègia de control: oscil.lació estable amb amplituds elevades; robustesa de l'oscil.lació independentment de les imperfeccions dels MEMS; oscil.lació sinusoïdal sense harmònics per a aplicacions d'alta precisió; i baix consum energètic. La segona part de la tesi tracta la selecció, disseny i verificació dun controlador adequat per a aquests objectius. La revisió dels treballs existents en control de MEMS confirma que cap dels enfocaments actuals permet obtenir els objectius desitjats. En conseqüència, es proposa el disseny d'un nou controlador amb tres etapes per tal d'obtenir l'oscil.lació desitjada amb estabilitat i eficiència energètica. El controlador té tres llaços de control. Al primer llaç, un controlador robust dissenyat amb µ-síntesis gestiona les incertes es dels MEMS. El segon llaç inclou un controlador Ressonant, basat en el Principi del Model Intern, per a generar l'acció de control necessària per a obtenir l'oscil.lació desitjada. I el tercer llaç de control gestiona la minimització de l'energia consumida mitjançant un controlador basat en Extremum Seeking, el qual selecciona la freqüència de treball més eficient energèticament per a l'oscil.lació triada. El controlador proposat és capaç de generar automàticament el voltatge necessari, igual al previst pel Balanç d'Harmònics, per tal d'operar electrostàticament amb plaques paral.leles els ressonadors MEMS. Mitjançant simulació se'n verifica l'estabilitat, robustesa, inexistència d'harmònics i eficiència energètica de l'oscil.lació. Finalment, la implementació real és analitzada. En primer lloc, un nou esquema d'actuació per dos costats amb voltatges independents es proposa per aconseguir l'oscil.lació del ressonador en tot el rang d'amplituds. I en segon lloc, una modificació del sensat amb Modulació d'Amplitud Electromecànica s'utilitza per tancar el llaç de control de posició. Amb aquestes millores, un ressonador MEMS es dissenya per a ser fabricat i validar el control. Basat en aquest disseny, es proposa un procediment de test plantejat com a treball futur.
|
8 |
Cómo utilizar simuladores basados en multiagentes para scada en aplicaciones del ámbito industrialChaile Alfaro, Ismael Fabricio 05 February 2016 (has links)
Esta tesis aborda el problema de cómo utilizar simuladores ABM para la supervisión, control y adquisición de datos (SCADA) en aplicaciones del área industrial. Mayormente el uso de los simuladores se limita a la etapa de diseño y en algunos casos se extiende a la interacción con el entorno real de manera temporal, como es el caso de HIL o Co-Sim. En este trabajo se propone su uso desde la etapa inicial, hasta el despliegue del mismo, dejando la simulación para SCADA permanente de la aplicación final.
Implementar la solución de esta manera tiene, al menos, una ventaja: la posibilidad de agilizar el despliegue de sistemas que interactúan con la realidad, como es el caso del entorno industrial. Esto se puede lograr por medio de una serie de herramientas que se presentan en esta tesis y que permiten aprovechar gran parte del modelo que ya ha sido verificado y validado mediante simulación y embeber únicamente una pequeña parte del mismo en el componente de la realidad que se desea supervisar y/o controlar. Realizar SCADA en tiempo real utilizando simuladores, como se plantea en esta tesis, presenta un principal desafío, el de poder cerrar el lazo de supervisión y control lo suficientemente rápido para que no haya pérdida de mensajes y datos. Para hacer frente a este desafío, se dota a los componentes de la realidad de una cierta autonomía, convirtiéndolos en agentes y se realiza una representación del entorno real mediante una simulación que se sincroniza con la realidad, todo ello concebido mediante una entidad denominada ALOHA.
ALOHA significa Abstraction/Architecture/Approach that Leads to Organize Hybrid/Heterogeneous Agents y, aunque el nombre representa un acrónimo, parte de una base más filosófica en la que se considera que todo agente ‘educado’ debería saludar al iniciar y finalizar el acto comunicacional.
Utilizar simuladores con el enfoque planteado en esta tesis implica proveer al diseñador de un entorno de trabajo (framework) integrado por herramientas que permitan implementar el modelo del sistema, la arquitectura de control, el agente ALOHA, el modelo de sincronización y una metodología que sugiera cómo llevar a cabo todo el proceso desde el diseño hasta el despliegue.
Implementar lo ya detallado dentro del entorno industrial implica también que esta solución tenga en cuenta los desafíos actuales y futuros de esta área, como pueden ser cuestiones relacionadas con robustez, flexibilidad, adaptabilidad, evolutividad etc., sin perder de vista los requerimientos de las tendencias a nivel industrial como lo son la Industria 4.0, las Smart Factories y el I2oT (de Industrial Internet of Things).
Finalmente, para la validar la hipótesis de esta tesis, se construyeron dos demostradores en dos aspectos distintos del control en el área industrial, el primero relacionado con el sistema de transporte de muestras en laboratorios automáticos utilizando AGVs y el segundo, con el control de un elemento de un sistema de manufactura, representado por una celda de producción compuesta por un brazo neumático. Los dos sistemas han sido desarrollados e implementados con las herramientas elaboradas fruto de este trabajo y los resultados, analizados en cuanto a calidad de sincronización, restricciones de tiempo real y agilidad en cuanto a su implementación. / This thesis addresses the problem of how to use ABM simulators for supervisory control and data acquisition (SCADA) of applications in the industrial area. Typically, simulators are used in the design processes of SCADA developments and, in some cases, they require interaction with the real environment temporarily, like when HIL or Co-Sim techniques are used. This work proposes the use of simulators from the initial stage to the deployment phase, keeping them as SCADAs for the final applications.
To implement the solution as proposed in this work has, at least, the advantage of shortening the deployment stage of systems that interact with reality, such as the industrial ones. This can be achieved through a series of tools presented in this thesis and that take advantage of as much of the simulation model as possible, i.e. only a small part of the very model that has been verified and validated during simulation is required to be embedded into the real components that will be monitored and/or controlled. To perform real-time SCADA by using simulators, as proposed in this thesis, presents a major challenge, defined as the need of closing the control loop quickly enough to not losing any message. To face this challenge, the components of reality are provided by a certain autonomy, thereby, turning them into agents and, representation of real environment is shown by performing a simulation that is synchronized with reality, all conceived by an entity called ALOHA.
ALOHA stands for Abstraction/Architecture/Approach that Leads to Organize Hybrid/Heterogeneous Agents and, although the name is an acronym, it has a philosophical basis which considers that every 'educated' agent should greet at the start and end of the communicational act (as most of humans do).
Simulators’ use under the proposed approach involves providing the designer of a working environment (framework) made of tools to implement the system model, the control architecture, the ALOHA agent, the synchronization module, and a methodology to carry the whole process out from early design stages to final deployment phases.
The creation of the above mentioned framework in the industrial domain cannot be done without taking into account the current and future challenges in this area, such as issues related to robustness, flexibility, adaptability, scalability, evolvability, etc., without losing sight of the requirements of the industry trends, as presented in Industry 4.0, Smart Factories and I2oT (Industrial Internet of Things), for instance.
The hypothesis of this work has been validated by building two distinct demonstrators in the industrial control domain, the first one related to the sample transport system in automated laboratories by using AGVs, and the second one, to a production cell that uses a pneumatic robot-arm. Both systems have been developed and implemented with the tools of this work and results have been analyzed for synchronization quality, real-time constraints and implementation agility.
|
9 |
A multi-objective optimization approach to the ground handling scheduling problemPadrón Astorga, Silvia 22 July 2014 (has links)
El tiempo de escala o turnaround es uno de los procesos aeroportuarios más críticos y se define como el período de tiempo en que la aeronave está en rampa, entre un vuelo de llegada y uno de salida. Durante el turnaround se realizan un conjunto de operaciones necesarias para preparar un avión para el próximo vuelo. Estas tareas son interdependientes y cada operación es una potencial fuente de demoras para el resto de las actividades, así como para otros procesos dentro del aeropuerto. Además, las decisiones de planificación que se toman para cada operación afectan la programación de otras tareas y el rendimiento de sus recursos. La falta de integración entre las diferentes operaciones y un uso ineficiente de los recursos durante el turnaround son causas importantes de retrasos en los vuelos.
Esta tesis tiene como objetivo contribuir a la eficiencia de las operaciones de asistencia en tierra durante el turnaround, abordando el problema desde una perspectiva global. Con este fin se han considerado diferentes operaciones, así como las relaciones de precedencia entre estas, en lugar de programar cada actividad por separado. Se propone una aproximación multiobjetivo para realizar la planificación de los vehículos que dan servicio a las aeronaves en un aeropuerto durante un día. La solución al problema consiste en obtener un plan para estos vehículos que cumpla con las restricciones de tiempo, de precedencia y con las limitaciones de capacidad. Además de obtener una programación optimizada para cada actividad, es importante tener en cuenta el impacto que estas tienen en otras tareas. De esta manera, podemos integrar las decisiones realizadas para cada operación y contribuir a optimizar el proceso global. Dos objetivos han sido definidos con este fin: (I) minimizar el tiempo de espera para iniciar una operación y la reducción de las ventanas de tiempo disponibles, usando los vehículos eficientemente; y (II) minimizar el tiempo total de finalización del turnaround. Para resolver el problema multiobjetivo se ha desarrollado un nuevo método llamado Sequence Iterative Method (SIM) y se obtiene un rango de soluciones, las cuales representan el mejor compromiso entre los dos objetivos.
Mediante un esquema de descomposición basado en Job Shop Scheduling Problem, el problema de optimización es desglosado. Este esquema proporciona un método consistente para resolverlo completo, simplificando el modelo y el proceso de resolución. En primer lugar, se calcula una ventana de tiempo para cada operación de acuerdo con las restricciones temporales y de precedencia. Un Vehicle Routing Problem with Time Windows (VRPTW) es identificado para cada tipo de vehículo involucrado, lo que da lugar a múltiples VRPTWs. Estos se resuelven de forma individual y las decisiones tomadas para cada problema de enrutamiento se propagan a los demás VRPTWs a través de reducciones en las ventanas de tiempo disponibles. Las principales funciones de la aproximación son modeladas e implementadas en Constraint Programming (CP). Además, CP se emplea en combinación con Variable Neighborhood Descent (VND) y Large Neighborhood Search (LNS) como metodología para resolver los VRPTWs. El conocido método Insertion Heuristic se utilizó para encontrar una primera solución de forma rápida, la cual se mejora posteriormente utilizando la metodología.
Por último, una versión de la aproximación es propuesta con el objetivo de aplicar una exploración más exhaustiva para encontrar las soluciones de Pareto. En este caso, estas se obtienen mediante el método de Insertion Heuristic y solo las más prometedoras son mejoradas con la metodología. Se sugieren dos estrategias para determinar qué soluciones son las más prometedoras y estas reglas pueden ser también empleadas para finalmente seleccionar la mejor a implementar. / Turnaround is one of the most critical airport processes. It is defined as the period of time the aircraft is on the ramp between an inbound and outbound flight, and different ground handling operations are performed. Ground handling comprises a set of interrelated services necessary to prepare an aircraft for the next flight. Since ground handling tasks are very interdependent, each operation is a potential source of delays which could be easily propagated to other operations and other airport processes. Moreover, planning decisions about each vehicle required to perform an operation affect the scheduling of other activities and the performance of other resources. The lack of integration of the different activities and an inefficient use of the resources during turnaround are important causes of flight delays.
This thesis aims to contribute to the operational efficiency of ground handling facing the problem from a global perspective. Different operations and their interconnections have been considered instead of scheduling each activity in isolation. We introduce a multi-objective approach for scheduling the ground handling vehicles that perform this set of related activities. Solving this problem consists of obtaining a schedule for the vehicles that service aircraft at an airport during one working day. The schedule has to satisfy temporal, precedence, and capacity constraints. Besides obtaining optimized schedules for each activity, it is important to take into account the impact on other tasks. This way, we can integrate the scheduling decisions made for each service and contribute to optimize the overall ground handling process. Two objectives are defined in order to integrate the scheduling decisions : (i) minimizing the waiting time before an operation starts and the total reduction of the corresponding time windows, using the vehicles efficiently; and (ii) minimizing the total completion time of the turnarounds. A new method called Sequence Iterative Method (SIM) has been developed to address the multi-objective problem. With the aim to achieve a more flexible and accurate decision process, a range of solutions representing the best compromise between the two objectives is obtained.
The ground handling problem is separated using a workcenter-based decomposition schema. This schema provides a consistent method to solve the complete problem and simplifies the model and the solution process. First, a planning problem is solved and a time window for each operation is calculated according to the temporal and precedence restrictions. One Vehicle Routing Problem with Time Windows (VRPTW) is identified for each type of vehicle involved, which leads to multiple VRPTWs. These are solved individually and decisions made on each routing problem are propagated to the other VRPTWs through reductions on the available time windows. The main features are modeled and implemented in Constraint Programming (CP). Furthermore, CP is used in combination with Variable Neighborhood Descent (VND) and Large Neighborhood Search (LNS) as a part of a hybrid methodology to solve each of the routing problems. The well-known Insertion Heuristics method has been applied to produce a quick first solution which is later improved using the methodology.
Finally, a version of the approach is proposed with the goal to allow a more exhaustive exploration to find Pareto solutions. In this case, solutions are obtained using the Insertion Heuristic and just the most promising are improved by the methodology. Two strategies are suggested to determine which solutions are the most promising and these rules can be also employed to guide the decision maker towards the selection of the best schedule to implement.
|
10 |
Characterisation and adaptive learning in interactive video retrievalFernández Beltrán, Rubén 20 May 2016 (has links)
El objetivo principal de esta tesis consiste en utilizar eficazmente los modelos de tópicos latentes para afrontar el problema de la recuperación automática de vídeo. Concretamente, se pretende mejorar tanto a nivel de eficiencia como a nivel de precisión el actual estado del arte en materia de los sitemas de recuperación automática de vídeo. En general, los modelos de tópicos latentes son un conjunto de herramientas estadísticas que permiten extraer los patrones generadores de una colección de datos. Tradicionalmente, este tipo de técnicas no han sido consideradas de gran utilidad para los sistemas de recuperación automática de vídeo debido a su alto coste computacional y a la propia complejidad del espacio de tópicos en el ámbito de la información visual. / In this work, we are interested in the use of latent topics to overcome the current limitations in CBVR. Despite the potential of topic models to uncover the hidden structure of a collection, they have traditionally been unable to provide a competitive advantage in CBVR because of the high computational cost of their algorithms and the complexity of the latent space in the visual domain. Throughout this thesis we focus on designing new models and tools based on topic models to take advantage of the latent space in CBVR. Specifically, we have worked in four different areas within the retrieval process: vocabulary reduction, encoding, modelling and ranking, being our most important contributions related to both modelling and ranking.
|
Page generated in 0.0969 seconds