1 |
Efficient approaches for object class detectionVillamizar Vergel, Michael Alejandro 18 September 2012 (has links)
La visión por computador y más específicamente el reconocimiento de objetos han demostrado en los últimos años un impresionante progreso que ha llevado a la aparición de nuevas y útiles tecnologías que facilitan nuestras actividades diarias y mejoran ciertos procesos industriales. Actualmente, nosotros podemos encontrar algoritmos para el reconocimiento de objetos en computadores, videocámaras, teléfonos móviles, tablets o sitios web para la realización de ciertas tareas específicas tales como la detección de caras, el reconocimiento de gestos y escenas, la detección de peatones, la realidad aumentada, etc.
No obstante, estas aplicaciones siguen siendo problemas abiertos que cada año reciben más atención por parte de la comunidad de visión por computador. Esto se demuestra por el hecho de que cientos de artículos abordando estos problemas son publicados en congresos internacionales y revistas anualmente. Desde una perspectiva general, los trabajos más recientes intentan mejorar el desempeño de clasificadores, hacer frente a nuevos y más desafiantes problemas de detección, y a aumentar la eficiencia computacional de los algoritmos resultantes con el objetivo de ser implementados comercialmente en diversos dispositivos electrónicos. Aunque actualmente, existen enfoques robustos y confiables para la detección de objetos, la mayoría de estos métodos tienen un alto coste computacional que hacen imposible su aplicación en tareas en tiempo real. En particular, el coste computacional y el desempeño de cualquier sistema de reconocimiento está determinado por el tipo de
características, método de reconocimiento y la metodología utilizada para localizar los objetos dentro de las imágenes. El principal objetivo de estos métodos es obtener sistemas de detección eficaces pero también eficientes.
A través de esta tesis diferentes enfoques son presentados para abordar de manera eficiente y discriminante la detección de objetos en condiciones de imagen diversas y difíciles. Cada uno de los enfoques propuestos ha sido especialmente diseñado y enfocado para la detección de objetos en circunstancias distintas, tales como la categorización de objetos, la detección bajo rotaciones en el plano o la detección de objetos a partir de múltiples vistas. Los métodos propuestos combinan varias ideas y técnicas para la obtención de detectores de objetos que son tanto altamente discriminantes como eficientes. Esto se demuestra experimentalmente en varias bases de datos del estado del arte donde los resultados alcanzados son competitivos al ser contrastados con otros métodos recientes. En concreto, esta tesis estudia y desarrolla características rápidas, algoritmos de aprendizaje, métodos para reducir el coste computacional de los clasificadores y representaciones de imagen integral que permiten un mejor cálculo de las características. / Computer vision and more specifically object recognition have demonstrated in recent years an impressive progress that has led to the emergence of new and useful technologies that facilitate daily activities and improve some industrial processes. Currently, we can find algorithms for object recognition in computers, video cameras, mobile phones, tablets or websites, for the accomplishment of specific tasks such as face detection, gesture and scene recognition, detection of pedestrians, augmented reality, etc.
However, these applications are still open problems that each year receive more attention in the computer vision community. This is demonstrated by the fact that hundreds of articles addressing these problems are published in international conferences and journals annually. In a broader view, recent work attempts to improve the performance of classifiers, to face new and more challenging problems of detection and to increase the computational efficiency of the resulting algorithms in order to be implemented commercially in diverse electronic devices. Although nowadays there are robust and reliable approaches for detecting objects, most of these methods have a high computational cost that make impossible their application for real-time tasks. In particular, the computational cost and performance of any recognition system is determined by the type of features, the method of recognition and the methodology used for localizing objects within images. The main objective of these methods is to produce not only effective but also efficient detection systems.
Through this dissertation different approaches are presented for addressing efficiently and discriminatively the detection of objects in diverse and difficult imaging conditions. Each one of the proposed approaches are especially designed and focus on different detection problems, such as object categorization, detection under rotations in the plane or the detection of objects from multiple views. The proposed methods combine several ideas and techniques for obtaining object detectors that are both highly discriminative and efficient. This is demonstrated experimentally in several state-of-the-art databases where our results are competitive with other recent and successful methods. In particular, this dissertation studies and develops fast features, learning algorithms, methods for reducing the computational cost of the classifiers and integral image representations for speeding up feature computation.
|
2 |
Patent value models: partial least squares path modelling with mode C and few indicatorsMartínez Ruiz, Alba 27 January 2011 (has links)
Two general goals were raised in this thesis: First, to establish a PLS model for patent value and to investigate causality relationships among
variables that determine the patent value; second, to investigate the performance of Partial Least Squares (PLS) Path Modelling with Mode C inthe context of patent value models.
This thesis is organized in 10 chapters. Chapter 1 presents an introduction to the thesis that includes the objectives, research scope and the
document’s structure. Chapter 2 gives an overview of the different approaches for patent value from the perspective of technological change. Definitions related to patent documents and patent indicators are provided. Chaper 3 reports on patent sample descriptions. We present criteria to retrieve data, the procedure for calculating patent indicators, and a statistical data description. Chapter 4 provides an introduction to structural equation models (SEMs) including origins, basic background and recent developments. In addition, it provides guidelines for model specification and modelling process for SEMs. Special emphasis is placed on determining the reflective or formative nature of measurement models. Chapter 5 puts forward the main PLS algorithms: NIPALS, PLS Regression and PLS Path Modelling. We present two path modelling implementations: Lohmöller and Wold’s procedures. Additionally, insights are given on procedure sensitivity to starting weight values and weighting schemes; algorithm properties, such as consistency and consistency at large; and convergence. We briefly review some PLS Path Modelling extensions and relationships with other procedures. The chapter ends by describing validation techniques. Chapter 6 provides evidence about the accuracy and precision of PLS Path Modelling with Mode C to recover true values in SEMs with few indicators per construct. Monte Carlo simulations and computational experiments are carried out to study the performance of the algorithm. Chapter 7 addresses the formulation and estimation of patent value models. This entails the identification and definition of observable and unobservable variables, the determination of blocks of manifest variables and structural relationships, the specification of a first- and a second-order models of patent value, and the models’ estimation by PLS Path Modelling. In Chapter 8, the evolution of patent value over time using longitudinal SEMs is investigated. Two set-ups are explored. The first longitudinal model includes time-dependent manifest variables and the second includes time-dependent unobservable variables. The SEMs are estimated using PLS Path Modelling. In Chapter 9, there is a description of a Two-Step PLS Path Modelling with Mode C (TsPLS) procedure to study nonlinear and interaction effects among formative constructs. Monte Carlo simulations are performed to generate data and to determine the accuracy and precision of this approach to recover true values. This chapter includes an application of the TsPLS algorithm to patent value models. Finally, in Chapter 10, we provide a summary of conclusions and future researchs.
The main contribution of this thesis is to set-up a PLS model for patent value, and around this issue, we have also contributed in two main areas: Contributions to the field of Technological Change are comprised of:
(1) Evidence on the role of the knowledge stock, technological scope and international scope as determinants of patent value and technological usefulness. A stable pattern of path coefficients was found across samples in different time periods.
(2) To conceptualize the patent value as a potential and a recognized value for intangible assets. It was also shown that the potential value of
patent is small compared to the value that is given later.
(3) Evidence for the importance of considering the longitudinal nature of the indicators in the patent value problem, especially for forward
citations, which are the most widely used indicator of patent value.
(4) To introduce a multidimensional perspective of the patent valuation problem. This novel approach may offer a robust understanding of the
different varia bles that determine patent value.
Contributions to the field of PLS Path Modelling are comprised of:
(5) Empirical evidence on the performance of PLS Path Modelling with Mode C. If properly implemented, the procedure can adequately capture
some of the complex dynamic relationships involved in models. Our research shows that PLS Path Modelling with Mode C performs
according to the theoretical framework established for PLS procedures and PLS-models (Wold, 1982; Krämer, 2006; Hanafi, 2007; Dijkstra,
2010).
(6) Empirical evidence for the consistency at large of the PLS Path Modelling with Mode A.
(7) Empirical evidence for formative outer models with few manifest variables.
(8) Empirical evidence on the performance of a Two-Step PLS Path Modelling with Mode C procedure to estimate nonlinear and interaction
effects among formative constructs. / Dos objetivos general fueron planteados en esta tesis. Primero, establacer un modelo PLS para el valor de las patentes e investigar las
relaciones de causalidad entre las variables que determinan el valor de las patentes. Segundo, investigar el desempeño del procedimiento Partial Least Squares (PLS) Path Modelling con Modo C en el contexto de los modelos de valor de las patentes.
La tesis es organizada en 10 capítulos. El Capítulo 1 presenta una introducción a la tesis que incluye los objetivos, el alcance de la investigación y la estructura del documento. El Capítulo 2 entrega una presentación general de los diferentes enfoques para valoración de patentes desde una perspectiva del cambio tecnológico. También se entregan las definiciones necesarias relacionadas con los documentos e indicadores de patentes. El Capítulo 3 describe la muestra de patentes usada en esta investigación. Se presentan los criterios utilizados para recuperar los datos, el procedimiento seguido para calcular los indicadores de patentes y la descripción estadística de la muestra. El Capítulo 4 provee una introducción a los modelos de ecuaciones estructurales (SEMs) incluyendo orígenes, antecedentes básicos y desarrollos recientes. Además se entregan los lineamientos para la especificación de los modelos y el proceso de modelamiento para SEMs. Este capítulo discute con especial énfasis la determinación de la naturaleza reflectiva o formativa de los modelos de medida. El Capítulo 5 presenta los principales algoritmos PLS: NIPALS, Regresión PLS y PLS Path Modelling. Se presentan dos implementaciones de PLS Path Modelling: los procedimientos de Lohmöller y Wold. Adicionalmente, se analyzan resultados previos relacionados con: la sensibilidad del procedimiento al valor inicial de los vectores de pesos y el esquema de ponderación, y las propiedades del algoritmo, tales como consistencia, consistencia “at large” y convergencia. También brevemente se revisan algunas extensiones del procedimiento y su relación con otros métodos. El capítulo termina describiendo las técnicas de validación. El Capítulo 6 provee evidencia acerca de la exactitud y precisión con que PLS Path Modelling con Modo C recupera valores verdaderos en SEMs con pocos indicadores por constructo. Simulaciones Monte Carlo y experimentos computacionales son llevados a cabo para estudiar el rendimiento del algoritmo. El Capítulo 7 trata la formulación y estimación de los modelos de valoración de patentes. Esto comprende la identificación y definición de las variables observables y no observables, la determinación de los bloques de variables manifiestas y las relaciones estructurales, la especificación de los modelos de primer y segundo orden del valor de las patentes y la estimación de los mismos con PLS Path Modelling. En el Capítulo 8, la evolución del valor de las patentes a través del tiempo es investigado usando SEMs longitudinales. Dos set-ups son explorados. El primer modelo longitudinal considera variables manifiestas dependientes del tiempo y el segundo incluye variables latentes dependientes del tiempo. Los SEMs son estimados usando PLS Path Modelling. En el Capítulo 9, el procedimiento Two-Step PLS Path Modelling con Modo C (TsPLS) es implementado para estudiar los efectos no lineales y de interacción entre constructos formativos. Simulaciones Monte Carlo son llevadas a cabo para generar datos y determinar la exactitud y precisión con que este enfoque recupera valores verdaderos. Este capítulo incluye una aplicación del procedimiento a los modelos de patentes. Finalmente, el Capítulo 10 provee un resumen de las conclusiones y lineamientos para futuras investigaciones.
La principal contribución de esta tesis es proponer modelos PLS para el valor de las patentes, y alrededor de este objetivo, nosotros hemos
también contribuido en dos áreas principales: Contribuciones en el área del Cambio Tecnológico comprenden:
(1) Evidencia empírica del rol del stock de conocimiento, el alcance tecnológico y el alcance internacional como determinantes del valor de las
patentes y la utilidad tecnológica. Un patrón estable de coeficientes de trayectoria fue encontrado al estimar los modelos con muestras en
diferentes periodos de tiempo.
(2) Conceptualizar el valor de las patentes en un valor potencial y uno reconocido. También proveer evidencia acerca de que el valor potencial es pequeño al compararlo con el valor que las patentes adquieren con posterioridad.
(3) Evidencia acerca de la importancia de considerar la naturaleza longitudinal de los indicatores en el problema de valorización de patentes,
especialmente de las citas recibidas, el indicador de valor más utilizado.
(4) Introducir una perspectiva multidimensional en el problema de valoración de patentes. Este nuevo enfoque puede ofrecer un entendimiento robusto de las diferentes variables que determinar el valor de las patentes.
Contribuciones en el área del PLS PLS Path Modelling comprenden:
(5) Evidencia empírica acerca del desempeño de PLS Path Modelling con Modo C. Apropiadamente implemetado, el procedimiento puede
adecuadamente capturar algunas de las complejas relaciones dinámicas en los modelos. Nuestra investigación muestra que PLS Path
Modelling con Modo C se comporta de acuerdo al marco teórico establecido para los procedimientos PLS y los modelos PLS (Wold, 1982;
Krämer, 2006; Hanafi, 2007; Dijkstra, 2010). Es decir, (a) las estimaciones PLS estan siempre sesgadas, (b) las relaciones internas son
subestimadas, (c) las relaciones externas son sobrestimadas, (d) el Modo A carece de la propiedad de convergencia monótona, (3) el Modo
B tiene la propiedad de convergencia monótona.
(6) Evidencia empírica acerca de la convergencia “at large” de PLS Path Modelling con Modo A.
(7) Evidencia empírica para los modelos formativos con pocos indicadores
(8) Evidencia empírica del desempeño del procedimiento Two-Step PLS Path Modelling con Modo C para estimar efectos no lineales y de
interacción entre constructos formativos.
|
3 |
Random combinatorial structures with low dependencies : existence and enumerationPerarnau Llobet, Guillem 01 October 2013 (has links)
En aquesta tesi s'estudien diferents problemes en el camp de la combinatòria i la teoria de grafs, utilitzant el mètode probabilístic. Aquesta tècnica, introduïda per Erdős , ha esdevingut una eina molt potent per tal de donar proves existencials per certs problemes en diferents camps de les matemàtiques on altres mètodes no ho han aconseguit.
Un dels seus principals objectius és l'estudi del comportament de les variables aleatòries. El cas en que aquestes variables compten el nombre d'esdeveniments dolents que tenen lloc en una estructura combinatòria és de particular interès. La idea del Paradigma de Poisson és estimar la probabilitat que tots aquests esdeveniments dolents no succeeixin a la vegada, quan les dependències entre ells són febles o escasses. En tal cas, aquesta probabilitat s'hauria de comportar de forma similar al cas on tots els esdeveniments són independents. El Lema Local de Lovász o la Desigualtat de Suen són exemples d'aquesta idea.
L'objectiu de la tesi és estudiar aquestes tècniques ja sigui proveint-ne noves versions, refinant-ne les existents per casos particulars o donant-ne noves aplicacions. A continuació s'enumeren les principals contribucions de la tesi.
La primera part d'aquesta tesi estén un resultat d' Erdős i Spencer sobre transversals llatins. Els autors proven que qualsevol matriu d'enters on cap nombre apareix massa vegades, admet un transversal on tots els nombres són diferents. Això equival a estudiar els aparellaments multicolors en aresta-coloracions de grafs complets bipartits. Sota les mateixes hipòtesis que, es donen resultats sobre el nombre d'aquests aparellaments. Les tècniques que s'utilitzen estan basades en l'estratègia desenvolupada per Lu i Székely.
En la segona part d'aquesta tesi s'estudien els codis identificadors. Un codi identificador és un conjunt de vèrtexs tal que tots els vèrtexs del graf tenen un veïnatge diferent en el codi. Aquí s'estableixen cotes en la mida d'un codi identificador mínim en funció dels graus i es resol parcialment una conjectura de Foucaud et al.. En un altre capítol, es mostra que qualsevol graf suficientment dens conté un subgraf que admet un codi identificador òptim.
En alguns casos, provar l'existència d'un cert objecte és trivial. Tot i així, es poden utilitzar les mateixes tècniques per obtenir resultats d'enumeració. L'estudi de patrons en permutacions n'és un bon exemple. A la tercera part de la tesi es desenvolupa una nova tècnica per tal d'estimar el nombre de permutacions d'una certa llargada que eviten còpies consecutives d'un patró donat.
En particular, es donen cotes inferiors i superiors per a aquest nombre. Una de les conseqüències és la prova de la conjectura CMP enunciada per Elizalde i Noy així com nous resultats en el comportament de la majoria dels patrons.
En l'última part de la tesi s'estudia la Conjectura Lonely Runner, enunciada independentment per Wills i Cusick i que té múltiples aplicacions en diferents camps de les matemàtiques. Aquesta coneguda conjectura diu que per qualsevol conjunt de corredors que corren al llarg d'un cercle unitari, hi ha un moment on tots els corredors estan suficientment lluny de l'origen. Aquí, es millora un resultat de Chen ampliant la distància de tots els corredors a l'origen. També s'estén el teorema del corredor invisible de Czerwiński i Grytczuk . / In this thesis we study different problems in combinatorics and in graph theory by means of the probabilistic method. This method, introduced by Erdös, has become an extremely powerful tool to provide existential proofs for certain problems in different mathematical branches where other methods had failed utterly. One of its main concerns is to study the behavior of random variables. In particular, one common situation arises when these random variables count the number of bad events that occur in a combinatorial structure. The idea of the Poisson Paradigm is to estimate the probability of these bad events not happening at the same time when the dependencies among them are weak or rare. If this is the case, this probability should behave similarly as in the case where all the events are mutually independent. This idea gets reflected in several well-known tools, such as the Lovász Local Lemma or Suen inequality. The goal of this thesis is to study these techniques by setting new versions or refining the existing ones for particular cases, as well as providing new applications of them for different problems in combinatorics and graph theory. Next, we enumerate the main contributions of this thesis. The first part of this thesis extends a result of Erdös and Spencer on latin transversals [1]. They showed that an integer matrix such that no number appears many times, admits a latin transversal. This is equivalent to study rainbow matchings of edge-colored complete bipartite graphs. Under the same hypothesis of, we provide enumerating results on such rainbow matchings. The second part of the thesis deals with identifying codes, a set of vertices such that all vertices in the graph have distinct neighborhood within the code. We provide bounds on the size of a minimal identifying code in terms of the degree parameters and partially answer a question of Foucaud et al. On a different chapter of the thesis, we show that any dense enough graph has a very large spanning subgraph that admits a small identifying code. In some cases, proving the existence of a certain object is trivial. However, the same techniques allow us to obtain enumerative results. The study of permutation patterns is a good example of that. In the third part of the thesis we devise a new approach in order to estimate how many permutations of given length avoid a consecutive copy of a given pattern. In particular, we provide upper and lower bounds for them. One of the consequences derived from our approach is a proof of the CMP conjecture, stated by Elizalde and Noy as well as some new results on the behavior of most of the patterns. In the last part of this thesis, we focus on the Lonely Runner Conjecture, posed independently by Wills and Cusick and that has multiple applications in different mathematical fields. This well-known conjecture states that for any set of runners running along the unit circle with constant different speeds and starting at the same point, there is a moment where all of them are far enough from the origin. We improve the result of Chen on the gap of loneliness by studying the time when two runners are close to the origin. We also show an invisible runner type result, extending a result of Czerwinski and Grytczuk.
|
4 |
Combinatorial dynamics of strip patterns of quasiperiodic skew products in the cylinderMorales López, Leopoldo 26 March 2016 (has links)
La tesi consta de dues parts. En la primera s'estenen els resultats i tècniques de Fabbri et al. 2005 per estudiar la dinàmica combinatòria, el <<forcing>> i l'entropia topològica de certes aplicacions triangulars al cilindre forçades quasiperiòdicament. Aquesta teoria dóna com a corol.lari una demostració més estructurada del Teorema de Sharkovski per aquest cas, demostrat inicialment a Fabbri et al., 2005. Quant a l'entropia es defineix la noció de ferradura en aquest context i es prova, com en el cas de l'interval, que si una d'aquestes funcions té una s-ferradura llavors la seva entropía topològica és més gran o igual a log s. D'això se'n dedueixen fites inferior de l'entropia en funció dels períodes de les orbites periòdiques. Això representa una extensió dels resultats anàlegs a l'interval a aquest context.
En el context anterior sorgeix de manera natural la següent pregunta: El Teorema de Sharkovsky es compleix restringit a corbes en lloc de bandes generals? L'objectiu de la segona part de la memòria és el de respondre a aquesta pregunta de forma negativa mitjançant un contraexample: Es construeix una funció que té una òrbita periòdica de període 2 de corbes (que són, de fet, els cercles superiors i inferiors del cilindre) i sense cap corba invariant (solament té una pseudocorba invariant). En particular, això demostra que hi ha aplicacions triangulars al cilindre forçades quasiperiòdicament sense corbes invariants. Aquest és el primer resultat analític d'aquesta naturalesa que apareix a la literatura malgrat l'existencia d'evidències numèriques prèvies en aquest sentit.
Els resultats obtinguts són solament una primera fase en la comprensió analítica/topològica de la dinàmica d'aquestes aplicacions, el que obra una via de treball futura. / The thesis consists of two parts. In the first we aim at extending the results and techniques from Fabbri et al. 2005 to study the Combinatorial Dynamics, the <<forcing>> and the topological Entropy of certain quasiperiodically forced skew-product on the cylinder. This theory gives a structured demonstration from the Sharkovski Theorem as a corollary, proved initially in Fabbri et al., 2005. About entropy defines the notion of horseshoe in this context and shwow, as in the interval case, if one of these functions has a s-horseshoe then its topological entropy is greater than or equal to log s. It follows lower entropy based on periodic orbits periods. This represents an similar extension to the results a l'interval in this context.
In the above context arises naturally the following question: Sharkovsky theorem holds restricted curves instead of bands general? The aim of the second part of the report is to answer this question negatively by a contraexample: It constructs a function that has two curves as periodic orbit of period 2 (which are, in fact, the upper and lower circles cylinder) with no invariant curve (only has an invariant pseudo-curve). In particular, this shows that there are quasiperiodically forced skew-product on the cylinder without invariant curves. This is the first analytical result of this kind appearing in the literature despite the existence of previous numerical evidence in this regard.
The results are only the first stage in understanding analytic/topological dynamics of these applications, which work via a future job.
|
5 |
On the structure of graphs without short cyclesSalas Piñón, Julián 20 December 2012 (has links)
The objective of this thesis is to study cages, constructions and properties of such families of graphs. For this, the study of graphs without short cycles plays a fundamental role in order to develop some knowledge on their structure, so we can later deal with the problems on cages. Cages were introduced by Tutte in 1947. In 1963, Erdös and Sachs proved that (k, g) -cages exist for any given values of k and g. Since then, large amount of research in cages has been devoted to their construction.
In this work we study structural properties such as the connectivity, diameter, and degree regularity of graphs without short cycles.
In some sense, connectivity is a measure of the reliability of a network. Two graphs with the same edge-connectivity, may be considered to have different reliabilities, as a more refined index than the edge-connectivity, edge-superconnectivity is proposed together with some other parameters called restricted connectivities.
By relaxing the conditions that are imposed for the graphs to be cages, we can achieve more refined connectivity properties on these families and also we have an approach to structural properties of the family of graphs with more restrictions (i.e., the cages).
Our aim, by studying such structural properties of cages is to get a deeper insight into their structure so we can attack the problem of their construction.
By way of example, we studied a condition on the diameter in relation to the girth pair of a graph, and as a corollary we obtained a result guaranteeing restricted connectivity of a special family of graphs arising from geometry, such as polarity graphs.
Also, we obtained a result proving the edge superconnectivity of semiregular cages. Based on these studies it was possible to develop the study of cages.
Therefore obtaining a relevant result with respect to the connectivity of cages, that is, cages are k/2-connected. And also arising from the previous work on girth pairs we obtained constructions for girth pair cages that proves a bound conjectured by Harary and Kovács, relating the order of girth pair cages with the one for cages. Concerning the degree and the diameter, there is the concept of a Moore graph, it was introduced by Hoffman and Singleton after Edward F. Moore, who posed the question of describing and classifying these graphs.
As well as having the maximum possible number of vertices for a given combination of degree and diameter, Moore graphs have the minimum possible number of vertices for a regular graph with given degree and girth. That is, any Moore graph is a cage. The formula for the number of vertices in a Moore graph can be generalized to allow a definition of Moore graphs with even girth (bipartite Moore graphs) as well as odd girth, and again these graphs are cages. Thus, Moore graphs give a lower bound for the order of cages, but they are known to exist only for very specific values of k, therefore it is interesting to study how far a cage is from this bound, this value is called the excess of a cage.
We studied the excess of graphs and give a contribution, in the sense of the work of Biggs and Ito, relating the bipartition of girth 6 cages with their orders. Entire families of cages can be obtained from finite geometries, for example, the graphs of incidence of projective planes of order q a prime power, are (q+1, 6)-cages. Also by using other incidence structures such as the generalized quadrangles or generalized hexagons, it can be obtained families of cages of girths 8 and 12.
In this thesis, we present a construction of an entire family of girth 7 cages that arises from some combinatorial properties of the incidence graphs of generalized quadrangles of order (q,q).
|
6 |
Information and control supervision of adaptive/iterative schemesBalaguer Herrero, Pedro 18 July 2007 (has links)
El disseny d'un controlador es un procés que requereix adquirir y processar informació amb la finalitat de dissenyar un sistema de control satisfactori. A més a més és àmpliament reconegut el fet de que si s'afegeix nova informació en el procés de disseny d'un controlador, és possible millorar el funcionament del controlador obtingut. Aquesta és la filosofia existent darrere del control adaptatiu. No obstant el concepte d'informació referit al problema del disseny de reguladors, si bé està molt estes, no disposa d'una formalització clara ni unificadora degut a la mancança d'un marc conceptual. Aquesta tesi aborda el problema del disseny de controladors des d'un punt de vista de la informació requerida per aconseguir aquesta finalitat. Les aportacions de la tesi es divideixen en dues parts. En la primera part l'objectiu és caracteritzar el concepte d'informació dins del problema del disseny de controladors, així com analitzar totes les fonts d'informació disponibles. Aquest objectiu s'aconsegueix mitjançant el desenvolupament d'un marc conceptual en el qual es pot establir relacions fonamentals necessàries per augmentar la informació dels elements del problema de control. En un segon pas, aquest marc ja establert s'utilitza par analitzar i comparar les tècniques del control adaptatiu clàssic amb el control iteratiu. El marc permet comparar ambdues tècniques de disseny de controladors en funció de la gestió de la informació que cadascuna d'elles realitza, proporcionant així un punt de referència per comparar diverses maneres de gestionar la informació per al disseny de controladors. En la segona part de la tesi s'aborda el problema de la validació de la informació existent en un model. L'objectiu és ser capaç de validar un model de manera que el resultat de la validació no sigui simplement un resultat binari de "validat/invalidat", si no que es donen guies de decisió sobre com gestionar la informació dels elements del problema de control amb la finalitat d'augmentar la informació dels models. Per aconseguir aquest fi es desenvolupa l'algorisme de validació FDMV (Frequency Domain Model Validation) que permet que el resultat de la validació d'un model sigui dependent de la freqüència. D'aquest fet es conclou que un mateix model pot ser validat per a un cert rang de freqüències mentre que el mateix model pot ser invalidat per a un altre rang de freqüències diferents. Aquesta validació dependent de la freqüència permet millorar la gestió de la informació en lo referent a 1) disseny experimental per a una nova identificació, 2) selecció de l'ordre del model adequat i, 3) selecció de la amplada de banda del controlador acceptable per l'actual model. L'algorisme FDMV es mostra com una eina especialment apropiada per a ser emprada en tècniques de control iteratiu. / El diseño de un controlador es un proceso que requiere adquirir y procesar información con el fin de diseñar un sistema de control satisfactorio. Además es ampliamente reconocido el hecho de que si se añade nueva información en el proceso de diseño de un controlador, es posible mejorar el desempeño del controlador obtenido. Esta es la filosofía existente detrás del control adaptativo. Sin embargo el concepto de información referido al problema de diseño de reguladores, si bien está muy extendido, no dispone de una formalización clara ni unificada al carecer de un marco conceptual. En esta tesis se aborda el problema del diseño de controladores desde un punto de vista de la información requerida para tal fin. Las aportaciones de la tesis se dividen en dos partes. En la primera parte el objetivo es caracterizar el concepto de información cuando hablamos del problema del diseño de controladores, así como analizar todas las fuentes de información disponibles. Esto se consigue mediante el desarrollo de un marco conceptual en el cual se pueden establecer relaciones fundamentales necesarias para aumentar la información de los elementos del problema de control. En un segundo paso, dicho marco ya establecido se utiliza para analizar y comparar las técnicas del control adaptativo clásico con el control iterativo. El marco permite comparar ambas técnicas de diseño de controladores en función de la gestión de la información que cada una de ellas realiza, proporcionando así un punto de referencia para comparar diversas maneras de gestionar la información para el diseño de controladores. En la segunda parte de la tesis se aborda el problema de la validación de la información existente en un modelo. El objetivo es ser capaz de validar un modelo de manera tal que el resultado de la validación no sea simplemente un resultado binario de "validado/invalidado", si no que aporte guías de decisión sobre como gestionar la información de los elementos del problema de control con el fin de aumentar la información del modelo. Para tal fin se desarrolla el algoritmo de validación FDMV (Frequency Domain Model Validation) que permite que el resultado de la validación de un modelo sea dependiente de la frecuencia. De ello se sigue que un mismo modelo puede ser validado para cierto rango de frecuencias mientras que el mismo modelo puede ser invalidado para otro rango de frecuencias diferentes. Esta validación dependiente de la frecuencia permite mejorar la gestión de la información en lo referente al i) diseño experimental para una nueva identificación, ii) selección del orden del modelo adecuado y iii) selección del ancho de banda del controlador aceptable por el modelo a mano. El algoritmo FDMV se muestra como una herramienta especialmente apropiada para ser empleada en técnicas de control iterativo.
|
7 |
Hybrid algorithms for solving routing problemsGuimarans Serrano, Daniel 27 July 2012 (has links)
Un component important de molts sistemes de distribució és el càlcul de les rutes dels vehicles per servir els clients. El Vehicle Routing Problem (VRP) proporciona el marc teòric per tractar aquest tipus de problemes logístics relacionats amb la distribució física de béns. Per la seva complexitat i aplicabilitat, aquest tipus de problemes logístics es troba entre les línies de recerca més populars en optimització combinatòria.
Aquesta tesi de doctorat té com a objectiu la introducció de tres metodologies diferents per resoldre el VRP. Aquestes metodologies han estat especialment dissenyades per ser flexibles, en el sentit que poden ser utilitzades, amb adaptacions menors, per resoldre diferents variants del VRP presents en casos d’aplicació industrial.
En les tres metodologies descrites en aquest treball s’utilitzen diferents tècniques per aconseguir la flexibilitat, l’eficiència i la robustesa desitjades. Constraint Programming (CP) ha estat escollit com a paradigma de modelat per descriure les principals restriccions presents en el VRP. CP proporciona la flexibilitat desitjada per les tres metodologies, atès que afegir restriccions addicionals presents en molts casos d’aplicació real només afecta al modelat del problema, però no a la definició dels algorismes de cerca. En les dues primeres metodologies descrites, el model de CP només s’utilitza per comprovar la factibilitat de les solucions durant la cerca. La tercera metodologia presenta un model més ric del VRP que permet tractar diferents variants del problema. En aquest cas, la cerca es realitza i es controla fent servir els mecanismes que CP proporciona.
La Relaxació Lagrangiana (LR) i una versió probabilística de l’heurística Clarke and Wright Savings (RCWS) s’utilitzen amb una finalitat molt específica dins de les metodologies. LR s’utilitza per minimitzar la distància total recorreguda pels vehicles, mentre que la RCWS es fa servir per calcular una solució inicial de bona qualitat. Ambdós mètodes proporcionen una aproximació eficient als problemes respectius. A més, la utilització de LR permet reduir la complexitat computacional dels processos de cerca local i, d’aquesta manera, redueix el temps computacional necessari per resoldre el VRP.
Totes les metodologies es basen en la metaheurística coneguda com Variable Neighborhood Search (VNS). El VNS està format per una família d’algorismes que aprofiten sistemàticament la idea de canviar el veïnat explorat al voltant d’una solució, tant en el procés de cerca per trobar un mínim local com en el procés de pertorbació, per escapar de la vall corresponent. Malgrat que és un mètode bastant estès, hi ha pocs exemples d’aplicació en el VRP. En tot cas, fins i tot els mètodes VNS més simples han aconseguit bons resultats quan han estat aplicats en aquest problema.
Aquesta tesi té com a objectiu contribuir en la recerca de l’aplicació de la metaheurística VNS en el VRP. Aquesta ha estat escollida com a marc en el que integrar les tècniques mencionades. Així, la metaheurística s’utilitza per guiar la cerca, mentre que l’eficiència desitjada s’aconsegueix mitjançant els mètodes que s’hi integren. D’altra banda, utilitzar CP com a paradigma de modelat proporciona la flexibilitat requerida. Aquesta característica és especialment rellevant en el cas de la darrera metodologia descrita. En aquest cas, la cerca de CP es guia mitjançant una combinació de les metaheurístiques VNS i Large Neighborhood Search (LNS). Aquesta metodologia representa una primera aproximació a la resolució eficient de problemes VRP més complexos, similars a casos d’aplicació real. / An important component of many distribution systems is routing vehicles to serve customers. The Vehicle Routing Problem (VRP) provides a theoretical framework for approaching this class of logistics problems dealing with physical distribution. Because of its complexity and applicability, this class of logistics problems is among the most popular research areas in combinatorial optimization.
This PhD. Thesis is aimed to introduce three different yet related hybrid methodologies to solve the VRP. These methodologies have been especially designed for being flexible in the sense that they can be used, with minor adaptations, for solving different variants of the VRP present in industrial application cases.
In the three methodologies described in this work, different technologies are used to achieve the desired flexibility, efficiency, and robustness. Constraint Programming (CP) has been chosen as the modeling paradigm to describe the main constraints involved in the VRP. CP provides the pursued flexibility for the three methodologies, since adding side constraints present in most real application cases becomes a modeling issue and does not affect the search algorithm definition. In the first two hybrid methodologies, the CP model is used to check solution's feasibility during search. The third methodology presents a richer model for the VRP capable of tackling different problem variants. In this case, the search is performed and controlled from a CP perspective.
Lagrangian Relaxation (LR) and a probabilistic version of the Clarke and Wright Savings (CWS) heuristic are used for specific purposes within the proposed methodologies. The former is used for minimizing the total traveled distance and the latter to provide a good initial solution. Both methods provide an efficient approach to the respectively faced problems. Moreover, the use of LR permits reducing the computational complexity of the performed local search processes and therefore reduces the required computational time to solve the VRP.
All methodologies are based on the so-called Variable Neighborhood Search (VNS) metaheuristic. The VNS is formed by a family of algorithms that exploits systematically the idea of neighborhood changes both in the search phase to find a local minimum, and in perturbation phase, to escape from the corresponding valley. Although it is an extended method, there are few examples of its application to the VRP. However, interesting results have been obtained even applying the simplest VNS algorithms to this problem.
The present thesis is aimed to contribute to the current research on the application of the VNS metaheuristic to the VRP. It has been chosen as the framework where the mentioned techniques are embedded. Hence, the metaheuristic is used to guide the search, while the desired efficiency is provided by the composing methods. On the other hand, using CP as the modeling paradigm provides the required flexibility. This characteristic is enhanced in the last described methodology. In this case, the CP search is guided by a combination of the VNS and the Large Neighborhood Search (LNS) metaheuristics. This methodology represents an initial approach for tackling efficiently more complex and richer VRP, similar to real application cases.
|
8 |
Economic action and reference points: an experimental analysisSolà Belda, Carles 12 March 2001 (has links)
Aquesta tesi analitza diversos aspectes de les motivacions individuals i de les seves implicacions en processos econòmics. Específicament, analitzo en detall criteris normatius que poden aplicar els individus com són els de justícia i reciprocitat. En la Introducció defineixo l'ús que en faig de conceptes com la reciprocitat, la justícia, la "dependència del menú" i els "punts de referència" donat que s'empren en el desenvolupament dels diferents capítols. També es descriu la metodologia emprada, que consisteix en alguns models teòrics sobre el comportament dels individus en situacions estratègiques, incorporant elements de la Teoria dels Jocs i l'ús de la metodologia experimental. En el segon capítol, " El concepte de justícia de Rabin i la provisió privada de béns públics", analitzo en detall les implicacions de la teoria de Rabin (1993) sobre el comportament estratègic d'individus. Aquest model introdueix en la funció d'utilitat , a més dels pagaments econòmics que un individu obté, aspectes psicològics com el sentit de justícia en les relacions econòmiques amb altres individus. En aquest capítol examino les implicacions d'una extensió de la teoria a un camp a on existeix una acumulació de resultats experimentals en contradicció amb el comportament predit pels models estàndard de la teoria dels jocs. Mostro que la teoria d'en Rabin és consistent amb el que s'anomena "splitting" però inconsistent amb el que es coneix com a "efecte MPCR". El tercer capítol, "Punts de referència i reciprocitat negativa en jocs seqüencials simples", analitza la influència que poden tenir certs vectors de pagaments no disponibles en un moment de decisió, anomenats "punts de referència", sobre la preferència per un altre conjunt de vectors de pagaments. Això es connecta amb l'atribució de certes intencions a altres subjectes quan trien determinats cursos d'acció en el joc. Mitjançant la utilització d'experiments s'obtenen resultats que confirmen la importància dels punts de referència en les consideracions de reciprocitat que empren els individus. El quart capítol, " Aspectes distribucionals i els punts de referència", analitza alguns aspectes que poden combinar-se amb els punts de referència en la atribució d'intencions. Aquests aspectes són: el pagament que podia rebre un agent en el punt de referència, el seu pagament relatiu a l'altre agent i, finalment, el pagament conjunt que podien obtenir els dos agents en el punt de referència. Els resultats experimentals obtinguts mostren que cap d'aquests efectes pot explicar per ell mateix els resultats. Finalment, el cinquè capítol, " Els joc del dilema dels presoners en forma seqüencial: Reciprocitat i efectes de dimensió del grup" estudia les reaccions dels individus a certes decisions d'altres individus del procés i els canvis d'aquestes reaccions amb la dimensió del grup. Els resultats experimentals obtinguts , mostren que el comportament observat és consistent amb consideracions de reciprocitat i d'aversió a la desigualtat. / This thesis analyzes several aspects of the motivations that drive individuals and their implications in economic processes. In particular, I analyze in detail normative criteria that individuals apply such as those of fairness and reciprocity. In the Introduction I define the use I make of the concepts of reciprocity, fairness, menu dependence and reference points that will be used in the course of the different chapters. The methodology developed in this thesis employs some theoretical models on the behavior of individuals in strategic interactions, using elements of Game Theory and Experimental Economics. In the second chapter, "On Rabin's Concept of Fairness and the Private Provision of Public Goods", I analyze in detail the implications of Rabin's (1993) theory of individual behavior and its implications. This model introduces, apart from the economic payoffs that the individual obtains in a strategic interaction, psychological phenomena, mainly a sense of fairness in the relation with other agents. In this chapter I analyze the implications of an extended version of this theory to a field where there exists a vast amount of experimental evidences contradicting the behavior predicted by standard game theoretical models. I show that Rabin's theory is consistent with one piece of evidence repeatedly found in experiments, the so call "splitting". I also show that the model is inconsistent with another piece of evidence in the field, the "MPCR effect". The third chapter, "Reference Points and Negative Reciprocity in Simple Sequential Games", analyzes the influence that certain payoff vectors, the "reference points", not attainable at that time, may have on the preference by other payoff vectors. This is connected with the attribution of certain intentions to the other players when selecting some courses of action. By using experiments I obtain results that confirm the importance of these reference points in the reciprocity considerations that individuals apply. Chapter four , "Distributional Concerns and Reference Points", analyzes some aspects that may interact with the reference points in the attributions of intentions. These aspects are the payoff to the agent from a given course of action, his/her relative payoff and the joint payoff. The experimental results show that none of these elements is able to explain by itself the results. Finally, the fifth chapter, "The Sequential Prisoner's Dilemma Game: Reciprocity and Group Size Effects" analyzes how aspects of the individual motivations interact with social aspects. In particular it studies how the reactions of individuals change with the dimension of the group in certain processes. The experimental results obtained show that in the prisoner's dilemma game (two-person and three-person games) the behavior of subjects may be consistent with reciprocity considerations and with inequality aversion considerations.
|
9 |
Magic graphsMuntaner Batlle, Francesc Antoni 29 November 2001 (has links)
DE LA TESISSi un graf G admet un etiquetament super edge magic, aleshores G es diu que és un graf super edge màgic. La tesis està principalment enfocada a l'estudi del conjunt de grafs que admeten etiquetaments super edge magic així com també a desenvolupar relacions entre aquest tipus d'etiquetaments i altres etiquetaments molt estudiats com ara els etiquetaments graciosos i armònics, entre d'altres. De fet, els etiquetaments super edge magic serveixen com nexe d'unió entre diferents tipus d'etiquetaments, i per tant moltes relacions entre etiquetaments poden ser obtingudes d'aquesta forma. A la tesis també es proposa una nova manera de pensar en la ja famosa conjectura que afirma que tots els arbres admeten un etiquetament super edge magic. Això és, per a cada arbre T trobam un arbre super edge magic T' que conté a T com a subgraf, i l'ordre de T'no és massa gran quan el comparam amb l'ordre de T . Un problema de naturalesa similar al problema anterior, en el sentit que intentam trobar un graf super edge magic lo més petit possible i que contengui a cert tipus de grafs, i que ha estat completament resolt a la tesis es pot enunciar com segueix.Problema: Quin és un graf conexe G super edge magic d'ordre més petit que conté al graf complet Kn com a subgraf?.La solució d'aquest problema és prou interessant ja que relaciona els etiquetaments super edge magic amb un concepte clàssic de la teoria aditiva de nombres com són els conjunts de Sidon dèbils, també coneguts com well spread sets.De fet, aquesta no és la única vegada que el concepte de conjunt de Sidon apareix a la tesis. També quan a la tesis es tracta el tema de la deficiència , els conjunts de Sidon són d'una gran utilitat. La deficiencia super edge magic d'un graf és una manera de mesurar quan d'aprop està un graf de ser super edge magic. Tècnicament parlant, la deficiència super edge magic d'un graf G es defineix com el mínim número de vèrtexs aillats amb els que hem d'unirG perque el graf resultant sigui super edge magic. Si d'aquesta manera no aconseguim mai que el graf resultant sigui super edge magic, aleshores deim que la deficiència del graf és infinita. A la tesis, calculam la deficiència super edge magic de moltes families importants de grafs, i a més donam alguns resultats generals, sobre aquest concepte.Per acabar aquest document, simplement diré que al llarg de la tesis molts d'exemples que completen la tesis, i que fan la seva lectura més agradable i entenible han estat introduits. / OF THESISIf a graph G admits a super edge magic labeling, then G is called a super edge magic graph. The thesis is mainly devoted to study the set of graphs which admit super edge magic labelings as well as to stablish and study relations with other well known labelings.For instance, graceful and harmonic labelings, among others, since many relations among labelings can be obtained using super edge magic labelings as the link.In the thesis we also provide a new approach to the already famous conjecture that claims that every tree is super edge magic. We attack this problem by finding for any given tree T a super edge magic tree T' that contains T as a subgraph, and the order of T'is not too large if we compare it with the order of T .A similar problem to this one, in the sense of finding small host super edge magic graphs for certain type of graphs, which is completely solved in the thesis, is the following one.Problem: Find the smallest order of a connected super edge magic graph G that contains the complete graph Kn as a subgraph.The solution of this problem has particular interest since it relates super edge magic labelings with the additive number theoretical concept of weak Sidon set, also known as well spread set. In fact , this is not the only time that this concept appears in the thesis.Also when studying the super edge magic deficiency, additive number theory and in particular well spread sets have proven to be very useful. The super edge magic deficiency of graph is a way of measuring how close is graph to be super edge magic.Properly speaking, the super edge magic deficiency of a graph G is defined to be the minimum number of isolated vertices that we have to union G with, so that the resulting graph is super edge magic. If no matter how many isolated vertices we union G with, the resulting graph is never super edge magic, then the super edge magic deficiency is defined to be infinity. In the thesis, we compute the super edge magic deficiency of may important families of graphs and we also provide some general results, involving this concept.Finally, and in order to bring this document to its end, I will just mention that many examples that improve the clarity of the thesis and makes it easy to read, can be found along the hole work.
|
10 |
Propagació d'informació en grafs i digrafs que modelen xarxes d'interconnexió simètriquesMitjana, Margarida 11 March 1999 (has links)
L'objectiu d'aquesta tesi és aprofondir en l'estudi d'una certa família de dígrafs, els dígrafs de prefix-cicle, donant nous detalls sobre la seva estructura, noves maneres d'enfocar el seu estudi, i dissenyant bons esquemes de comunicació. Es completa d'aquesta forma l'estudi iniciat per altres autors i s'en refoça el seu interès com a bon model de xarxa d'interconnexió.
|
Page generated in 0.0935 seconds