Spelling suggestions: "subject:"comercial"" "subject:"comerciais""
81 |
Social robot navigation in urban dynamic environmentsFerrer Mínguez, Gonzalo 30 October 2015 (has links)
Deploying mobile robots in social environments requires novel navigation algorithms which are capable of providing valid solutions in such challenging scenarios. The main objective of the present dissertation is to develop new robot navigation approaches able to solve in an intelligent way the navigation problem in urban settings while considering at the same time the interactions with pedestrians, similar to what people easily do with little attention.
Before studying in depth navigation algorithms, this thesis focuses on prediction algorithms to provide a more detailed model of the scene. Understanding human motion in outdoor and indoor scenarios is an appealing requirement to characterize correctly urban settings. Urban environments consist essentially of static obstacles and people, which are treated as dynamic and highly uncertain obstacles. Accordingly, it is mandatory to calculate people's intentions in order to successfully build a human prediction model that generates the corresponding human trajectories and considers their interactions with the environment, such as other pedestrians, static obstacles or even robots.
It is of great interest that service robots can navigate successfully in typical urban environments, which are dynamic and constrained. In addition, people's behavior should not be conditioned by the presence and the maneuvering of robots. To this end, the robot navigation should seek to minimize its impact on the environment, in our case, on people.
This thesis proposes new robot navigation methods that contemplate the social interactions taking place in the scene.
In order to procure more intelligence to the navigation algorithm, we propose to integrate seamlessly the human motion prediction information into a new robot planning approach.
Real experimentation is essential for the validation of the navigation algorithms. As there are real people involved, we must validate the results in real settings since simulation environments have limitations. In this thesis, we have implemented all the prediction and navigation algorithms in our robotic platform and we have provided plenty of evaluations and testings of our algorithms in real settings. / Ubicar robots móviles en entornos sociales requiere novedosos algoritmos de navegación que sean capaces de aportar soluciones válidas en éstos exigentes escenarios. El prinicipal objetivo de la presente disertación es el de desarrollar nuevas soluciones para la navegación de robots que sean capaces de resolver, de una manera más inteligente, los problemas de navegación en emplazamientos urbanos, a la vez que se consideran las interacciones con los transeúntes de manera similar a lo que la gente hace fácilmente prestando poca atención. Antes de estudiar en profundidad los algoritmos de navegación, esta tesis se centra en los algoritmos de predicción para proporcionar un modelo más detallado de la escena. Entender el movimiento humando en entornos exteriores e interiores es un requerimiento deseable para caracterizar correctamente emplazamientos urbanos. Los entornos urbanos están consistituídos por muchos objetos dinámicos y altamente impredecibles, la gente. Por lo tanto, es obligatorio calcular las intenciones de la gente para constriur de manera exitosa un modelo de predicción humano que genere las correspondientes trayectorias humanas y considere sus interacciones con el entorno, como otros peatones, obstáculos estáticos o incluso robots. Es de gran interés que los robots de servicios puedan navegar correctamente en entornos típicamente urbanos, que son dinámicos y acotados, además de que el comportamiento de las personas no debería estar condicionado por la presencia y las maniobras de los robots. Con este fin, la navegación de robots debe buscar minimizar su impacto al entorno, en nuestro caso, a la gente. Esta tesis propone nuevos métodos para la navegación de robots que contemplen las interacciones sociales que suceden en la escena. Para proporcionar una navegación más inteligente, proponemos integrar de manera suave el algoritmo de predicción del movimiento humano con un nuevo enfoque de planificación de trayectorias. La experimentación real es esencial para la validación de los algoritmos de navegación. Ya que hay personas reales implicadas, debemos validar los resultados en emplazamientos reales porque el entorno de simulación tiene limitaciones. En esta tesis hemos implementado todos los algoritmos de predicción y de navegación en la plataforma robótica y hemos proporcionado multitud de evaluaciones y pruebas de nuestros algoritmos en entornos reales.
|
82 |
Membrane protein nanoclustering as a functional unit of immune cells : from nanoscopy to single molecule dynamicsTorreño Piña, Juan Andrés 02 October 2015 (has links)
State-of-the-art biophysical techniques featuring high temporal and spatial resolution have allowed for the first time the direct visualization of individual transmembrane proteins on the cell membrane. These techniques have revealed that a large amount of molecular components of the cell membrane do not organize in a random manner but they rather grouped together forming so-called clusters at the nanoscale. Moreover, the lateral behavior of these clusters shows a great dependence on the compartmentalization of the cell membrane by, e.g., the actin cytoskeleton at multiple temporal and spatial scales. Since these lateral and temporal organizations have been shown to be crucial for the regulation of the biological activity by these transmembrane proteins, the understanding of the spatiotemporal behavior of membrane receptors, and of proteins in general, is a necessary step towards understanding the biology of the cell. Protein nanoclustering and membrane compartmentalization have been shown to play a crucial role on leukocytes, particularly on the surface of antigen presenting cells. Hence, the direct visualization of membrane proteins on the cell membrane of antigen presenting proteins represents a crucial step in understanding how an immune response can be controlled by leukocytes at the molecular level.
In Chapter 1, the immune system, the membrane receptor DC-SIGN and the antigen presenting protein CD1d are briefly introduced. Moreover, recent advances in superresolution microscopy and single particle tracking techniques which allow the study of membrane proteins at the nanoscale are discussed. Finally, an updated review of protein nanoclustering on the cell membrane shows examples of the importance of protein nanoclustering in regulating biological function in the immune system. Chapter 2 presents the quantitative methodology for analyzing STED nanoscopy images and multi-color single particle tracking data used throughout this thesis. Chapter 2 also describes the single-molecule fluorescence sensitive microscopes implemented in this thesis for multi-color single particle tracking experiments and the corresponding data analysis. At the end of Chapter 2, cartography maps combining high temporal with micron-scale spatial information on the basis of single-molecule detection are presented.
The following chapters in this thesis describe the major results obtained on two important receptors of the immune system. In Chapter 3, we address the role of the neck region of DC-SIGN in fine-tuning the nanoclustering degree of DC-SIGN on the cell membrane. Moreover, Chapter 3 also links the nanoclustering capability of DC-SIGN with its virus binding capability. The meso-scale organization of DC-SIGN and its dependence on a glycan-based connectivity is addressed on Chapter 4. This glycosylation network enhances the interaction between DC-SIGN and clathrin beyond stochastic random encountering. In Chapter 5, we showed that DC-SIGN shows subdiffusive behavior and weak ergodicity breaking (wEB) that cannot be described using the continuous time random walk (CTRW) model. Instead, our data are more consistent with a model in which the plasma membrane is composed of "patches" that change in space in time. In Chapter 6, we demonstrate that the antigen presenting protein CD1d organizes in nanoclusters on the cell membrane of antigen presenting cells whose size and density are tightly controlled by the actin cytoskeleton. Moreover, we also showed that this cytoskeletal control of the CD1d nanoclustering predominantly occurs on the pool of CD1d that has undergone lysosomal recycling, including under inflammatory conditions. Finally, in Chapter 7 we summarize the main results of this thesis and highlight future experiments that will expand the knowledge obtained so far regarding the role of plasma membrane organization and biological regulation. / Gracias a su alta resolución temporal y espacial, las técnicas biofísicas de última generación han permitido la observación directa de proteínas de transmembrana de forma individual en la membrana celular. Estas técnicas han mostrado que la organización de una gran parte de las proteínas de transmembrana no es aleatoria sino que éstas están agrupadas en la membrana celular formando nano-agregados, o "clusters". En el caso concreto del sistema inmune, se ha demostrado que el agrupamiento de proteínas y los compartimentos de la membrana celular juegan un papel determinante en las células presentadoras de antígenos a la hora de controlar la iniciación de una respuesta inmune. Por tanto, la visualización directa de proteínas de membrana en células presentadoras de antígenos a la escala nanométrica representa un paso crucial en el entendimiento del sistema inmune y en un futuro desarrollo de terapias basadas en el sistema inmune humano. En el primer capítulo de esta tesis, se presentará al lector una breve introducción del sistema inmune y una descripción general de las dos proteínas que se han estudiado extensivamente en esta tesis: el receptor reconocedor de patógenos DC-SIGN y la proteína presentadora de antígenos glicolipídicos CD1d. Se discutirán además los últimos avances en técnicas de microscopía de fluorescencia con alta resolución temporal y espacial que permiten el estudio de proteínas a la escala nanométrica. Finalmente, el primer capítulo concluye con una revisión de los últimos avances en la caracterización de la organización lateral de proteínas de membrana mostrando cómo dicha organización determina la función biológica de estas proteínas. En el capítulo 2, se presentan los distintos tipos de metodología utilizados en esta tesis para cuantificar imágenes de microscopía de super-resolución STED así como para analizar datos provenientes del seguimiento de partículas individuales usando varios colores. Al final del capítulo 2 se presenta una nueva metodología desarrollada en esta tesis que permite el estudio lateral de proteínas de membrana con una alta resolución temporal y una escala espacial de orden de micras y a la que hemos denominado mapas cartográficos. Los siguientes capítulos de esta tesis se enfocan en el estudio de dos importantes proteínas involucradas en el sistema inmune. En el capítulo 3 se describe como la parte central de la estructura del receptor captador de patógenos DC-SIGN determina su grado de nano-agrupamiento sobre la membrana celular. A su vez, este agrupamiento tiene una incidencia clave en la capacidad de DC-SIGN en unirse a partículas virales. La organización de DC-SIGN a la escala mesoscópica y la dependencia de dicha organización de una conectividad en la membrana celular basada en la glicosilación de proteínas es descrita en el capítulo 4. En el capítulo 5 descubrimos que DC-SIGN tiene un comportamiento que no solo es sub-difusivo en la membrana celular sino que también conlleva a la ruptura de ergodicidad por parte de este receptor. Esta rotura de ergodicidad no puede ser descrita por el modelo "continous time random walk" (CTRW) sino por un modelo nuevo donde la difusión de la partícula cambia constantemente en el espacio y en el tiempo. En el capítulo 6 de esta tesis describimos como la molécula CD1d forma nano-agrupamientos en la membrana celular cuyo tamaño y densidad son controlados por el citoesqueleto de actina. Además, observamos que dicho control mayoritariamente sucede cuando CD1d ha sido reciclado a través de compartimentos lisosomales, incluyendo procesos inflamatorios. Finalmente, en el capítulo 7 se discuten las conclusiones generales de esta tesis y se sugieren experimentos a futuro de manera de incrementar, en base a los resultados obtenidos en esta tesis, nuestro conocimiento de la membrana celular y el papel que la organización espacial y temporal juega en el control del sistema inmune.
|
83 |
Simultaneous localization and mapping using single cluster probability hypothesis density filtersLee, Chee Sing 01 September 2015 (has links)
The majority of research in feature-based SLAM builds on the legacy of foundational work using the EKF, a single-object estimation technique. Because feature-based SLAM is an inherently multi-object problem, this has led to a number of suboptimalities in popular solutions. We develop an algorithm using the SC-PHD filter, a multi-object estimator modeled on cluster processes. This algorithm hosts capabilities not typically seen with feature-base SLAM solutions such as principled handling of clutter measurements and missed detections, and navigation with a mixture of stationary and moving landmarks. We present experiments with the SC-PHD SLAM algorithm on both synthetic and real datasets using an autonomous underwater vehicle. We compare our method to the RB-PHD SLAM, showing that it requires fewer approximations in its derivation and thus achieves superior performance. / En aquesta tesis es desenvolupa aquest algoritme a partir d’un filtre PHD amb un únic grup (SC-PHD), una tècnica d’estimació multi-objecte basat en processos d’agrupació. Aquest algoritme té unes capacitats que normalment no es veuen en els algoritmes de SLAM basats en característiques, ja que és capaç de tractar falses característiques, així com característiques no detectades pels sensors del vehicle, a més de navegar en un entorn amb la presència de característiques estàtiques i característiques en moviment de forma simultània. Es presenten els resultats experimentals de l’algoritme SC-PHD en entorns reals i simulats utilitzant un vehicle autònom submarí. Els resultats són comparats amb l’algoritme de SLAM Rao-Blackwellized PHD (RB-PHD), demostrant que es requereixen menys aproximacions en la seva derivació i en conseqüència s’obté un rendiment superior.
|
84 |
Open, Reusable and Configurable Multi Agent Systems: A Knowledge Modelling ApproachGómez Martínez, Mario 15 June 2004 (has links)
Aunque los Sistemas Multiagente se suponen abiertos, la mayor parte de la investigación realizada se ha centrado en sistemas cerrados, diseñados por un sólo equipo de desarrollo, sobre un entorno homogéneo, y un único dominio.Esta tesis pretende avanzar hacia la consecución de Sistemas Multiagente abiertos. Nuestros esfuerzos se han centrado en desarrollar un marco de trabajo para Sistemas Multiagente que permita maximizar la reutilización de agentes en diferentes dominios, y soporte la formación de equipos bajo demanda, satisfaciendo los requerimientos de cada problema particular.Por un lado, este trabajo investiga el uso de Métodos de Solución de Problemas para describir las capacidades de los agentes con el objetivo de mejorar su reutilización. Hemos tenido que adaptar el modelo para trabajar con aspectos específicos de los agentes, como el lenguaje de comunicación y los protocolos de interacción.Por otro lado, esta tesis propone un nuevo modelo para el Proceso de Solución de Problemas Cooperativo, el cual introduce una fase de configuración previa a la formación de un equipo. El proceso de configuración se encarga de obtener un diseño de equipo, expresado en términos de las tareas a resolver, las capacidades a utilizar, y el conocimiento del dominio disponible.El marco de trabajo desarrollado ha sido puesto a prueba mediante la implementación de una infraestructura para agentes. Esta infraestructura proporciona un nivel de mediación social para los proveedores y clientes del sistema de resolución de problemas, sin imponer una arquitectura particular para los agentes participantes, ni un modelo mental o lógico para explicar la cooperación.Las contribuciones de este trabajo adoptan la forma de un marco de trabajo multi-capa, desde los conceptos más abstractos a los más concretos, para terminar con la implementación de una aplicación particular basada en agentes de información cooperativos. / Although Multi Agent Systems are supposed to be open systems, most of the initial research has focused on closed systems, which are designed by one developer team for one homogeneous environment, and one single domain.This thesis aims to advance some steps towards the realization of the open Multi Agent Systems vision. Our work has been materialized into a framework for developing Multi Agent Systems that maximize the reuse of agent capabilities across multiple application domains, and support the automatic, on-demand configuration of agent teams according to stated problem requirements.On the one hand, this work explores the feasibility of the Problem Solving Methods approach to describe agent capabilities in a way that maximizes their reuse. However, since Problem Solving Methods are not designed for agents, we have had to adapt them to deal with agent specific concepts concerning the agent communication languages and interaction protocols.One the other hand, this thesis proposes a new model of the Cooperative Problem Solving process that introduces a Knowledge Configuration stage previous to the Team Formation stage. The Knowledge Configuration process performs a bottom-up design of a team in term of the tasks to be solved, the capabilities required, and the domain knowledge available.The statements made herein are endorsed by the implementation of an agent infrastructure that has been tested in practice. This infrastructure has been developed according to the electronic institutions formalism to specifying open agent societies. This infrastructure provides a social mediation layer for both requesters and providers of capabilities, without imposing neither an agent architecture, nor an attitudinal theory of cooperation.The contributions of our work are presented as a multilayered framework, going from the more abstract aspects, to the more concrete, implementation dependent aspects, concluding with the implementation of the agent infrastructure and a particular application example for cooperative information agents.
|
85 |
Information theory techniques for multimedia data classification and retrievalVila Duran, Marius 09 July 2015 (has links)
We are in the information age where most data is stored in digital format. Thus, the management of digital documents and videos requires the development of efficient techniques for automatic analysis. Among them, capturing the similarity or dissimilarity between different document images or video frames are extremely important.
In this thesis, we first analyze for several image resolutions the behavior of three different families of image-based similarity measures applied to invoice classification. In these three set of measures, the computation of the similarity between two images is based, respectively, on intensity differences, mutual information, and normalized compression distance. As the best results are obtained with mutual information-based measures, we proceed to investigate the application of three different Tsallis-based generalizations of mutual information for different entropic indexes. These three generalizations derive respectively from the Kullback-Leibler distance, the difference between entropy and conditional entropy, and the Jensen-Shannon divergence.
In relation to digital video processing, we propose two different information-theoretic approaches based, respectively, on Tsallis mutual information and Jensen-Tsallis divergence to detect the abrupt shot boundaries of a video sequence and to select the most representative keyframe of each shot.
Finally, Shannon entropy has been commonly used to quantify the image informativeness. The main drawback of this measure is that it does not take into account the spatial distribution of pixels. In this thesis, we analyze four information-theoretic measures that overcome this limitation. Three of them (entropy rate, excess entropy, and erasure entropy) consider the image as a stationary stochastic process, while the fourth (partitional information) is based on an information channel between image regions and histogram bins / Ens trobem a l’era de la informació on la majoria de les dades s’emmagatzemen en format digital. Per tant, la gestió de documents i vídeos digitals requereix el desenvolupament de tècniques eficients per a l’anàlisi automàtic. Entre elles, la captura de la similitud o dissimilitud entre diferents imatges de documents o fotogrames de vídeo és extremadament important.
En aquesta tesi, analitzem, a diverses resolucions d’imatge, el comportament de tres famílies diferents de mesures basades en similitud d’imatges i aplicades a la classificació de factures. En aquests tres conjunt de mesures, el càlcul de la similitud entre dues imatges es basa, respectivament, en les diferències d’intensitat, en la informació mútua, i en la distància de compressió normalitzada. Degut a que els millors resultats s’obtenen amb les mesures basades en la informació mútua, es procedeix a investigar l’aplicació de tres generalitzacions de la informació mútua basades en Tsallis en diferents índexs entròpics. Aquestes tres generalitzacions es deriven respectivament de la distància de Kullback-Leibler, la diferència entre l’entropia i entropia condicional, i la divergència de Jensen-Shannon.
En relació al processament de vídeo digital, proposem dos enfocaments diferents de teoria de la informació basats respectivament en la informació mútua de Tsallis i en la divergència de Jensen-Tsallis, per detectar els límits d’un pla cinematogràfic en una seqüència de vídeo i per seleccionar el fotograma clau més representatiu de cada pla.
Finalment, l’entropia de Shannon s’ha utilitzat habitualment per quantificar la informativitat d’una imatge. El principal inconvenient d’aquesta mesura és que no té en compte la distribució espacial dels píxels. En aquesta tesi, s’analitzen quatre mesures de teoria de la informació que superen aquesta limitació. Tres d’elles (entropy rate, excess entropy i erasure entropy) consideren la imatge com un procés estocàstic estacionari, mentre que la quarta (partitional information) es basa en un canal d’informació entre les regions d’una imatge i els intervals de l’histograma
|
86 |
Perceptual information-theoretic measures for viewpoint selection and object recognitionBonaventura Brugués, Xavier 10 July 2015 (has links)
Viewpoint selection has been an emerging area in computer graphics for some years, and it is now getting maturity with applications in fields such as scene navigation, volume visualization, object recognition, mesh simplification, and camera placement. But why is viewpoint selection important? For instance, automated viewpoint selection could play an important role when selecting a representative model by exploring a large 3D model database in as little time as possible. Such an application could show the model view that allows for ready recognition or understanding of the underlying 3D model. An ideal view should strive to capture the maximum information of the 3D model, such as its main characteristics, parts, functionalities, etc. The quality of this view could affect the number of models that the artist can explore in a certain period of time.
In this thesis, we present an information-theoretic framework for viewpoint selection and object recognition. From a visibility channel between a set of viewpoints and the polygons of a 3D model we obtain several viewpoint quality measures from the respective decompositions of mutual information. We also review and compare in a common framework the most relevant viewpoint quality measures for polygonal models presented in the literature.
From the information associated to the polygons of a model, we obtain several shading approaches to improve the object recognition and the shape perception. We also use this polygonal information to select the best views of a 3D model and to explore it. We use these polygonal information measures to enhance the visualization of a 3D terrain model generated from textured geometry coming from real data.
Finally, we analyze the application of the viewpoint quality measures presented in this thesis to compute the shape similarity between 3D polygonal models. The information of the set of viewpoints is seen as a shape descriptor of the model. Then, given two models, their similarity is obtained by performing a registration process between the corresponding set of viewpoints / La selecció de punts de vista ha estat una àrea emergent en la computació gràfica des de fa alguns anys i ara està aconseguint la maduresa amb aplicacions en camps com la navegació d’una escena, la visualització de volums, el reconeixement d’objectes, la simplificació d’una malla i la col·locació de la càmera. Però per què és important la selecció del punt de vista? Per exemple, la automatització de la selecció de punts de vista podria tenir un paper important a l’hora de seleccionar un model representatiu mitjançant l’exploració d’una gran base de dades de models 3D en el menor temps possible. Aquesta aplicació podria mostrar la vista del model que permet el millor reconeixement o comprensió del model 3D. Un punt de vista ideal ha de captar la màxima informació del model 3D, com per exemple les seves principals característiques, parts, funcionalitats, etc. La qualitat d’aquest punt de vista pot afectar el nombre de models que l’artista pot explorar en un determinat període de temps.
En aquesta tesi, es presenta un marc de teoria de la informació per a la selecció de punts de vista i el reconeixement d’objectes. Obtenim diverses mesures de qualitat de punt de vista a través de la descomposició de la informació mútua d’un canal de visibilitat entre un conjunt de punts de vista i els polígons d’un model 3D. També revisem i comparem en un marc comú les mesures més rellevants que s’han presentat a la literatura sobre la qualitat d’un punt de vista d’un model poligonal.
A partir de la informació associada als polígons d’un model, obtenim diversos tipus de renderitzat per millorar el reconeixement d’objectes i la percepció de la forma. Utilitzem aquesta informació poligonal per seleccionar les millors vistes d’un model 3D i per la seva exploració. També usem aquestes mesures d’informació poligonal per millorar la visualització d’un model de terreny 3D amb textures generat a partir de dades reals.
Finalment, s’analitza l’aplicació de les mesures de qualitat de punt de vista presentades en aquesta tesi per calcular la similitud entre dos models poligonals. La informació del conjunt de punts de vista és vista com un descriptor del model. Llavors, donats dos models poligonals, la seva similitud s’obté mitjançant la realització d’un procés de registre entre els conjunts de punts de vista corresponents
|
87 |
An overnight parcel logistics company's capillary distribution network design by stochastical modelingRioja San Martín, Oscar 10 July 2015 (has links)
In this research, an overnight parcel logistics company's (hereby referred to as OPLC) capillary distribution network will be modelled by stochastic techniques. Specifically, the capillary distribution networks this parcel logistics company has in Sant Cugat del Vallés . A capillary distribution network is com posed by the routes and the vehicles in charge of the delivery and collection of parcels to the final client or point of sale. It is also known as last mile distribution.
The OPLC needs to design a capillary distribution network that is capable of collecting all the merchandise that their clients wish to deliver, and, at the same time, have the capacity to distribute all shipments to their destination. To reach this goal, the designers have to decide the type of vehicles (van, lorry or trailer) and the quantity of each type of vehicle the capillary distribution network needs to cover the area around each hub efficiently. This number of vehicles has to satisfy the delivery/collection quality requirements with the minim um cost to guarantee the maxim um profit for the OPLC.
The aim of this research is to explore and analyses how to design the capillary distribution network, and to demonstrate that regression analysis and other stochastic techniques are va lid techniques to help an OPLC in the decision making related to the design of capillary distribution network. Most models related to logistics companies have been based on deterministic techniques so far. In this research regression analysis and the adjustment of the variables by probability distribution functions are used instead the deterministic techniques in the design of the capillary distribution network.
This design will be based on assigning a distribution area to each vehicle, as opposed to a determined route of collections and deliveries for each vehicle, as has been done until now in the vehicle routing problem. The aim of assigning each vehicle to specific distribution areas is to guarantee a minimum income for the driver in charge of this distribution area, thus to ensure the continuity of the dri'.13r in the company. This continuity maximizes driver familiarity within their distribution area. With increased familiarity, driver perform anee improves due to ease in finding addresses and locations as well as efficiency in organizing daily routes. Their capacity to make deliveries and collections increases, and therefore, so does their productivity.
The distribution network will be divided into postcode areas and the income generated in each one will be estimated. According to that income, the number of drivers assigned to each post code will be determined.
The way the regression analysis are undertaken is by maxim um likelihood. Maxim um likelihood technique allows com paring different regression models, each one with its own characteristics. Moreover, maximum likelihood technique allows fulfilling the parsimony principle, and determining which exogenous variables affect in a significative way the endogenous variable that is wanted to be modelled, by likelihood ratio test. In this research, three different regress ion models are undertaken for each postcode area: ordinary least squares, generalized linear models and errors distributed with no normal probability distribution functions. Ali of them are compared by their maxim um likelihood values ,and the one with best results in each area is used to estimate driver's income in the corresponding distribution area. After the analysis of the results, it has been verified satisfactorily that a stochastic modeling by regression techniques is valid to estimate the cost of the different post code analyzed, and gives the possibility of estimate the income of the driver of each one.
Among the different regress ion techniques used in this research, the models run under the assumption that the errors are distributed with no normal probability distribution functions have given the best results / En este trabajo de investigación, la red de distribución capilar de una empresa de paquetería industrial va a ser modelada mediante técnicas estocásticas . Más concretamente, la red de distribución capilar de esta empresa de paquetería industrial en la población de Sant Cugat del Vallés. Una red de distribución capilar está compuesta por las rutas y vehículos que realizan el reparto y recogida de paquetería al cliente final,o punto de venta. También conocido como transporte de última milla. Una red de distribución capilar de una empresa de paquetería industrial ha de ser capaz de recoger toda la mercancía que sus clientes desean distribuir,y al mismo tiempo, ha de tener la capacidad de repartir todos los envíos a sus correspondientes destinos, de tal forma que la red de distribución capilar pueda cubrir de manera satisfactoria el área de influencia alrededor de su terminal de transporte, con el mínimo coste, para garantizar el máximo beneficio. El objetivo de esta investigación es explorar y analizar como diseñar redes de distribución capilar, y demostrar que el análisis de regresión y otras técnicas estocásticas son unas técnicas va lidas para ayudar en la toma de decisiones relacionados con los costes de la red de distribución capilar. La mayoría de los modelos elaborados hasta el momento relacionados con redes de distribución están basados en técnicas deterministas. Sin embargo, en este trabajo el modo en que se van a calcular los costes de cada área de distribución va a ser mediante modelos de regresión. Para predecir la carga de trabajo de cada área de distribución (el número de repartos y recogidas y elpeso de cada uno), se elaborará un modelo creado mediante funciones de distribuciones de probabilidad. El diseño de la red de distribución capilar estará basado en asignar un área de distribución a cada vehículo , en lugar de asignarle una determinada ruta con una serie de repartos y recogidas para cada uno de los vehículos, como se ha hecho hasta este momento en elproblema de asignación de vehículos. El objetivo de asignar a cada vehículo un área de distribución específica es garantizar unos ingresos mínimos para el conductor del vehículo (siendo el ingreso de los conductores los costes para la empresa de paquetería industrial), y así,asegurar la continuidad del mismo. Esta continuidad maximiza la familiaridad del conductor en su área de distribución. Con una mayor familiaridad, el rendimiento del conductor aumenta debido a que tiene mayor facilidad para encontrar direcciones y localizaciones, a la vez que es más eficiente al organizar sus rutas diarias. La red de distribución estará dividida en áreas de códigos postales y se predecirán los ingresos que cada uno de estas aéreas de código postalorigine. En función de los ingresos que origina cada zona se determinará el número de conductores asignados a la misma. Mediante máxima verosimilitud, diferentes análisis de regresión serán comparados , y aquellos con mejores resultados se emplearán para estimar los ingresos los diferentes vehículos . Estos modelos de regresión a comparar serán mínimos cuadrados ordinarios ,modelos lineales generalizados y errores distribuidos mediante funciones de distribución de probabilidad no normales. Tras el análisis de resultados, se ha comprobado de manera satisfactoria que un modelado estocástico mediante técnicas de regresión es válido para estimar los costes de los diferentes códigos postales, y que permite estimar los ingresos de los conductores en cada uno de ellos. Entre las técnicas de regresión comparadas, la llevado a cabo con errores distribuidos mediante funciones de distribución de probabilidad no normales ha sido la que mejores resultados ha dado, ya que ha proporcionado valores de máxima verosimilitud mayores
|
88 |
On rank and kernel of perfect codesVillanueva, M. (Mercè) 19 October 2001 (has links)
No description available.
|
89 |
Coding techniques for distributed storageGastón Brasó, Bernat 29 November 2013 (has links)
Encara que l'emmagatzematge online d'informació és un negoci creixent, no està exempt de problemàtiques, una d'elles és la persistència i accessibilitat de les dades. Cal replicar les dades de manera que si es perd una còpia no es perdi la informació de forma definitiva. Malauradament, la replicació de dades (coneguda com a ``backup'') no és una solució eficient, ja que introdueix molta redundància que provoca sobre costos. Els codis correctors d'errors són coneguts per augmentar la persistència i l'accessibilitat de les dades minimitzant la redundància necessària. Però el seu us introdueix altres problemes com l'anomenat ``repair problem'': com substituir un node d'emmagatzematge descarregant el mínim de dades dels altres nodes.
En aquesta dissertació, estudiem l'estat de l'art pel que fa als codis aplicats a sistemes d'emmagatzematge distribuïts, com per exemple el ``cloud storage''. També ens introduïm al ``repair problem'' des de la vessant més aplicada, usant topologies de sistemes reals com els ``data centers''.
Concretament, aportem una família de codis regeneratius que anomenem quasi-cyclic flexible regenerating codes i que es caracteritza per minimitzar l'ús de recursos computacionals en el procés de regeneració d'un node. Alhora, aquesta solució minimitza les dades emmagatzemades i l'ample de banda necessari per regenerar un node que falla.
També estudiem el cas en que els costos de descàrrega de les dades no són homogenis. En concret, ens centrem en el cas dels racks, on els nodes d'emmagatzematge estan distribuïts en racks, i el cost de descàrrega de dades dels nodes en el mateix rack és molt menor que el cost de descàrrega de dades dels nodes en un altre rack. Aquest nou model generalitza els models teòrics anteriors i ens permet comprovar que els costos poden disminuir si adaptem el model teòric a la topologia concreta del sistema d'emmagatzematge distribuït. / Online data storage is often regarded as a growing business, yet many unresolved issues linger in this specific field and prevent researchers from driving it to full capacity. Data replication (most commonly known as backup) is simply not efficient when improving persistence and accessibility of such data. Error correcting codes are known for their efficiency when adding redundancy to avoid lose of information. Unfortunately, the use of error correcting codes entail additional problems such as the repair problem: how do we replace a storage node downloading as less data as possible from other nodes.
In this dissertation, we deepen on state-of-the-art of codes applied to distributed storage systems. Additionally, a family of regenerative codes which we call quasi-cyclic flexible regenerating codes is provided. Quasi-cyclic flexible minimum storage regenerating (QCFMSR) codes are constructed and their existence is well-proven. Quasi-cyclic flexible regenerating codes with minimum bandwidth constructed from a base QCFMSR code are also provided.
Quasi-cyclic flexible regenerating codes are very interesting because of their simplicity and low complexity. They allow exact repair-by-transfer in the minimum bandwidth case and an exact pseudo repair-by-transfer in the MSR case, where operations are needed only when a new node enters into the system replacing a lost one.
Finally, we propose a new model whereby storage nodes are placed in two racks. This unprecedented two-rack model is generalized to any number of racks. In this specific set-up, storage nodes have different repair costs depending on the rack where they are placed. A threshold function, which minimizes the amount of stored data per node and bandwidth needed to regenerate a failed node, is also shown. This latter threshold function generalizes those given by previous distributed storage models. Tradeoff curves obtained from this threshold function are compared with those obtained from previous models, and it is shown that this new model outperforms previous ones in terms of repair cost.
|
90 |
Relational models for visual understanding of graphical documents. Application to architectural drawings.Heras, Lluís-Pere de las 01 December 2014 (has links)
Els documents gráfics són documents que expressen continguts semántics utilitzant
majoritáriament un llenguatge visual. Aquest llenguatge está format per un vocabulari
(símbols) i una sintaxi (relacions estructurals entre els símbols) que conjuntament
manifesten certs conceptes en un context determinat. Per tant, la interpretació dun
document gráfic per part dun ordinador implica tres fases. (1) Ha de ser capadçe
detectar automáticament els símbols del document. (2) Ha de ser capadç extreure les
relacions estructurals entre aquests símbols. I (3), ha de tenir un model del domini per
tal poder extreure la semántica. Exemples de documents gráfics de diferents dominis
són els planells darquitectural i d’enginyeria, mapes, diagrames de flux, etc.
El Reconeixement de Gráfics, dintre de lárea de recerca de Análisi de Documents,
neix de la necessitat de la indústria dinterpretar la gran quantitat de documents gráfics
digitalitzats a partir de laparició de lescáner. Tot i que molts anys han passat daquests
inicis, el problema de la interpretació automática de documents sembla encara estar
lluny de ser solucionat. Básicament, aquest procés sha alentit per una raó principal:
la majoria dels sistemes dinterpretació que han estat presentats per la comunitat són
molt centrats en una problemática específica, en el que el domini del document marca
clarament la implementació del mètode. Per tant, aquests mètodes són difícils de
ser reutilitzats en daltres dades i marcs daplicació, estancant així la seva adopció i
evolució en favor del progrés.
En aquesta tesi afrontem el problema de la interpretació automática de documents
gráfics a partir dun seguit de models relacionals que treballen a tots els nivells
del problema, i que han estat dissenyats des dun punt de vista genèric per tal de que
puguin ser adaptats a diferents dominis. Per una part, presentem 3 mètodes diferents
per a lextracció dels símbols en un document. El primer tracta el problema des dun
punt de vista estructural, en el que el coneixement general de lestructura dels símbols
permet trobar-los independentment de la seva aparença. El segon és un mètode estad
ístic que aprèn laparença dels símbols automáticament i que, per tant, sadapta a
la gran variabilitat del problema. Finalment, el tercer mètode és una combinació
dambdós, heretant els beneficis de cadascun dels mètodes. Aquesta tercera implementaci
ó no necessita de un aprenentatge previ i a més sadapta fácilment a múltiples
notacions gráfiques. D’altra banda, presentem dos mètodes per a la extracció del context
visuals. El primer mètode segueix una estratègia bottom-up que cerca les relacions
estructurals en una representació de graf mitjançant algorismes dintel_ligència artificial.
La segona en canvi, és un mètode basat en una gramática que mitjançant un model
probabilístic aprèn automáticament lestructura dels planells. Aquest model guia la
interpretació del document amb certa independència de la implementació algorísmica.
Finalment, hem definit una base del coneixement fent confluir una definició ontol`ogica
del domini amb dades reals. Aquest model ens permet raonar les dades des dun punt
de vista contextual i trobar inconsistències semántiques entre les dades. Leficiència
daquetes contribucions han estat provades en la interpretació de planells darquitectura.
Aquest documents no tenen un estándard establert i la seva notació gráfica
i inclusió dinformació varia de planell a planell. Per tant, és un marc rellevant del
problema de reconeixement gráfic. A més, per tal de promoure la recerca en termes
de interpretació de documents gráfics, fem públics tant les dades, leina per generar
les dades i els evaluadors del rendiment. / Graphical documents express complex concepts using a visual language. This language
consists of a vocabulary (symbols) and a syntax (structural relations among
symbols) that articulate a semantic meaning in a certain context. Therefore, the
automatic interpretation of these sort of documents by computers entails three main
steps: the detection of the symbols, the extraction of the structural relations among
these symbols, and the modeling of the knowledge that permits the extraction of
the semantics. Different domains in graphical documents include: architectural and
engineering drawings, maps, flowcharts, etc.
Graphics Recognition in particular and Document Image Analysis in general are
born from the industrial need of interpreting a massive amount of digitalized documents
after the emergence of the scanner. Although many years have passed, the
graphical document understanding problem still seems to be far from being solved.
The main reason is that the vast majority of the systems in the literature focus on
a very specific problems, where the domain of the document dictates the implementation
of the interpretation. As a result, it is difficult to reuse these strategies on
different data and on different contexts, hindering thus the natural progress in the
field.
In this thesis, we face the graphical document understanding problem by proposing
several relational models at different levels that are designed from a generic perspective.
Firstly, we introduce three different strategies for the detection of symbols.
The first method tackles the problem structurally, wherein general knowledge of the
domain guides the detection. The second is a statistical method that learns the
graphical appearance of the symbols and easily adapts to the big variability of the
problem. The third method is a combination of the previous two inheriting their
respective strengths, i.e. copes the big variability and does not need of annotated
data. Secondly, we present two relational strategies that tackle the problem of the
visual context extraction. The first one is a full bottom up method that heuristically
searches in a graph representation the contextual relations among symbols. Contrarily,
the second is syntactic method that models probabilistically the structure of the
documents. It automatically learns the model, which guides the inference algorithm
to counter the best structural representation for a given input. Finally, we construct a
knowledge-based model consisting of an ontological definition of the domain and real
data. This model permits to perform contextual reasoning and to detect semantic
inconsistencies within the data. We evaluate the suitability of the proposed contributions
in the framework of floor plan interpretation. Since there is no standard in the modeling of these documents, there exists an enormous notation variability and the
sort of information included in the documents also varies from plan to plan. Therefore,
floor plan understanding is a relevant task in the graphical document understanding
problem. It is also worth to mention that, we make freely available all the resources
used in this thesis (the data, the tool used to generate the data, and the evaluation
scripts) aiming at fostering the research in graphical document understanding task.
|
Page generated in 0.0416 seconds