Spelling suggestions: "subject:"sistemes"" "subject:"epistemes""
191 |
The Role and Usage of Libration Point Orbits in the Earth - Moon SystemAlessi, Elisa Maria 04 October 2010 (has links)
In this dissertation, we show the effectiveness of the exploitation of the Circular Restricted Three - Body Problem (CR3BP) in the Earth - Moon framework. We study the motion of a massless particle under the gravitational attraction of Earth and Moon, either to design missions in the new era of lunar exploration and simulate the behaviour of minor bodies that get close to the Earth.A fundamental role is played by the five equilibrium, or libration, points that appear in the rotating reference system. We focus on two, L(1) and L(2), unstable collinear libration points, taking advantage of the central and hyperbolic invariant manifolds, which exist in their neighborhood. Various types of periodic and quasi-periodic orbits, to be conceived as station locations for a spacecraft, occupy the central manifold. A stable and an unstable invariant manifold are associated with any of these orbits: they serve as channels to get far or close to the central orbits for t > / = 0. We exploit the corresponding dynamics to construct transfers from either Earth and Moon to a libration point orbit (LPO) and to investigate some paths that might guide asteroids impacting onto the Moon.We are witnesses of a recent enthusiasm on a possible return to the Moon. Several space agencies have designed unmanned missions that have just achieved observations around the Moon, in view of a future human installation. Besides, the space tourism companies are planning to extend their potentiality by offering lunar trips. In this context, the neighborhood of L(1) seems to be an appropriate place to put a space hub. Instead, L(2) would be profitable to monitor the lunar farside.In Chapter 1, we explain the CR3BP and how to compute, with different methodologies, central orbits along with their associated hyperbolic manifolds and the transit trajectories lying inside them. Then, two more elaborate dynamical systems are introduced, the Bicircular Restricted Four - Body Problem and the Restricted n - Body Problem.In Chapter 2, we use the stable and the unstable manifolds associated with L1/L2 central orbits to connect the lunar surface with such LPOs. We see that almost no effort should be put to follow these transfers thanks tothe natural dynamics we consider.In Chapter 3, we study how to depart from a nominal orbit around the Earth and arrive to a L1/L2 LPO. This case requires two maneuvers, one to leave the Low Earth Orbit and another to insert into the stable manifold associated with the given LPO.In Chapter 4, we wonder how the above reference solutions can change whenever different forces are added to the dynamical model. We describe two possible approaches that can be implemented, namely an optimal control strategy and a multiple shooting procedure. The results demonstrate that also in the Earth - Moon framework the CR3BP gives solutions close to the ones to be used in reality.In Chapter 5, we cope with the collision of asteroids onto the Moon. Such phenomenon happens continuously on all the rocky bodies populating the Solar System, as it can be inferred from the craters that mould their surface, and it is widely studied by several branches of science, since it provides information on the target and on the impactors in dynamical, astronomical and geological terms.We analyze the role played, in the creation of lunar impact craters, by low-energy transit trajectories which approach the neighborhood of L(2). It turns out that in the most likely case the collisions are focused on the apex of the Moon. Summing up the gravitational force exerted by the Sun, we notice that the relative Earth-Moon-Sun configuration can change dramatically the percentage and the region of impact.KEYWORDS: Circular Restricted Three-Body Problem, Lunar Impact Dynamics, Low-Energy Transfers, Optimal Control / L'objectiu d'aquest treball és mostrar la utilitat de l'explotació del Problema Circular Restringit dels Tres Cossos (CR3BP) pel sistema Terra - Lluna. Aquest sistema dinàmic considera el moviment d'una partícula amb massa negligible sota l'atracció gravitatòria de Terra i Lluna i pot ser usat pel disseny de missions espacials a la nova era d'exploració lunar, així com per simular el comportament d'asteroides i cometes que s'apropen a la Terra.Els cinc punts d'equilibri, o de libració, del CR3BP que apareixen al sistema de referència giratori, juguen un paper fonamental: ens centrarem en dos punts de libració col·lineals inestables, L(1) i L(2).Convé tenir en compte les varietats invariants centrals i hiperbòliques que hi ha a l'entorn de L(1) i L(2). La varietat central està ocupada per diversos tipus d'òrbites periòdiques i quasi-periòdiques, que poden ser concebudes com a solucions d'estacionament per a un vehicle espacial. Qualsevol d'aquestes òrbites té associada una varietat estable i una d'inestable, que serveixen com a canals per arribar lluny o prop de les òrbites centrals per t >/= 0.Farem ús de la dinàmica associada a aquestes varietats per a la construcció de transferències des de la Terra i la Lluna a una òrbita de libració i per investigar alguns camins que podrien guiar asteroides que impacten amb la Lluna.Pel que fa a la primera qüestió, l'entorn de L(1) sembla ser el lloc més apropiat per posar una estació espacial. D'altra banda, L(2) seria útil per observar i/o controlar la cara oculta de la Lluna.A la segona part de la tesi, investiguem la col·lisió d'asteroides amb la Lluna. Aquest fenòmen té lloc contínuament a tots els cossos rocosos del Sistema Solar, com es pot deduir dels cràters que modelen les seves superfícies. El procés de formació de cràters proporciona informació sobre el cos objectiu i sobre els asteroides,en termes dinàmics, astronòmics i geològics. Nosaltres estem interessats en el desenvolupament d'una metodologia diferent que pot ajudar en aquesta recerca.En la obra, explotem les eines de Teoria de Sistemes Dinàmics i estratègies de control òptim.
|
192 |
Ecological analysis of periphytic diatoms in Mediterranean coastal wetlands (Empordà wetlands, NE Spain)Trobajo Pujadas, Rosa 06 November 2003 (has links)
S'han estudiat els efectes dels factors ambientals sobre el perífiton dels sistemes lenític fluctuants del aiguamolls de l'Empordà. L'estudi s'ha realitzat als tres nivells d'integració: nivell d'ecosistema considerant el rol del perífiton envers els altres productors primaris; a nivell de comunitat, estudiant la composició específica de les diatomees i a nivell de població estudiant la plasticitat fenotípica d'una espècie de diatomea (Nitzschia frustulum).A nivell d'ecosistema s'observa que els factors que afavoreixen el predomini dels diferents tipus de productors primaris (perífiton, fitoplàncton i macròfits) són la renovació i el grau d'eutròfia de l'aigua. A nivell de comunitat els factors determinants en la composició i distribució de les espècies de diatomees són els gradients confinament-inundació així com la productivitat del sistema. En funció d'aquest factors s'han establert 5 associacions de diatomees. A nivell de població es demostra que tant la salinitat, com la relació N : P a l'aigua com el moviment de l'aigua afecten la morfologia i ultraestructura de la valva de N. frustulum. De forma interessant s'observa que la salinitat, considerada com a factor individual, afecta N. frustulum a nivell poblacional provocant-li modificacions en la morfologia de la valva, per en canvi, no afecta a nivell de comunitat, ja que totes les espècies de diatomees presents en ambients de salinitat fluctuant són eurihalines. / The effects of environmental conditions on periphytic of lentic and fluctuating waters (Empordà wetlands) at the three different levels of organisation were studied: at ecosystem level, considering the role of periphyton among the primary producers; at community level, analysing the periphytic diatom species composition; and at population level studying the phenotypic plasticity of a selected diatom species (Nitzschia frustulum). The factors favouring the predominance of different primary productors (periphyton, phytoplankton and macrophytes) were the turnover and eutrophy of the water. At the community level, we observed that the main factors affecting diatom species composition and distribution are the gradients confinement-flooding and productivity of the system. Based on these factors 5 diatom assemblages have been distinguished. At the population level, the results of the present thesis proved that the morphology and ultrastructure of N. frustulum is affected by salinity, N : P ratio and movement of the water. Interestingly the results showed that salinity, as a single environmental factor, has effect at N. frustulum population level resulting in phenotypic plasticity while there is no effect of salinity at diatom community level since in such environments with fluctuating salinity all the species present are euryhaline.
|
193 |
Information sources selection methodology for recommender systems based on intrinsic characteristics and trust measureAciar, Silvana Vanesa 18 June 2007 (has links)
El treball desenvolupat en aquesta tesi presenta un profund estudi i proveïx solucions innovadores en el camp dels sistemes recomanadors. Els mètodes que usen aquests sistemes per a realitzar les recomanacions, mètodes com el Filtrat Basat en Continguts (FBC), el Filtrat Col·laboratiu (FC) i el Filtrat Basat en Coneixement (FBC), requereixen informació dels usuaris per a predir les preferències per certs productes. Aquesta informació pot ser demogràfica (Gènere, edat, adreça, etc), o avaluacions donades sobre algun producte que van comprar en el passat o informació sobre els seus interessos. Existeixen dues formes d'obtenir aquesta informació: els usuaris ofereixen explícitament aquesta informació o el sistema pot adquirir la informació implícita disponible en les transaccions o historial de recerca dels usuaris. Per exemple, el sistema recomanador de pel·lícules MovieLens (http://movielens.umn.edu/login) demana als usuaris que avaluïn almenys 15 pel·lícules dintre d'una escala de * a * * * * * (horrible, ...., ha de ser vista). El sistema genera recomanacions sobre la base d'aquestes avaluacions. Quan els usuaris no estan registrat en el sistema i aquest no té informació d'ells, alguns sistemes realitzen les recomanacions tenint en compte l'historial de navegació. Amazon.com (http://www.amazon.com) realitza les recomanacions tenint en compte les recerques que un usuari a fet o recomana el producte més venut. No obstant això, aquests sistemes pateixen de certa falta d'informació. Aquest problema és generalment resolt amb l'adquisició d'informació addicional, se li pregunta als usuaris sobre els seus interessos o es cerca aquesta informació en fonts addicionals. La solució proposada en aquesta tesi és buscar aquesta informació en diverses fonts, específicament aquelles que contenen informació implícita sobre les preferències dels usuaris. Aquestes fonts poden ser estructurades com les bases de dades amb informació de compres o poden ser no estructurades com les pàgines web on els usuaris deixen la seva opinió sobre algun producte que van comprar o posseïxen.Nosaltres trobem tres problemes fonamentals per a aconseguir aquest objectiu: 1 . La identificació de fonts amb informació idònia per als sistemes recomanadors.2 . La definició de criteris que permetin la comparança i selecció de les fonts més idònies. 3 . La recuperació d'informació de fonts no estructurades. En aquest sentit, en la tesi proposada s'ha desenvolupat: 1 . Una metodologia que permet la identificació i selecció de les fonts més idònies. Criteris basats en les característiques de les fonts i una mesura de confiança han estat utilitzats per a resoldre el problema de la identificació i selecció de les fonts. 2 . Un mecanisme per a recuperar la informació no estructurada dels usuaris disponible en la web. Tècniques de Text Mining i ontologies s'han utilitzat per a extreure informació i estructurar-la apropiadament perquè la utilitzin els recomanadors. Les contribucions del treball desenvolupat en aquesta tesi doctoral són: 1. Definició d'un conjunt de característiques per a classificar fonts rellevants per als sistemes recomanadors2. Desenvolupament d'una mesura de rellevància de les fonts calculada sobre la base de les característiques definides3. Aplicació d'una mesura de confiança per a obtenir les fonts més fiables. La confiança es definida des de la perspectiva de millora de la recomanació, una font fiable és aquella que permet millorar les recomanacions. 4. Desenvolupament d'un algorisme per a seleccionar, des d'un conjunt de fonts possibles, les més rellevants i fiable utilitzant les mitjanes esmentades en els punts previs. 5. Definició d'una ontologia per a estructurar la informació sobre les preferències dels usuaris que estan disponibles en Internet. 6. Creació d'un procés de mapatge que extreu automàticament informació de les preferències dels usuaris disponibles en la web i posa aquesta informació dintre de l'ontologia. Aquestes contribucions permeten aconseguir dos objectius importants: 1 . Millorament de les recomanacions usant fonts d'informació alternatives que sigui rellevants i fiables.2 . Obtenir informació implícita dels usuaris disponible en Internet. / The work developed in this thesis presents an in-depth study and provides innovative solutions in the field of recommender systems. The methods used by these systems to carry out recommendations, such as Content-Based Filtering (CBF), Collaborative Filtering (CF) and Knowledge-Based Filtering (KBF), require information from users to predict preferences for certain products. This may be demographic information (genre, age and address), evaluations given to certain products in the past or information about their interests. There are two ways of obtaining this information: users offer it explicitly or the system can retrieve the implicit information available in the purchase and search history. For example, the movie recommender system MovieLens (http://movielens.umn.edu/login) asks users to rate at least 15 movies on a scale of * to * * * * * (awful, ... , must be seen). The system generates recommendations based on these evaluations. When users are not registered into the site and it has no information about them, recommender systems make recommendations according to the site search history. Amazon.com (http://www.amazon.com) make recommendations according to the site search history or recommend the best selling products. Nevertheless, these systems suffer from a certain lack of information. This problem is generally solved with the acquisition of additional information; users are asked about their interests or that information is searched for in additional available sources. The solution proposed in this thesis is to look for that information in various sources, specifically those that contain implicit information about user preferences. These sources can be structured like databases with purchasing information or they can be unstructured sources like review pages where users write their experiences and opinions about a product they buy or possess.We have found three fundamental problems to achieve this objective: 1. The identification of sources with suitable information for recommender systems.2. The definition of criteria that allows the comparison and selection of the most suitable sources.3. Retrieving the information from unstructured sources.In this sense, the proposed thesis has developed:1. A methodology that allows the identification and selection of the most suitable sources. Criteria based on the characteristics of sources and a trust measure have been used to solve the problem of identifying and selecting sources.2. A mechanism to retrieve unstructured information from users available on the Web. Text mining techniques and ontologies have been used to extract information and structure it appropriately for use by the recommenders.The contributions of the work developed in this doctoral thesis are:1. Definition of a set of characteristics to classify relevant sources of information for recommender systems.2. Development of a measure of relevance of sources according to characteristics defined in previous point.3. Application of a trust measure to obtain the most reliable sources. Confidence is measured from the perspective of improving the recommendation; a reliable source is one that leads to improved recommendations.4. Development of an algorithm to select, from a set of possible sources, the most relevant and reliable ones according to measures defined in previous points.5. Definition of an ontology to structure information about user preferences that are available on the Internet.6. The creation of a mapping process that automatically extracts information about user preferences available on the web and put in the ontology.These contributions allow us the achievement of two important objectives:1. Improving recommendations using alternative sources of information that are relevant and trustworthy.2. Obtaining implicit information about user available on the Internet.
|
194 |
Methodology to obtain the user's Human Values Scale from Smart User ModelsGuzmán Obando, Javier 16 June 2008 (has links)
En años recientes,la Inteligencia Artificial ha contribuido a resolver problemas encontrados en el desempeño de las tareas de unidades informáticas, tanto si las computadoras están distribuidas para interactuar entre ellas o en cualquier entorno (Inteligencia Artificial Distribuida). Las Tecnologías de la Información permiten la creación de soluciones novedosas para problemas específicos mediante la aplicación de los hallazgos en diversas áreas de investigación. Nuestro trabajo está dirigido a la creación de modelos de usuario mediante un enfoque multidisciplinario en los cuales se emplean los principios de la psicología, inteligencia artificial distribuida, y el aprendizaje automático para crear modelos de usuario en entornos abiertos; uno de estos es la Inteligencia Ambiental basada en Modelos de Usuario con funciones de aprendizaje incremental y distribuido (conocidos como Smart User Model). Basándonos en estos modelos de usuario, dirigimos esta investigación a la adquisición de características del usuario importantes y que determinan la escala de valores dominantes de este en aquellos temas en los cuales está más interesado, desarrollando una metodología para obtener la Escala de Valores Humanos del usuario con respecto a sus características objetivas, subjetivas y emocionales (particularmente en Sistemas de Recomendación).Una de las áreas que ha sido poco investigada es la inclusión de la escala de valores humanos en los sistemas de información. Un Sistema de Recomendación, Modelo de usuario o Sistemas de Información, solo toman en cuenta las preferencias y emociones del usuario [Velásquez, 1996, 1997; Goldspink, 2000; Conte and Paolucci, 2001; Urban and Schmidt, 2001; Dal Forno and Merlone, 2001, 2002; Berkovsky et al., 2007c]. Por lo tanto, el principal enfoque de nuestra investigación está basado en la creación de una metodología que permita la generación de una escala de valores humanos para el usuario desde el modelo de usuario. Presentamos resultados obtenidos de un estudio de casos utilizando las características objetivas, subjetivas y emocionales en las áreas de servicios bancarios y de restaurantes donde la metodología propuesta en esta investigación fue puesta a prueba.En esta tesis, las principales contribuciones son: El desarrollo de una metodología que, dado un modelo de usuario con atributos objetivos, subjetivos y emocionales, se obtenga la Escala de Valores Humanos del usuario. La metodología propuesta está basada en el uso de aplicaciones ya existentes, donde todas las conexiones entre usuarios, agentes y dominios que se caracterizan por estas particularidades y atributos; por lo tanto, no se requiere de un esfuerzo extra por parte del usuario. / Information Technology enables new solutions to be created for specific problems by applying knowledge gained in various areas of research.Our work is aimed at creating user models using a multi-disciplinary approach in which we use principles of psychology, distributed artificial intelligence, and automatic learning to create user models in open environments; such as Environmental Intelligence based on User Models with functions of incremental and distributed learning (known as Smart User Models). Based on these user models, we aimed this research at acquiring user characteristics that are not trivial and that determine the user's scale of dominant values in the matters in which he/she is most interested, and developing a methodology for extracting the Human Values Scale of the user with regard to his/her objective, subjective, and emotional attributes (particularly in the Recommender Systems). One of the areas that have been little researched is the inclusion of the human values scale in information systems. A Recommender System, User Models, and Systems Information only takes into account the preferences and emotions of the user [Velásquez, 1996, 1997; Goldspink, 2000; Conte and Paolucci, 2001; Urban and Schmidt, 2001; Dal Forno and Merlone, 2001, 2002; Berkovsky et al., 2007c]. Therefore, the main approach of our research is based on creating a methodology that permits the generation of the human values scale of the user from the user model. We present results obtained from a case study using the objective, subjective, and emotional attributes in the banking and restaurant domains, where the methodology proposed in this research was tested. In this thesis, the main contributions are: To develop a methodology that, given a user model with objective, subjective and emotional attributes, obtains the user's Human Values Scale. The methodology proposed is based on the use of existing applications, where there are connections between users, agents, and domains that are characterised by their features and attributes; therefore, no extra effort is required by the user.
|
195 |
Dynamic task allocation and coordination in cooperative multi-agent environmentsSuárez Barón, Silvia Andrea 25 February 2011 (has links)
La coordinació i assignació de tasques en entorns distribuïts ha estat un punt important de la recerca en els últims anys i aquests temes són el cor dels sistemes multi-agent. Els agents en aquests sistemes necessiten cooperar i considerar els altres agents en les seves accions i decisions. A més a més, els agents han de coordinar-se ells mateixos per complir tasques complexes que necessiten més d'un agent per ser complerta. Aquestes tasques poden ser tan complexes que els agents poden no saber la ubicació de les tasques o el temps que resta abans de que les tasques quedin obsoletes. Els agents poden necessitar utilitzar la comunicació amb l'objectiu de conèixer la tasca en l'entorn, en cas contrari, poden perdre molt de temps per trobar la tasca dins de l'escenari. De forma similar, el procés de presa de decisions distribuït pot ser encara més complexa si l'entorn és dinàmic, amb incertesa i en temps real. En aquesta dissertació, considerem entorns amb sistemes multi-agent amb restriccions i cooperatius (dinàmics, amb incertesa i en temps real). En aquest sentit es proposen dues aproximacions que permeten la coordinació dels agents. La primera és un mecanisme semi-centralitzat basat en tècniques de subhastes combinatòries i la idea principal es minimitzar el cost de les tasques assignades des de l'agent central cap als equips d'agents. Aquest algoritme té en compte les preferències dels agents sobre les tasques. Aquestes preferències estan incloses en el bid enviat per l'agent. La segona és un aproximació d'scheduling totalment descentralitzat. Això permet als agents assignar les seves tasques tenint en compte les preferències temporals sobre les tasques dels agents. En aquest cas, el rendiment del sistema no només depèn de la maximització o del criteri d'optimització, sinó que també depèn de la capacitat dels agents per adaptar les seves assignacions eficientment. Addicionalment, en un entorn dinàmic, els errors d'execució poden succeir a qualsevol pla degut a la incertesa i error de accions individuals. A més, una part indispensable d'un sistema de planificació és la capacitat de re-planificar. Aquesta dissertació també proveeix una aproximació amb re-planificació amb l'objectiu de permetre als agent re-coordinar els seus plans quan els problemes en l'entorn no permeti la execució del pla. Totes aquestes aproximacions s'han portat a terme per permetre als agents assignar i coordinar de forma eficient totes les tasques complexes en un entorn multi-agent cooperatiu, dinàmic i amb incertesa. Totes aquestes aproximacions han demostrat la seva eficiència en experiments duts a terme en l'entorn de simulació RoboCup Rescue. / Distributed task allocation and coordination have been the focus of recent research in last years and these topics are the heart of multi-agent systems. Agents in these systems need to cooperate and consider the other agents in their actions and decisions. Moreover, agents may have to coordinate themselves to accomplish complex tasks that need more than one agent to be accomplished. These tasks may be so complicated that the agents may not know the location of them or the time they have before the tasks become obsolete. Agents may need to use communication in order to know the tasks in the environment, otherwise, it may take a long time to find the tasks into the scenario. Similarly, the distributed decisionmaking process may be even more complex if the environment is dynamic, uncertain and real-time. In this dissertation, we consider constrained cooperative multi-agent environments (dynamic, uncertain and real-time). In this regard, we propose two approaches that enable the agents to coordinate themselves. The first one is a semi-centralized mechanism based on combinatorial auction techniques and the main idea is minimizing the cost of assigned tasks from the central agent to the agent teams. This algorithm takes into account the tasks' preferences of the agents. These preferences are included into the bid sent by the agent. The second one is a completely decentralized scheduling approach. It permits agents schedule their tasks taking into account temporal tasks' preferences of the agents. In this case, the system's performance depends not only on the maximization or the optimization criterion, but also on the agents' capacity to adapt their schedule efficiently. Furthermore, in a dynamic environment, execution errors may happen to any plan due to uncertainty and failure of individual actions. Therefore, an indispensable part of a planning system is the capability of replanning. This dissertation is also providing a replanning approach in order to allow agents recoordinate his plans when the environmental problems avoid fulfil them. All these approaches have been carried out to enable the agents to efficiently allocate and coordinate all their complex tasks in a cooperative, dynamic and uncertain multi-agent scenario. All these approaches have demonstrated their effectiveness in experiments performed in the RoboCup Rescue simulation environment.
|
196 |
Estudio de la aplicación de sistemas basados en el conocimiento a la operación de una planta de tratamiento de residuos sólidos urbanos por valorización energéticaLlauró Fábregas, Xavier 17 December 1999 (has links)
Una de las actuaciones posibles para la gestión de los residuos sólidos urbanos es la valorización energética, es decir la incineración con recuperación de energía. Sin embargo es muy importante controlar adecuadamente el proceso de incineración para evitar en lo posible la liberación de sustancias contaminantes a la atmósfera que puedan ocasionar problemas de contaminación industrial.Conseguir que tanto el proceso de incineración como el tratamiento de los gases se realice en condiciones óptimas presupone tener un buen conocimiento de las dependencias entre las variables de proceso. Se precisan métodos adecuados de medida de las variables más importantes y tratar los valores medidos con modelos adecuados para transformarlos en magnitudes de mando. Un modelo clásico para el control parece poco prometedor en este caso debido a la complejidad de los procesos, la falta de descripción cuantitativa y la necesidad de hacer los cálculos en tiempo real. Esto sólo se puede conseguir con la ayuda de las modernas técnicas de proceso de datos y métodos informáticos, tales como el empleo de técnicas de simulación, modelos matemáticos, sistemas basados en el conocimiento e interfases inteligentes. En [Ono, 1989] se describe un sistema de control basado en la lógica difusa aplicado al campo de la incineración de residuos urbanos. En el centro de investigación FZK de Karslruhe se están desarrollando aplicaciones que combinan la lógica difusa con las redes neuronales [Jaeschke, Keller, 1994] para el control de la planta piloto de incineración de residuos TAMARA.En esta tesis se plantea la aplicación de un método de adquisición de conocimiento para el control de sistemas complejos inspirado en el comportamiento humano. Cuando nos encontramos ante una situación desconocida al principio no sabemos como actuar, salvo por la extrapolación de experiencias anteriores que puedan ser útiles. Aplicando procedimientos de prueba y error, refuerzo de hipótesis, etc., vamos adquiriendo y refinando el conocimiento, y elaborando un modelo mental. Podemos diseñar un método análogo, que pueda ser implementado en un sistema informático, mediante el empleo de técnicas de Inteligencia Artificial.Así, en un proceso complejo muchas veces disponemos de un conjunto de datos del proceso que a priori no nos dan información suficientemente estructurada para que nos sea útil. Para la adquisición de conocimiento pasamos por una serie de etapas:- Hacemos una primera selección de cuales son las variables que nos interesa conocer.- Estado del sistema. En primer lugar podemos empezar por aplicar técnicas de clasificación (aprendizaje no supervisado) para agrupar los datos y obtener una representación del estado de la planta. Es posible establecer una clasificación, pero normalmente casi todos los datos están en una sola clase, que corresponde a la operación normal. Hecho esto y para refinar el conocimiento utilizamos métodos estadísticos clásicos para buscar correlaciones entre variables (análisis de componentes principales) y así poder simplificar y reducir la lista de variables.- Análisis de las señales. Para analizar y clasificar las señales (por ejemplo la temperatura del horno) es posible utilizar métodos capaces de describir mejor el comportamiento no lineal del sistema, como las redes neuronales. Otro paso más consiste en establecer relaciones causales entre las variables. Para ello nos sirven de ayuda los modelos analíticos- Como resultado final del proceso se pasa al diseño del sistema basado en el conocimiento.El objetivo principal es aplicar el método al caso concreto del control de una planta de tratamiento de residuos sólidos urbanos por valorización energética.En primer lugar, en el capítulo 2 Los residuos sólidos urbanos, se trata el problema global de la gestión de los residuos, dando una visión general de las diferentes alternativas existentes, y de la situación nacional e internacional en la actualidad. Se analiza con mayor detalle la problemática de la incineración de los residuos, poniendo especial interés en aquellas características de los residuos que tienen mayor importancia de cara al proceso de combustión.En el capítulo 3, Descripción del proceso, se hace una descripción general del proceso de incineración y de los distintos elementos de una planta incineradora: desde la recepción y almacenamiento de los residuos, pasando por los distintos tipos de hornos y las exigencias de los códigos de buena práctica de combustión, el sistema de aire de combustión y el sistema de humos. Se presentan también los distintos sistemas de depuración de los gases de combustión, y finalmente el sistema de evacuación de cenizas y escorias.El capítulo 4, La planta de tratamiento de residuos sólidos urbanos de Girona, describe los principales sistemas de la planta incineradora de Girona: la alimentación de residuos, el tipo de horno, el sistema de recuperación de energía, y el sistema de depuración de los gases de combustión Se describe también el sistema de control, la operación, los datos de funcionamiento de la planta, la instrumentación y las variables que son de interés para el control del proceso de combustión.En el capítulo 5, Técnicas utilizadas, se proporciona una visión global de los sistemas basados en el conocimiento y de los sistemas expertos. Se explican las diferentes técnicas utilizadas: redes neuronales, sistemas de clasificación, modelos cualitativos, y sistemas expertos, ilustradas con algunos ejemplos de aplicación.Con respecto a los sistemas basados en el conocimiento se analizan en primer lugar las condiciones para su aplicabilidad, y las formas de representación del conocimiento. A continuación se describen las distintas formas de razonamiento: redes neuronales, sistemas expertos y lógica difusa, y se realiza una comparación entre ellas. Se presenta una aplicación de las redes neuronales al análisis de series temporales de temperatura.Se trata también la problemática del análisis de los datos de operación mediante técnicas estadísticas y el empleo de técnicas de clasificación. Otro apartado está dedicado a los distintos tipos de modelos, incluyendo una discusión de los modelos cualitativos.Se describe el sistema de diseño asistido por ordenador para el diseño de sistemas de supervisión CASSD que se utiliza en esta tesis, y las herramientas de análisis para obtener información cualitativa del comportamiento del proceso: Abstractores y ALCMEN. Se incluye un ejemplo de aplicación de estas técnicas para hallar las relaciones entre la temperatura y las acciones del operador. Finalmente se analizan las principales características de los sistemas expertos en general, y del sistema experto CEES 2.0 que también forma parte del sistema CASSD que se ha utilizado.El capítulo 6, Resultados, muestra los resultados obtenidos mediante la aplicación de las diferentes técnicas, redes neuronales, clasificación, el desarrollo de la modelización del proceso de combustión, y la generación de reglas. Dentro del apartado de análisis de datos se emplea una red neuronal para la clasificación de una señal de temperatura. También se describe la utilización del método LINNEO+ para la clasificación de los estados de operación de la planta.En el apartado dedicado a la modelización se desarrolla un modelo de combustión que sirve de base para analizar el comportamiento del horno en régimen estacionario y dinámico. Se define un parámetro, la superficie de llama, relacionado con la extensión del fuego en la parrilla. Mediante un modelo linealizado se analiza la respuesta dinámica del proceso de incineración.Luego se pasa a la definición de relaciones cualitativas entre las variables que se utilizan en la elaboración de un modelo cualitativo. A continuación se desarrolla un nuevo modelo cualitativo, tomando como base el modelo dinámico analítico.Finalmente se aborda el desarrollo de la base de conocimiento del sistema experto, mediante la generación de reglasEn el capítulo 7, Sistema de control de una planta incineradora, se analizan los objetivos de un sistema de control de una planta incineradora, su diseño e implementación. Se describen los objetivos básicos del sistema de control de la combustión, su configuración y la implementación en Matlab/Simulink utilizando las distintas herramientas que se han desarrollado en el capítulo anterior.Por último para mostrar como pueden aplicarse los distintos métodos desarrollados en esta tesis se construye un sistema experto para mantener constante la temperatura del horno actuando sobre la alimentación de residuos.Finalmente en el capítulo Conclusiones, se presentan las conclusiones y resultados de esta tesis. / One of the possible alternatives for the management of the municipal solid waste is the energy recovery in waste-to- energy facilities, i.e. the incineration with energy recovery. However, it is very important to control the incineration process properly in order to avoid, as far as possible, the liberation of pollutants to the atmosphere that could occasion problems of industrial contamination. To achieve that, both the incineration process and the treatment of flue gases are carried out in good conditions it presupposes to have a good knowledge of the dependences between process variables. It is necessary to have adequate measuring methods of the most important variables and to treat the measured values with appropriate models in order to transform them in control magnitudes. A classical control model looks not very promising in this case due to the complexity of the processes, the lack of quantitative description and the necessity of performing real-time calculations. This can only be achieved with the help of the modern techniques of data processing and informatics methods, like the use of simulation techniques, mathematical models, knowledge based systems and intelligent interfaces. A control system based on fuzzy logic applied to the field of the incineration of municipal solid waste is described in [ Ono, 1989]. In the Karslruhe center of investigation FZK applications that combine fuzzy logic with neural networks [Jaeschke, Keller, 1994] are being developed for the control of the TAMARA pilot plant for waste incineration.In this thesis it is outlined the application of a method of knowledge acquisition for the control of complex systems inspired by the human behaviour. When we are placed in face of an unknown situation, at the beginning we don't know how to act, except for the extrapolation of previous experiences that could be useful. Applying procedures of trial and error, reinforcement of hypothesis, etc, one goes acquiring and refining the knowledge, and elaborating a mental model. We can design a similar method, which could be implemented in an informatics system, by means of the use of Artificial Intelligence techniques.So, in a complex process often we have a group of process data that a priori don't give us sufficiently structured information to be useful. For the knowledge acquisition we went by a series of steps:- We make a first selection of which are the variables that we are interested to know.- State of the system. In first place we could begin applying classification techniques (unsupervised learning) in order to group the data and obtain a representation of the state of the plant. It is possible to establish a classification, but normally almost all the data are in a single class, that corresponds to the normal operation. Done this and in order to refine the knowledge we use classical statistical methods in order to look for correlations between variables (principal components analysis) to simplify and reduce the list of variables.- Analysis of the signals. In order to analyse and classify the signals (for example the temperature of the furnace) it is possible to use methods capable to better describe the non-linear behaviour of the system, like the neural networks. Another step consists in to establish causal relationships between the variables. For this purpose the analytical models are helpful.- As final result of the process go over the design of the knowledge based system.The main objective is to apply the method to the concrete case of the control of a plant of treatment of municipal solid waste by waste-to- energy process.First, chapter 2 The municipal solid waste, treats the global problem of waste management, giving an overview of the several existent alternatives, and of the national and international situation at the present time. The problems of the waste incineration are analysed with more detail, putting special interest in those waste characteristics that have more importance for the combustion process.In the chapter 3, Description of the process, is made a general description of the incineration process and of the different elements of a incineration plant: from the reception and storage of the waste, going by the different types of furnaces and the demands of the codes of good combustion practice, the combustion air system and the exhaust system. The different systems for cleaning the combustion gases, and the system of evacuation of ash residues are presented.The chapter 4, The municipal solid waste treatment plant of Girona, describes the main systems of the Girona incineration plant: the feeding of waste, the type of furnace, the energy recovery system, and the flue gas cleaning system. Are also described in this chapter, the control system, the operation, the data of operation of the plant, the instrumentation and the variables that are of interest for the control of the combustion process.In the chapter 5, Used techniques, is provided a global vision of the knowledge-based systems and of the expert systems. The diverse techniques used are explained: neural networks, systems of classification, qualitative models, and expert systems, illustrated with some examples of application.With regard to the knowledge-based systems, in first place are analysed the conditions for their suitability, and the forms of representation of the knowledge. Next the different forms of reasoning are described: neural networks, expert systems and fuzzy logic, and a comparison between them it is carried out. An application of the neural networks to the analysis of time series of temperature is presented.It is also treated the problem of the analysis of the operation data by means of statistical techniques and the use of techniques of classification. Another paragraph is dedicated to the different types of models, including a discussion of the qualitative models.The Computer Aided Supervisory System Design CASSD that is used in this thesis is described, and the analysis tools employed to obtain qualitative information from the behaviour of the process: ors and ALCMEN. An example of application of these techniques is included in order to find the relationships between the temperature and the actions of the operator. Finally are analysed the main characteristics of expert systems in general, and of the system expert CEES 2.0 that also are part of the CASSD system that has been used.The chapter 6, Results, shows the results obtained by means of the application of the several techniques, neural networks, classification, the development of the model of the combustion process, and the generation of rules. Inside the paragraph of analysis of data a neural network is used for the classification of a temperature signal. The use of the LINNEO+ method is also described for the classification of the states of operation of the plant.In the paragraph dedicated to the modelling a model of combustion is developed that is used as base in order to analyse the behaviour of the furnace in stationary and dynamic conditions. It is defined a parameter, the surface of flame, related with the extension of the fire in the grate. By means of a liberalized model the dynamic answer of the incineration process is analysed.Then we go over to the definition of qualitative relationships between the variables that are used in the elaboration of a qualitative model. Next a new qualitative model is developed, taking as base the analytic dynamic model.Finally the development of the knowledge base of the expert system is approached, by means of the generation of rules.In the chapter 7, Control system of an incineration plant, the objectives of a control system of an incineration plant are analysed, their design and implementation. Are described the basic objectives of the combustion control system, their configuration and the implementation in MATLAB/ SIMULINK using the different tools that have been developed in the previous chapter.Lastly in order to show how the different methods developed in this thesis could be applied it is built an expert system to maintain constant the temperature of the furnace acting on the waste feeding.Finally in the chapter Conclusions, the conclusions and results of this thesis are presented.
|
197 |
Desenvolupament d'un sistema expert com a eina per a una millor gestió de la qualitat de les aigües fluvialsLlorens i Ribes, Esther 18 June 2004 (has links)
Avui en dia no es pot negar el fet que els humans són un component més de les conques fluvials i que la seva activitat afecta enormement la qualitat de les aigües. A nivell europeu, l'elevada densitat de població situada en les conques fluvials ha comportat un increment de la mala qualitat de les seves aigües fluvials. En les darreres dècades l'increment de les càrregues de nutrients en els sistemes aquàtics ha esdevingut un problema prioritari a solucionar per les administracions competents en matèria d'aigua.La gestió dels ecosistemes fluvials no és una tasca fàcil. Els gestors es troben amb què són sistemes molt complexos, donada l'estreta relació existent entre els ecosistemes fluvials i els ecosistemes terrestres que drenen. Addicionalment a la complexitat d'aquests sistemes es troba la dificultat associada de la gestió o control de les entrades de substàncies contaminants tant de fonts puntuals com difoses. Per totes aquestes raons la gestió de la qualitat de les aigües fluvials esdevé una tasca complexa que requereix un enfocament multidisciplinar. Per tal d'assolir aquest enfocament diverses eines han estat utilitzades, des de models matemàtics fins a sistemes experts i sistemes de suport a la decisió. Però, la major part dels esforços han estat encarats cap a la resolució de problemes de reduïda complexitat, fent que molts dels problemes ambientals complexos, com ara la gestió dels ecosistemes fluvials, no hagin estat vertaderament tractats. Per tant, es requereix l'aplicació d'eines que siguin de gran ajuda en els processos de presa de decisions i que incorporin un ampli coneixement heurístic i empíric: sistemes experts i sistemes de suport a la decisió. L'òptima gestió de la qualitat de l'aigua fluvial requereix una aproximació integrada i multidisciplinar, que pot ésser aconseguida amb una eina intel·ligent construïda sobre els conceptes i mètodes del raonament humà. La present tesi descriu la metodologia desenvolupada i aplicada per a la creació i construcció d'un Sistema Expert, així com el procés de desenvolupament d'aquest Sistema Expert, com el principal mòdul de raonament d'un Sistema de Suport a la Decisió Ambiental. L'objectiu principal de la present tesi ha estat el desenvolupament d'una eina d'ajuda en el procés de presa de decisions dels gestors de l'aigua en la gestió de trams fluvials alterats antròpicament per tal de millorar la qualitat de la seva aigua fluvial. Alhora, es mostra el funcionament de l'eina desenvolupada a través de dos casos d'estudi.Els resultats derivats del Sistema Expert desenvolupat, implementat i presentat en la present tesi mostren que aquests sistemes poden ésser eines útils per a millorar la gestió dels ecosistemes fluvials. / Nowadays it is not possible to deny the fact that the human are one more component of river basins and that their activity affects enormously the water quality. To European level, the high density of population placed in the river basins has supposed an increase of the bad river water quality. In the last decades the increase of nutrient loads in the aquatic systems has turned into a priority problem to solve for the competent water agencies.The management of the fluvial ecosystems is not an easy task. They are complex systems due to the narrow relationship among fluvial and terrestrial ecosystems. Additional to the complexity of these systems, one finds the associate difficulty of the management or control of pollutant inputs (from point and/or non-point sources). For all these reasons the management of the river water quality is a complex task that requires a multidisciplinary approach.With the aim to reach this approach, different tools have been used, from mathematical models to expert systems and decision support systems. However, most of the efforts have been directed to the resolution of limited complexity problems, doing that many of the environmental complex problems, as river ecosystems management, have not been really treated. For this reason, there is needed the application of helping tools in the decision-making processes and that incorporate wide heuristic and empirical knowledge: expert systems and decision support systems. The ideal management of the river water quality requires an integrated and multidisciplinary approach, which can be reached by an intelligent tool based on the concepts and methods of the human reasoning.The present thesis describes the methodology developed and applied in the building of an Expert System, as well as the development process of this Expert System, as the main module of reasoning of an Environmental Decision Support System. The main objective of the present thesis has been the development of a tool to help water managers in the decision-making processes to improve water quality of altered reaches. In addition, the thesis shows the functioning of the developed tool by means two study cases.The results derived from the developed, implemented and presented Expert System show that these systems can be useful tools to improve the management of fluvial ecosystems.
|
198 |
L’Acord marc d’homologació de serveis TIC de la Generalitat de Catalunya: un cas d’aprovisionament de SSTI a l’administració públicaMarco Simó, Josep Maria 15 February 2013 (has links)
L'externalització de Sistemes, Serveis i Tecnologies de la Informació (SSTI) és una pràctica habitual al sector privat que ja ha estat àmpliament estudiada a la literatura científica. En canvi, al context del sector públic, aquests processos d'externalització no han estat encara prou ben recollits, malgrat la importància del sector quant a volum econòmic que generen les seves necessitats de SSTI.
El treball que presentem fa una aportació a aquesta encara molt reduïda recerca al voltant de l'externalització de SSTI al sector públic, a partir de l'estudi d'un cas innovador: el de l'Acord marc d'homologació de serveis TIC de la Generalitat de Catalunya (AMH). L'AMH és un mecanisme per a la prequalificació o homologació dels proveïdors que hauran de fer l'aprovisionament d'una part central i diversa dels SSTI dels diferents departaments i ens de la Generalitat. Es va gestar durant el 2003 i la vigència de la seva tercera edició arriba fins a l'inici de 2013. / La externalización de Sistemas, Servicios y Tecnologías de la Información (SSTI) es una práctica habitual en el sector privado que ya ha sido ampliamente estudiada en la literatura científica. En cambio, el contexto del sector público, estos procesos de externalización no han sido todavía suficientemente bien recogidos, a pesar de la importancia del sector en cuanto a volumen económico que generan sus necesidades de SSTI.
El trabajo que presentamos hace una aportación a esta todavía muy reducida investigación en torno a la externalización de SSTI al sector público, a partir del estudio de un caso innovador: el del Acuerdo marco de homologación de servicios TIC de la Generalidad de Cataluña (AMH). El AMH es un mecanismo para la precalificación o homologación de los proveedores que deberán hacer el aprovisionamiento de una parte central y diversa de los SSTI los diferentes departamentos y entes de la Generalidad. Se gestó durante 2003 y la vigencia de su tercera edición llega hasta el inicio de 2013. / Outsourcing of Information Systems, Services and Technology (ISST) is a common practice in the private sector that has been widely studied in the literature. However, in the context of the public sector, ISST outsourcing has not yet received sufficient attention, despite the importance of the sector in terms of economic volume generated and ISST needs.
The present thesis makes a contribution to the still scarce research about ISST outsourcing in the public sector, by showing the research results arisen during the in-depth study of an innovative case: the so-called Pre-qualification Agreement for ICT services (AMH) led by the Government of Catalunya. The AMH is a mechanism for pre-qualification or certification of provider companies responsible for provisioning a central part of the ISST needed by the various departments and agencies of the Catalan Government. It was firstly conceived in 2003 and, after three different versions, the validity of its third edition reaches the beginning of 2013.
|
199 |
Pathway-centric approaches to the analysis of high-throughput genomics dataHänzelmann, Sonja, 1981- 11 October 2012 (has links)
In the last decade, molecular biology has expanded from a reductionist view to a systems-wide view that tries to unravel the complex interactions of cellular components. Owing to the emergence of high-throughput technology it is now possible to interrogate entire genomes at an unprecedented resolution. The dimension and unstructured nature of these data made it evident that new methodologies and tools are needed to turn data into biological knowledge. To contribute to this challenge we exploited the wealth of publicly available high-throughput genomics data and developed bioinformatics methodologies focused on extracting information at the pathway rather than the single gene level. First, we developed Gene Set Variation Analysis (GSVA), a method that facilitates the organization and condensation of gene expression profiles into gene sets. GSVA enables pathway-centric downstream analyses of microarray and RNA-seq gene expression data. The method estimates sample-wise pathway variation over a population and allows for the integration of heterogeneous biological data sources with pathway-level expression measurements. To illustrate the features of GSVA, we applied it to several use-cases employing different data types and addressing biological questions. GSVA is made available as an R package within the Bioconductor project.
Secondly, we developed a pathway-centric genome-based strategy to reposition drugs in type 2 diabetes (T2D). This strategy consists of two steps, first a regulatory network is constructed that is used to identify disease driving modules and then these modules are searched for compounds that might target them. Our strategy is motivated by the observation that disease genes tend to group together in the same neighborhood forming disease modules and that multiple genes might have to be targeted simultaneously to attain an effect on the pathophenotype. To find potential compounds, we used compound exposed genomics data deposited in public databases. We collected about 20,000 samples that have been exposed to about 1,800 compounds. Gene expression can be seen as an intermediate phenotype reflecting underlying dysregulatory pathways in a disease. Hence, genes contained in the disease modules that elicit similar transcriptional responses upon compound exposure are assumed to have a potential therapeutic effect. We applied the strategy to gene expression data of human islets from diabetic and healthy individuals and identified four potential compounds, methimazole, pantoprazole, bitter orange extract and torcetrapib that might have a positive effect on insulin secretion. This is the first time a regulatory network of human islets has been used to reposition compounds for T2D.
In conclusion, this thesis contributes with two pathway-centric approaches to important bioinformatic problems, such as the assessment of biological function and in silico drug repositioning. These contributions demonstrate the central role of pathway-based analyses in interpreting high-throughput genomics data. / En l'última dècada, la biologia molecular ha evolucionat des d'una perspectiva reduccionista cap a una perspectiva a nivell de sistemes que intenta desxifrar les complexes interaccions entre els components cel•lulars. Amb l'aparició de les tecnologies d'alt rendiment actualment és possible interrogar genomes sencers amb una resolució sense precedents. La dimensió i la naturalesa desestructurada d'aquestes dades ha posat de manifest la necessitat de desenvolupar noves eines i metodologies per a convertir aquestes dades en coneixement biològic. Per contribuir a aquest repte hem explotat l'abundància de dades genòmiques procedents d'instruments d'alt rendiment i disponibles públicament, i hem desenvolupat mètodes bioinformàtics focalitzats en l'extracció d'informació a nivell de via molecular en comptes de fer-ho al nivell individual de cada gen. En primer lloc, hem desenvolupat GSVA (Gene Set Variation Analysis), un mètode que facilita l'organització i la condensació de perfils d'expressió dels gens en conjunts. GSVA possibilita anàlisis posteriors en termes de vies moleculars amb dades d'expressió gènica provinents de microarrays i RNA-seq. Aquest mètode estima la variació de les vies moleculars a través d'una població de mostres i permet la integració de fonts heterogènies de dades biològiques amb mesures d'expressió a nivell de via molecular. Per il•lustrar les característiques de GSVA, l'hem aplicat a diversos casos usant diferents tipus de dades i adreçant qüestions biològiques. GSVA està disponible com a paquet de programari lliure per R dins el projecte Bioconductor.
En segon lloc, hem desenvolupat una estratègia centrada en vies moleculars basada en el
genoma per reposicionar fàrmacs per la diabetis tipus 2 (T2D). Aquesta estratègia consisteix
en dues fases: primer es construeix una xarxa reguladora que s'utilitza per identificar mòduls
de regulació gènica que condueixen a la malaltia; després, a partir d'aquests mòduls es busquen compostos que els podrien afectar. La nostra estratègia ve motivada per l'observació que els gens que provoquen una malaltia tendeixen a agrupar-se, formant mòduls patogènics, i pel fet que podria caldre una actuació simultània sobre múltiples gens per assolir un efecte en el fenotipus de la malaltia. Per trobar compostos potencials, hem usat dades genòmiques exposades a compostos dipositades en bases de dades públiques. Hem recollit unes 20.000 mostres que han estat exposades a uns 1.800 compostos. L'expressió gènica es pot interpretar com un fenotip intermedi que reflecteix les vies moleculars desregulades subjacents a una malaltia. Per tant, considerem que els gens d'un mòdul patològic que responen, a nivell transcripcional, d'una manera similar a l'exposició del medicament tenen potencialment un efecte terapèutic. Hem aplicat aquesta estratègia a dades d'expressió gènica en illots pancreàtics humans corresponents a individus sans i diabètics, i hem identificat quatre compostos potencials (methimazole, pantoprazole, extracte de taronja amarga i torcetrapib) que podrien tenir un efecte positiu sobre la secreció de la insulina. Aquest és el primer cop que una xarxa reguladora d'illots pancreàtics humans s'ha utilitzat per reposicionar compostos per a T2D.
En conclusió, aquesta tesi aporta dos enfocaments diferents en termes de vies moleculars
a problemes bioinformàtics importants, com ho son el contrast de la funció biològica i el
reposicionament de fàrmacs "in silico". Aquestes contribucions demostren el paper central
de les anàlisis basades en vies moleculars a l'hora d'interpretar dades genòmiques procedents
d'instruments d'alt rendiment.
|
200 |
Aplicación de sensores de flujo óptico para el desarrollo de nuevos sistemas de medida de bajo costeTresánchez Ribes, Marcel 23 December 2011 (has links)
En aquesta memòria es presenten diversos treballs relacionats amb la utilització dels sensor de flux òptic de baix cost pel desenvolupament de nous sistemes de mesura compactes i de molt baix cost. Les aplicacions plantejades permeten aprofitar tot el potencial industrial d’aquest tipus de sensors.
Els sensors de flux òptic tenen la peculiaritat d’incorporar dins d’un únic encapsulat un sistema d’adquisició d’imatges i un processador digital preprogramat per a realitzar el còmput de flux òptic (optical flow) de la imatge. D’aquesta manera, aquest tipus de sensors no requereixen cap sistema processador addicional i, en alguns casos, poden funcionar sense cap altre element addicional de control.
Actualment, l’èxit dels sensors de flux òptic ha facilitat la seva producció industrial massiva amb costos de fabricació molt baixos el que ha incentivat el desenvolupament de noves aplicacions en camps tan diversos com la robòtica on el cost és un element fonamental en les aplicacions destinades a un mercat de consum.
En aquesta memòria es presenta, per una banda, l’anàlisi de l’estat de l’art dels sensors de flux òptic i les seves aplicacions, i per l’altra, el treball de recerca realitzat sobre l’ús d’aquest sensor per a desenvolupar un codificador rotatiu incremental, un codificador absolut, un sistema de detecció de monedes falses de 2 euros, i per a realitzar el seguiment de la pupil•la de l’ull d’una persona amb discapacitat. Els resultats obtinguts a partir de les proves experimentals realitzades amb els diferents sensors de flux òptics utilitzats als dispositius proposats han permès validar les propostes realitzades i la versatilitat del disseny del sensor. / En esta memoria se presentan diversos trabajos de investigación relacionados con la utilización de sensores de flujo óptico de bajo coste para el desarrollo de nuevos sistemas de medida compactos y de muy bajo coste. Las aplicaciones planteadas permiten aprovechar todo el potencial industrial de este tipo de sensores.
Los sensores de flujo óptico tienen la particularidad de incorporar dentro de un único encapsulado un sistema de adquisición de imágenes y un procesador digital preprogramado para realizar el cómputo de flujo óptico (optical flow) de la imagen. De esta manera, este tipo de sensores no requieren ningún sistema procesador adicional y, en algunos casos, pueden funcionar sin ningún otro elemento adicional de control.
Actualmente, el éxito comercial de los sensores de flujo óptico ha facilitado su producción industrial masiva con costes de fabricación muy bajos lo que ha incentivado el desarrollo de nuevas aplicaciones en campos tan diversos como la robótica donde el coste es un elemento fundamental en las aplicaciones destinadas a un mercado de consumo.
En esta memoria se presenta, por un lado, el análisis del estado del arte de los sensores de flujo óptico y sus aplicaciones, y por el otro, el trabajo de investigación realizado sobre la utilización del sensor para el desarrollo de un codificador rotativo incremental, un codificador absoluto, un sistema de detección de monedas falsas de 2 euros y para realizar el seguimiento de la pupila del ojo de una persona con el fin de desarrollar un dispositivo apuntador que pueda ser de utilidad para una persona con discapacidad. Los resultados obtenidos en las pruebas experimentales realizadas con los diferentes sensores de flujo óptico utilizados en los dispositivos propuestos han permitido validar las propuestas realizadas y la versatilidad del diseño del sensor. / This work presents the research performed with optical flow sensors and the proposal of several new compact and low cost applications developed to take full advantage of the industrial potential of these sensors.
Optical flow sensors include into the same chip an image acquisition system and a digital signal processor programmed to compute the optical flow of the image acquired. These sensors do not require additional post-processing and can operate without any other additional external control or processing device.
Currently, the commercial success of the optical flow sensors has fostered its massive industrial production and has reduced its final cost. This characteristic, combined with the versatility of the design of the sensor, has also fostered the development of a huge range of new applications in different areas, such as robotics, where the cost is a fundamental factor that prone the development and commercialization of new consumer applications.
This works presents, in one hand, a review of the state of the art of the research and development related with optical flow sensors and, in the other hand, a set of new applications proposed to take full advantage of the characteristics of the sensor. The new applications proposed are: a relative encoder, an absolute encoder, a counterfeit system for the 2€ case, and an accessibility device that tracks the pupil of the user to control pointer displacement in a computer screen. This device has been designed specifically to help people with mobility impairments in the upper extremities that cannot use the computer mouse. In all cases, the experimental results achieved with the different optical flow sensors used in the new applications proposed have validated the utility and versatility of each proposal and the utility and versatility of the design of this optical sensor.
|
Page generated in 0.0778 seconds