• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 7
  • 1
  • 1
  • Tagged with
  • 9
  • 9
  • 5
  • 2
  • 2
  • 1
  • 1
  • 1
  • 1
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
1

Análisis del uso universitario de plataformas de gestión del aprendizaje. Estudio de caso en la Universitat de València.

Moreno Clari, Paloma 28 April 2009 (has links)
El presente trabajo pretende analizar la evolución de la utilización de un LMS en sus dos primeros años, su etapa de implantación, y sus herramientas más representativas; la influencia que la plataforma ha supuesto en la innovación educativa de la Universitat y en los índices de calidad. Con ello se establecerán futuros mecanismos de evaluación susceptibles de ser utilizados por los servicios de planificación de la Universitat, marcando los aspectos de innovación o del LMS sobre los que incidir para mejorar la calidad educativa. Igualmente, se propondrán modificaciones e incorporaciones que, aprovechando las características de código abierto, adaptabilidad y extensibilidad, deben hacerse sobre la plataforma tecnológica tras los resultados obtenidos. Finalmente, se presentan las metodologías y herramientas para la generalización y automatización del proceso de evaluación de los elementos de una plataforma.El análisis empírico, tras obtener el informe favorable de los órganos con responsabilidad en Protección de Datos, se centra en tres grupos de medidas de resultados para cada uno de los 18 centros que conforman la Universitat de València. Los tres grupos de medidas se refieren, por un lado al uso del Aula Virtual en genérico y de cada una de sus herramientas o módulos. Por otro lado se confrontan con el conjunto los planes de innovación educativa de los centros, y se particulariza en aquellas medidas con mayor proyección. En tercer lugar, se analiza el comportamiento en el conjunto de centros, de los índices de financiación ligada a objetivos para la Universitat de València. Una vez realizado el estudio de estos tres conjuntos de variables descriptivamente y también agrupados por campus, se elaboran medidas complejas de resumen, que contemplen la información útil no solapada de las diferentes variables de cada grupo, aquéllas con mejor comportamiento en términos psicométricos. Seguidamente, se explora el análisis de relación entre variables de los diferentes grupos, pretendiendo obtener información útil sobre cómo se relacionan los tres ejes motores del acercamiento a la convergencia hacia el EEES, con la mejora de los procesos de enseñanza-aprendizaje y conseguir así un modelo que permita generalizar el procedimiento seguido al evaluar la plataforma de la Universitat de València a universidades en procesos de implantación semejantes. Se presenta el diseño de la investigación, los análisis que la componen, y se definen todas las variables contempladas en los análisis que se presentan en los resultados; y se expone la metodología empleada para la informatización, y automatización del proceso.Los resultados recogen los descriptivos de utilización del LMS, objeto del estudio de caso, y la generación de indicadores complejos de resumen de las áreas de interés. Igualmente se recogen los resultados del estudio de asociación entre bloques y la búsqueda de ecuaciones predictivas de las variables de interés. Se compara de forma resumida los resultados de uso de Aula Virtual y los de la plataforma de la Universidad Galileo de Guatemala. La Universidad Galileo tiene unas dimensiones semejantes a la UV, y los resultados son comparables al utilizar ambas, como plataforma virtual, una personalización de la misma tecnología: .LRN.Además se ha automatizado el proceso de estudio para un programa de análisis estadístico particular, en este caso aquél para el que tiene licencia la Universitat de València, spss. De este modo, los análisis podrán realizarse de manera automática y se presentarán al usuario los resultados. Se expondrá igualmente la parte de tales análisis automatizados. Finalmente se exponen las conclusiones generales, aportaciones, y líneas futuras de trabajo, entre las que destaca completar el resto de la automatización y desarrollo informático planteándose las bases para ello. / The advent of the Internet has opened a scope for research in new methods and tools that may facilitate the teaching and learning processes. This has, in turn, led to the development of learning platforms to support teaching and learning activities. The market penetration of these has been such that nowadays most universities provide their academic community with some form of a learning management system (LMS).Although a lot of effort has been put into deploying these platforms, the usage statistics that they generally provide are not generally processed to optimize their use within a specific context or institution (or confronted with quality or innovation indexes to produce useful feedback information). This study proposes a methodology for data analysis. Also, it is applied to the particular case of the University of Valencia (Spain). Besides, it is described a computer implementation that facilitates the application of this methodology to any other existing LMS which provides usage statistics.
2

Estudio, diseño e implementación del módulo de preprocesado de datos del sistema Read out Driver para el calorímetro tilecal del experimento Atlas/LHC del CERN.

Torres País, José 22 June 2005 (has links)
El objeto de esta Tesis es el diseño, programación e integración del Módulo de Preprocesado de Datos del Sistema Read Out Driver (ROD) dentro de los trabajos que se están realizando en el Laboratorio Europeo de Física de Partículas (CERN). Se trata de un paso definitivo para la puesta en marcha de este sistema que se instalará en el detector ATLAS dentro del acelerador de partículas (LHC) que se está terminando de construir en el CERN.Este Sistema ROD forma parte del sistema de adquisición de datos del subdetector TileCal incluido en ATLAS, en concreto del sistema de lectura y envío de datos a la frecuencia de cruce de haz que se produce en el acelerador (40 MHz). Incluido entre los niveles uno y dos de la arquitectura jerárquica de detección y estudio de eventos que se producen en las colisiones del LHC.El trabajo se puede dividir en dos partes, una primera en la que se investigan y exponen las necesidades en materia de adquisición de datos del experimento ATLAS/LHC y una segunda parte centrada en la realización del Sistema ROD, desde su primer prototipo, su diseño hardware, el sistema final, los módulos de preprocesado que se han desarrollado, el software desarrollado en los dispositivos lógicos programables y por último las pruebas, integración y resultados obtenidos en el CERN. / The object of this Thesis is the design, programming and integration of the Preprocessing Data Module of the Read Out Driver System (ROD) within the works that are being made in the European Laboratory of Physics of Particles (CERN). There treats itself about a definitive step for the beginning of this system, who will install in the ATLAS detector inside the accelerator of particles (LHC) that is being constructed in the CERN.
3

Tratamiento de emisiones a la atmósfera de acetato de etilo y tolueno mediante biofiltros de turba.

Álvarez Hornos, Fco. Javier 05 June 2009 (has links)
En las últimas décadas, la calidad del aire y el control de la contaminación atmosférica vienen siendo líneas principales de actuación en política medioambiental a fin de evitar daños sobre la salud humana y el medio ambiente. Los compuestos orgánicos volátiles, entre los que se encuentran el acetato de etilo y el tolueno, son uno de los principales contaminantes atmosféricos de origen industrial. Las nuevas reglamentaciones asociadas a la emisión de compuestos orgánicos volátiles procedentes del uso de disolventes en determinadas instalaciones industriales hacen necesaria la búsqueda de técnicas o procedimientos para reducir, minimizar o eliminar este tipo de emisiones. En este sentido, los sistemas biológicos de tratamiento como la biofiltración se presentan como una alternativa económica y respetuosa con el medio ambiente. En este trabajo de tesis doctoral se presenta un estudio del proceso de biofiltración en el que se han abordado dos líneas de trabajo principales:· Estudio experimental en bioreactores para la depuración de aire contaminado con acetato de etilo y/o tolueno, utilizando turba fibrosa como material de relleno, bajo condiciones de estado estacionario y bajo condiciones de alimentación intermitente.· Desarrollo de un modelo matemático para su uso como herramienta de predicción y de diseño.En los ensayos llevados a cabo bajo condiciones de estado estacionario se ha realizado un seguimiento de la operación de los biofiltros durante 2 años de experimentación. En primer lugar se ha evaluado la influencia que tiene el uso de inóculos previamente adaptados a los compuestos a degradar sobre el tiempo de puesta en marcha del biofiltro. A continuación se ha evaluado la influencia de la carga volumétrica de entrada de contaminante en la capacidad de eliminación trabajando con un tiempo de residencia constante de 90 s, para posteriormente analizar la influencia del tiempo de residencia en la eficacia del proceso, ampliando el estudio a tiempos de residencia comprendidos entre 22 y 60 s. En muchas ocasiones, las emisiones industriales suelen presentar un carácter intermitente y oscilante asociado al proceso productivo del que provienen. A fin de evaluar estas variaciones sobre la respuesta transitoria del sistema, los tres biofiltros se han sometido a condiciones de alimentación intermitente con interrupciones nocturnas y de fin de semana del aporte de contaminante. A su vez, la influencia que las perturbaciones en la alimentación tienen sobre el rendimiento del sistema se ha estudiado mediante la aplicación de variaciones instantáneas de la concentración de entrada del compuesto y del caudal de aire contaminado. Finalmente, se ha evaluado el tiempo necesario para recuperar la eficacia de eliminación en cada uno de los tres biofiltros tras una interrupción prolongada de 15 días en el aporte de contaminante, situación que representa una posible parada vacacional en los procesos industriales. De forma rutinaria se ha realizado un seguimiento periódico de la variación de la concentración de biomasa a lo largo del lecho, implementando para ello, una técnica de recuento por tinción mediante fluorocromos a este sistema. Finalmente, se presenta el desarrollo de un modelo matemático para la predicción del funcionamiento de los tres biofiltros en condiciones de estado estacionario. El modelo incluye como hipótesis principal la existencia de una densidad celular no uniforme a lo largo del lecho, asumiendo que se establece un perfil decreciente en la concentración de biomasa activa a lo largo del lecho. Además, se ha empleado un procedimiento basado en la Matriz de Información de Fisher para obtener los intervalos de confianza del 95% de los parámetros estimados. La verificación del modelo planteado se ha realizado utilizando los datos experimentales procedentes del tratamiento de la mezcla equimásica de ambos contaminantes. / The volatile organic compound (VOC), like ethyl acetate and toluene, are one of the main air pollutants from industrial sources. The biofiltration is an economic and environment-friendly technology to removal these compounds. In this doctoral thesis has been carried out an experimental study in three bioreactors for the treatment of air contaminated with ethyl acetate and/or toluene, using fibrous peat as packing material under steady state and intermittent loading conditions. Besides, it has been developed a mathematical model which can be used for prediction and design purposes. In the experiments under steady state conditions (2 years of experimentation), initially, the biofilter start-up time has been evaluated using an inoculum previously adapted to the compounds to degrade. Subsequently, the elimination capacity has been determined working with empty bed residence times between 22 and 90 s. In the experiments under intermittent loading conditions, the three biofilters have been operated with overnight and weekend shutdowns. Concurrently, instantaneous inlet concentration and flow rate changes have been carried out. Finally, it has been evaluated the time needed to recover the removal efficiency in each of the biofilters after of a 15 days starvation period. The living and the dead cells concentrations along the bed biofilters have been monitored by the fluorescence microscopy using LIVE/DEAD® BacLightTM. Finally, a mathematical model has been developed. The model includes as main hypothesis the existence of a non-uniform cell density throughout the bed. It has also used the Fisher Information Matrix for the confidence intervals of 95% of the estimated parameters. The model validation has been carried out using experimental data from the treatment of the 1:1 (w:w) mixture.
4

Tácticas mixtas para la negociación automática de múltiples servicios con información incompleta en entornos multiagente. Aplicación a problemas de gestión de tráfico.

Tomás López, Vicente Ramón 19 September 2006 (has links)
La creciente importancia del fenómeno de la interacción entre sistemas informáticos ha modificado la forma tradicional de analizarlos y programarlos, puesto que éstos han pasado de ser considerados como sistemas aislados a ser fundamentalmente concebidos como sistemas distribuidos. La necesidad de interaccionar entre los componentes del sistema es cada vez más importante para poder realizar o resolver tareas conjuntas que de forma individual serían muy costosas o incluso imposibles de desarrollar (por ejemplo, porque los recursos necesarios para resolver una tarea estén distribuidos entre distintos componentes del sistema). No obstante, los sistemas informáticos, que deben alcanzar sus propios objetivos operacionales, no siempre se encuentran dispuestos a compartir o ceder los recursos necesarios para desarrollar las acciones que otros sistemas informáticos solicitan, puesto que pueden surgir conflictos de interés.Uno de los mecanismos para la resolución de conflictos de interés es la negociación automática. Esta se centra en proveer un marco de negociación que permita la interacción de los participantes. Este marco de negociación, que debe ser conocido y aceptado por todos los participantes, define las normas que describen la negociación: cuál es el tiempo máximo que puede durar la negociación, cuál es el contenido de las ofertas y que ocurre si no se alcanza un acuerdo. La utilización de protocolos como mecanismo de negociación automáticos permite definir y especificar completamente todos los componentes necesarios. Sin embargo, esta definición presenta problemas a la hora de definir formalmente las características específicas del protocolo y del dominio donde se vaya a aplicar.El trabajo que se presenta en esta tesis ha consistido en el desarrollo de un protocolo de negociación que permita a los participantes alcanzar acuerdos óptimos para la prestación de servicios coordinados en una única negociación. El protocolo presentado aborda los siguientes aspectos: · El resultado de la negociación puede ser una combinación de elementos que aporten una solución a un problema dado.· La relación existente entre los elementos que forman parte de la negociación.· Cómo afecta a la negociación la implementación secuencial, es decir, el acuerdo sobre un elemento implica que éste pasa a desarrollarse, lo que afecta al escenario de negociación y consecuentemente a las estrategias de negociación sobre el resto de elementos.· La implementación de tácticas mixtas que eviten que el acuerdo sobre un elemento, que en un instante t podría ser considerado como óptimo, pueda no serlo cuando se alcance un acuerdo sobre otro elemento en un instante t' posterior.· La utilización de creencias, ya que el entorno donde se desarrolla el protocolo es un entorno con información incompleta, es decir, un participante no conoce los rangos de acuerdos del otro participante. Este problema, negociación sobre múltiples elementos relacionados, se encuentra presente en multitud de dominios de aplicación. Por ejemplo, en la provisión de servicios: provisión de ancho de banda, logística de recursos distribuida, o como en el caso en el que el protocolo se ha adaptado: la gestión del tráfico interurbano.El protocolo presentado se ha adaptado a un entorno real, en concreto, a la determinación automática de itinerarios alternativos como solución cuando se producen incidentes en la circulación en una red viaria. Por último, se ha diseñado e implementado un sistema multiagente para la gestión del tráfico interurbano que implementa el protocolo de negociación propuesto. / The interaction between system components has become an important requirement to develop or solve common tasks which individual components are unable to reach. However, computer systems, that have to reach their operational objectives, are not usually disposed to share or yield the resources that other system request. Thus conflict of interest appears.One of the mechanisms to solve conflict of interest is automatic negotiation. It is focused on providing a negotiation framework. This framework allows the interaction between participants (or players). Nevertheless, this framework presents problems when we have to define formally the specific characteristic of the protocol and the application domain.The work developed in this thesis is focused on the development of a new negotiation protocol. This protocol allows players to reach optimal agreements to share and use services co-ordinately. The protocol has the next characteristics: a) it is played in a incomplete information environment; b) there are several elements involved in the negotiation and they are related; c) the result negotiation could be a combination of elements providing a solution; d) the implementation of elements, once they are agreed, is sequential and e) the generation of offers and counter offers are developed using mixed tactics.The protocol developed has been adapted to be used in a real environment: the non urban road traffic domain. The protocol has been developed to automatically define alternative itineraries as solution to a road incident. A multiagent system has been designed and implemented to traffic management. This MAS prototype allows to monitors weather problems and to negotiate, using the proposed protocol, alternatives itineraries when weather problems (snow, ice, etc) appear in the road network.
5

Integració d'habilitats socials en l'animació comportamental d'actors sintètics.

Grimaldo Moreno, Francisco 24 October 2008 (has links)
La simulació de mons virtuals habitats per personatges 3D és un problema complex que necessita la integració d'àrees diverses com ara els gràfics per computador i la intel·ligència artificial. De la primera, hom pot obtenir la credibilitat gràfica de l'escena, de la segona, l'autonomia i la interactivitat pròpia de l'animació comportamental dels així coneguts com 3DIVA (3D Intelligent Virtual Agents). Normalment, la interactivitat dels 3DIVA s'adreça a l'entorn (p. ex. la capacitat d'executar tasques sobre els objectes 3D) o a l'usuari (p. ex. la capacitat de comunicació amb un usuari humà, la reproducció d'emocions o actituds expressives, etc.). Amb tot, cal fer una passa endavant quan es treballa amb societats artificials com les que apareixen, per exemple, dins dels mons virtuals dels jocs d'entreteniment, dels simuladors per a l'aprenentatge de tasques civils o militars, o de ciberespais com el famós SecondLife. Malgrat el realisme gràfic assolit per les tècniques d'animació, és necessari aprofundir en la interacció entre aquests actors sintètics autònoms per tal de fer-los evolucionar cap a una intel·ligència social que estiga més a prop de la sociabilitat humana. L'objectiu principal d'aquesta tesi és la integració d'habilitats socials en l'animació comportamental d'humanoides autònoms situats dins de mons virtuals 3D. Per tant, en primer lloc fem una revisió dels mons virtuals habitats, així com dels diferents mecanismes d'animació comportamental emprats normalment en actors sintètics. En segon lloc, repassem els models de sociabilitat més comuns que hom pot trobar dins l'estat de l'art dels agents socialment intel·ligents.La presa de decisions que han de dur a terme els actors sintètics amb capacitats socials per interaccionar amb la resta d'agents comporta processos cognitius complexos i requereix un coneixement abstracte dels elements de l'entorn. Darrerament, hom ha proposat la inclusió d'informació semàntica dins dels entorns virtuals, coneguts sota el terme anglosaxó de Semantic Virtual Environments (SVE). D'acord amb açò, en aquest treball proposem l'ús d'ontologies per aconseguir tres objectius: millorar la sensorització d'escenes complexes, definir operatives generals que els agents puguen reutilitzar en situacions diverses i definir les relacions socials establides entre els membres d'una societat artificial. La natura proactiva dels actors sintètics ha fet que les tècniques d'animació comportamental més comunes, basades en la selecció dinàmica d'accions, es divideixen fonamentalment en dos grups: la planificació de tasques (p. ex. les basades en STRIPS) i els sistemes basats en regles (p. ex. els models Belief-Desire-Intention). Les aportacions principals d'aquesta tesi es troben en la inclusió d'habilitats socials en ambdós paradigmes, ja que els considerem aproximacions vàlides extensament emprades i moltes vegades complementàries. Primerament, presentem com aconseguir comportaments col·laboratius en grups d'agents basats en planificadors heurístics. Fem servir la comunicació d'accions per a la coordinació entre les activitats dels humanoides i la comunicació d'objectius per a la cooperació entre els personatges 3D. Llavors, hem desenvolupat un mecanisme de sospesament heurístic que permet assignar un pes a cada objectiu, de manera que reflectisca la seua importància social. No obstant això, l'eficiència no és l'única manera d'expressar sociabilitat. Pel contrari, la presa de decisions humana sovint té en compte més d'un punt de vista i no tots persegueixen la consecució ràpida de les tasques encarregades. Per tal causa, presentem MADeM (Multi-modal Agent Decision Making), un procés de presa de decisions de tipus social que pot ser emprat per agents BDI per tal de prendre decisions socialment acceptables. MADeM és capaç d'avaluar diferents solucions a un problema mitjançant tècniques socials basades en l'economia de mercats les quals fan servir les subhastes com a mecanisme perquè els agents expressen les seues preferències. / The aim of this thesis is to integrate social skills in the behevioural animation of humanoids inhabiting 3D virtual worlds. In order to behave socially, synthetic actors must be provided with complex decision making mechanisms able to manage abstract knowledge in the environment. Semantical Virtual Environments have recently been proposed not only to ease world modelling but also to enhance agent-object and agent-agent interaction. Thus, we propose the use of ontologies to: i) introduce semantic levels of detail that help the sensorization of complex scenes; ii) create general and reusable operativity for autonomous characters; and iii) define social relations among agents within an artificial society. Essentially, two approaches have been followed when dynamically selecting the actions being performed by proactive virtual actors: task planning (e.g. STRIPS) and rule based systems (e.g. BDI). According to this, we have developed two techniques to incorporate social skills in both paradigms. First, we show how to obtain collaborative behaviours in groups of humanoids based on heuristic search planners. We use action communication to coordinate the agent's activities and goal communication to generate cooperation among the 3D characters. Then, we have developed an heuristic weighting allowing to associate a weight to each goal in order to reflect its social importance. However, efficiency is not the only way of expressing sociability. Instead, human decision making usually considers different points of view. Therefore, we present MADeM (Multi-modal Agent Decision Making), a social agent decision-making proces that BDI agents can use to perform socially acceptable decisions. MADeM uses auctions as the mechanism to get agent preferences (expressed by utility functions) and it is able to evaluate different solutions to a certain problem by means of a social technique based on welfare economics.
6

Modelos de simulación en tiempo real de sistemas granulares mediante autómatas celulares.

Pla i Castells, Marta 26 January 2009 (has links)
Las herramientas de formación basadas en simulación y realidad virtual se han convertido en las últimas décadas en una potente erramienta para la formación y el entrenamiento de multitud de tareas, especialmente aquéllas que conllevan un coste o un riesgo elevado. Debido a las exigencias de este tipo de aplicaciones, los modelos dinámicos utilizados deben  reproducir el comportamiento del sistema simulado con suficiente realismo como para qu los hábitos adquiridos por los aprendices sean correctos. Además, deben ser suficientemente robustos y eficientes como para poder ejecutarse de forma interactiva en tiempo real. Dentro del ámbito de la simulación de maquinaria pesada, los sistemas granulares y la interacción con el terreno (arena, grava, material granel, etc.) forman parte de las tareas  fundamentales que realiza el usuario. Sin embargo, como consecuencia de una metodología inadecuada, existe una deficiencia importante en los modelos existentes para simulación interactiva en tiempo real. A lo largo de este trabajo se revisa la metodología de modelado utilizada habitualmente, y se desarrolla un conjunto de modelos dinámicos para la simulación de sistemas granulares. Para conseguir modelos con un comportamiento suficientemente realista, se parte de estudios teóricos sobre el comportamiento de los sistemas granulares y la interacción con el suelo. A partir de estos estudios, y utilizando el modelo computacional de los Autómatas Celulares, se desarrolla un conjunto de modelos dinámicos que permiten la simulación interactiva de un sistema granular y una herramienta Los modelos se validan  utilizando los trabajos teóricos anteriores, y se analiza el significado de los parámetros para permitir su ajuste en función del tipo de material que se desee simular. Para conseguir una implementación eficiente de los modelos que permita la simulación en tiempo real, se analizan las propiedades estadísticas de la dinámica del sistema. Gracias a este análisis se consigue alcanzar un coste inferior a cuadrático respecto a las dimensiones del sistema simulado. Se revisan las técnicas de representación gráfica existentes y se mejora la representación de las zonas de flujo por medio de l utilización de técnicas de multitextura programadas en el procesador gráfico. / The training tools based on simulation and virtual reality have become in recent decades into a powerful tool for education and training of many tasks, especially those that involve a cost or a high risk. Due to the demands of such applications, the dynamic models have to reproduce the behavior of the system simulated with sufficient realism so that the habits acquired by trainees are correct. Furthermore, they must be sufficiently robust and efficient to be able to run interactively in real time.Within the scope of the simulation of heavy machinery, granular systems and the interaction with the ground (sand, gravel, bulk material, etc..) are part of the fundamental tasks performed by the user. However, as a result of inadequate methodology, there is a major deficiency in existing models for real-time interactive simulation.Throughout this work we review the modeling methodology used routinely, and developed a set of dynamic models for the simulation of granular systems.To obtain models with a sufficiently realistic behavior is part of theoretical studies on the behavior of granular systems and interaction with the ground. From these studies, and using the computational model of cellular automata, we develop a set of dynamic models that allow for interactive simulation of a granular system and a tool.The models are validated using the previous theoretical work, and discusses the significance of the parameters to allow adjustment of the type of material you want to simulate.To achieve an efficient implementation of the models to allow the simulation in real time, we analyze the statistical properties of the dynamics of the system. Thanks to this analysis we reach a cost of less than quadratic with respect to the dimensions of the simulated system.We review the existing techniques of graphic representation and improving the representation of the flow areas through the use of techniques multitextured programmed in the processor graph.
7

Propuesta de nuevos modelos dinámicos de cables de elevación para simulación en tiempo real.

García Fernández, Ignacio 23 February 2009 (has links)
La evolución y abaratamiento de los costes de los equipos informáticos y, en especial, de los procesadores gráficos, han potenciado el uso de las herramientas de entrenamiento basadas en simulación, aplicadas al ámbito civil. Sin embargo, a pesar de los avances que se han producido en el modelado dinámico, existen carencias importantes en los modelos de cables y polipastos utilizados para los simuladores de entrenamiento de grúas  otras máquinas de elevación.  En primer lugar, no existe ningún trabajo que determine de forma clara cómo simular un polipasto que considere tanto la oscilación del cable coo el sistema de poleas. En segundo lugar, diversos autores muestran la aparición de problemas de inestabilidad numérica en la simulación de cables de elevación. En tercer lugar, a pesar de la diversidad de modelos existentes de cables y poleas, resulta difícil encontrar modelos suficientemente flexibles para todo el rango de situaciones que requieren las simulaciones iteractivas en tiempo real.  El objetivo principal de esta investigación es conseguir modelos dinámicos de sistemas de elevación basados en las propiedades ísicas de los cables y las poleas para la simulación interactiva en tiempo real. Para alcanzar este objetivo se recurrirá a una metodología de modelado consistente en el desarrollo de un modelo abstracto delsistema, que permitirá construir modelos dinámicos adecuados para la simulación interactiva.  La principal contribución de este trabajo es el desarrollo de un modelo de polipasto adecuado para aplicaciones de simulación pra entrenamiento, que contempla la interacción entre el cable y las poleas, la oscilación transversal del cable o la variación de la longitud de éste. El modelo desarrollado permite además la interacción con otros objetos del entorno virtual, por medio de fuerzas y de colisiones.  Por medio de la modularización del sistema, se definirán diferentes modelos dinámicos para cada subsistema y se combinarán por medio del modelo abstracto. Esto permitirá integrar cualquiera de estos modelos en el modelo dinámico de polipasto, e incluso intercambiar los modelos en tiempo de ejecución, ampliando el rango de validez del modelo obtenido y mejorando la estabilidad numérica en situaciones de tensión elevada.  Los modelos desarrollados se implementarán, junto con aplicaciones de demostración, desarrollando aquellas técnicas que puedan ser necesarias para su incorporación a un entorno virtual. Las principales propiedades de los modelos se analizarán por medio de experimentos numéricos y se validará su comportamiento. / The evolution and lower costs of computers and especially of graphics processors, have boosted the use of training tools based on simulation, applied to the civil sphere. However, despite the advances that have occurred in the dynamic modeling, there are major shortcomings in the models of cables and pulleys used for the training simulators of cranes and other lifting machinery. First, there is no work to identify clearly how to simulate a hoist to consider both the oscillation of the cable pulley system. Secondly, several authors show the emergence of instability in the numerical simulation of lifting cables. Thirdly, despite the diversity of existing models of pulleys and cables, it is difficult to find models flexible enough for the whole range of situations that require real-time interactive simulations. The main objective of this research is to obtain dynamic models of systems based on raising the physical properties of cables and pulleys to simulate interactively in real time. To achieve this goal we draw a consistent modeling methodology to develop an abstract model of the system, which will build dynamic models suitable for interactive simulation. The main contribution of this work is to develop a model suitable for hoist applications of simulation for training, which involves the interaction between the cable and pulleys, the transverse oscillation of the cable or the variation of the length of it. The model also allows the interaction with other objects in the virtual environment by means of forces and collisions. Through the modularization of the system, different dynamic models are defined for each subsystem and will be combined using the abstract model. This will integrate any of these models in the dynamic model of hoist, and even exchange models at runtime, extending the range of validity of the model and obtained better numerical stability in situations of high tension. The models developed will be implemented, together with demo applications, developing those techniques that may be necessary for joining a virtual environment. The main properties of the samples are analyzed by numerical experiments and validate their behavior.
8

Simulación híbrida como núcleo de simulación de aplicaciones gráficas en tiempo real.

García García, Inmaculada 23 September 2004 (has links)
Las aplicaciones gr¶a¯cas en tiempo real siguen un paradigma de simulaci¶on con-tinuo acoplado. Este paradigma presenta diversos inconvenientes, entre ellos cabedestacar el bajo aprovechamiento de la potencia de c¶alculo de la m¶aquina, la im-posibilidad de de¯nir la QoS de cada objeto y mantenerla durante la ejecuci¶on o elacoplo de los procesos de todos los objetos del sistema, en particular el acoplo delproceso de visualizaci¶on del sistema con el resto de procesos.La tesis propone cambiar el paradigma de simulaci¶on de estas aplicaciones a unparadigma discreto desacoplado. Este nuevo paradigma permite solucionar los pro-blemas del paradigma anterior. Los objetos de¯nen su propia QoS independiente-mente del resto del sistema, incluso se permite de¯nir diferentes QoS para diferentesaspectos del propio objeto. Entre estos objetos, est¶a el objeto visualizador, destina-do a controlar el proceso de visualizaci¶on. El objeto visualizador tambi¶en de¯ne supropia QoS.En el sistema discreto desacoplado cada objeto consume ¶unicamente la poten-cia de c¶alculo estrictamente necesaria para llevar a cabo su simulaci¶on con la QoSde¯nida. Por ello, la potencia de c¶alculo del sistema se reparte entre los objetos enfunci¶on de sus necesidades.El sistema puede adaptarse din¶amicamente, rede¯niendo la QoS de los objetos enfunci¶on de las condiciones de la ejecuci¶on del sistema. Los objetos pueden degradaro mejorar su comportamiento durante periodos de la ejecuci¶on para evitar colapsosdel sistema o para mejorar el comportamiento del sistema. / Real time graphic applications, speci¯cally videogames, follow a paradigm ofcontinuous simulation that couple the simulation phase and the rendering phase.This paradigm can be ine±cient or it can produce incorrect simulations. It has di-sadvantages, some of them are: the inadequate computer power distribution betweenthe graphic application objects, it is not possible to de¯ne the Quality of Service(QoS) of each application object, the object QoS can be maintained during the ap-plication running, the behavior of all the system objects are coupled (speci¯cally therendering process and the simulation process).The proposal is to change the simulation paradigm of real time graphic ap-plications. The new simulation paradigm is discrete and decoupled. The use of adecoupled discrete paradigm avoids the problems of the continuous coupled para-digm and it avoids incorrect simulations, besides it improves the simulation qualityand e±ciency. The discrete simulation paradigm allows to de¯ne a private QoS crite-rion for each aspect of each object in the videogame. The render object is dedicatedto control the application render process. The render object de¯nes its own QoScriteria.It is possible to de¯ne a di®erent sampling frequency for each object aspect in thesystem. The discrete paradigm allows to de¯ne the objects sampling frequency todistribute the computer power adequately among the objects. The computer powerconsumed executing the application is only the necessary to guarantee the QoS ofeach object.The system can be adapted dynamically. The objects QoS can be adjusted tothe objects requirements and the whole system requirements, the system load orcharacteristics. This sampling frequency may change dynamically to adapt the QoSof the object aspect to the real computer power. The result obtained is a discretesystem that allows a Smart System Degradation and may rede¯ne dynamically theobjects aspects QoS. Objects collect system information and use it to adapt its QoS.
9

Cloud screening algorithm for MERIS and CHRIS multispectral sensors.

Gómez Chova, Luis 14 November 2008 (has links)
Earth Observation systems monitor our Planet by measuring, at different wavelengths, the electromagnetic radiation that is reflected by the surface, crosses the atmosphere, and reaches the sensor at the satellite platform. In this process, clouds are one of the most important components of the Earth's atmosphere affecting the quality of the measured electromagnetic signal and, consequently, the properties retrieved from these signals. This Thesis faces the challenging problem of cloud screening in multispectral and hyperspectral images acquired by space-borne sensors working in the visible and near-infrared range of the electromagnetic spectrum. The main objective is to provide new operational cloud screening tools for the derivation of cloud location maps from these sensors' data. Moreover, the method must provide cloud abundance maps --instead of a binary classification-- to better describe clouds (abundance, type, height, subpixel coverage), thus allowing the retrieval of surface biophysical parameters from satellite data acquired over land and ocean. In this context, this Thesis is intended to support the growing interest of the scientific community in two multispectral sensors on board two satellites of the European Space Agency (ESA). The first one is the MEdium Resolution Imaging Spectrometer (MERIS), placed on board the biggest environmental satellite ever launched, ENVISAT. The second one is the Compact High Resolution Imaging Spectrometer (CHRIS) hyperspectral instrument, mounted on board the technology demonstration mission PROBA (Project for On-Board Autonomy). The proposed cloud screening algorithm takes advantage of the high spectral and radiometric resolution of MERIS, and of the high number of spectral bands of CHRIS, as well as the specific location of some bands (e.g., oxygen and water vapor absorption bands) to increase the cloud detection accuracy. To attain this objective, advanced pattern recognition and machine learning techniques to detect clouds are specifically developed in the frame of this Thesis. First, a feature extraction based on meaningful physical facts is carried out in order to provide informative inputs to the algorithms. Then, the cloud screening algorithm is conceived trying to make use of the wealth of unlabeled samples in Earth Observation images, and thus unsupervised and semi-supervised learning methods are explored. Results show that applying unsupervised clustering methods over the whole image allows us to take advantage of the wealth of information and the high degree of spatial and spectral correlation of the image pixels, while semi-supervised learning methods offer the opportunity of exploiting also the available labeled samples. / Los sistemas de observación de la Tierra observan nuestro planeta midiendo, en diferentes longitudes de onda, la radiación electromagnética que es reflejada por la superficie, atraviesa la atmósfera, y llega al sensor en el satélite. En este proceso, las nubes son uno de los componentes más importantes ya que afectan a la señal electromagnética medida. Esta Tesis aborda el problema de la detección de nubes en imágenes multiespectrales e hiperespectrales adquiridas por sensores de satélite que trabajan en el rango visible e infrarrojo cercano del espectro electromagnético. El objetivo principal es desarrollar herramientas operativas que proporcionen mapas con la ubicación de las nubes a partir de los datos de satélite adquiridos. Además, el método debe proporcionar mapas de la abundancia de nubes (en lugar de una clasificación binaria) para describir mejor las nubes (abundancia, tipo, altura, cobertura subpixel). En este contexto, esta Tesis analiza dos sensores multiespectrales a bordo de dos satélites de la Agencia Espacial Europea (ESA). El primero de ellos es el MEdium Resolution Imaging Spectrometer (MERIS), a bordo del satélite medioambiental Envisat. El segundo es el instrumento hiperespectral Compact High Resolution Imaging Spectrometer (CHRIS), a bordo del satélite de demostración tecnológica PROBA. El algoritmo de detección de nubes propuesto aprovecha la alta resolución espectral y radiométrica de MERIS, y el número de bandas espectrales de CHRIS, así como la ubicación específica de algunas bandas (absorción del oxígeno y vapor de agua) para aumentar la precisión de la detección de las nubes. Para alcanzar este objetivo, técnicas avanzadas de reconocimiento de patrones y aprendizaje máquina han sido específicamente desarrolladas en el marco de esta. En primer lugar, se lleva a cabo la extracción de características basadas en fundamentos físicos con el fin de proporcionar información relevante a los algoritmos empleados. Después, el algoritmo de detección de nubes se ha concebido tratando de hacer uso de la riqueza de las muestras sin etiquetar de las imágenes, por lo que se exploran métodos de aprendizaje no supervisados y semisupervisados. Los resultados muestran que los algoritmos de agrupamientos no supervisados sobre la imagen completa nos permite aprovechar la riqueza de la información y el alto grado de correlación espacial y espectral de los píxeles de la imagen, mientras que los métodos de aprendizaje semisupervisado ofrecen también la oportunidad de explotar las muestras etiquetadas disponibles.

Page generated in 0.0571 seconds