Spelling suggestions: "subject:"tempo real""
1 |
Aplicación de la simulación en tiempo real para mejorar la calidad de servicio del middlewareNou Castell, Ramón 31 October 2008 (has links)
La utilización de aplicaciones de diferente naturaleza dentro de un mismo entorno, entorno heterogéneo, se está extendiendo gracias a la incorporación de técnicas de virtualización a los servidores. Compartir un servidor ofrece ventajas sobretodo en términos de eficiencia de energía, utilización del espacio o mantenimiento. La virtualización añade ventajas en la separación de las diferentes aplicaciones o entornos. Aún así los gestores de recursos para entornos heterogéneos tienen como principal dificultad ofrecer calidad de servicio (QoS) a diferentes aplicaciones, entornos o cargas. Una aplicación que realice streaming y otra que realice cálculo intensivo, normalmente , no colisionaran ya que los recursos utilizados son diferentes. Por el otro lado, colisionaran dos aplicaciones que trabajen con la CPU.Nuestra propuesta ofrece la posibilidad de introducir dentro de estos gestores de recursos la capacidad de predecir este tipo de entornos, en concreto transaccionales y Grid, para aumentar la QoS y el rendimiento. Las predicciones han de utilizar técnicas de simulación ya que la mayoria de las veces el sistema no será representable mediante técnicas analíticas, por ser un sistema saturado o tener características difíciles de representar.La simulación es una técnica utilizada para predecir el comportamiento de sistemas en multitud de áreas. Las simulaciones de componentes hardware son muy comunes, dado el coste de construcción de los sistemas simulados (procesadores, memorias...). Sin embargo, el uso de la simulación en entornos complejos, como es el middleware, y su aplicación en gestores de recursos tiene un uso muy bajo. Nosotros proponemos simulaciones ligeras capaces de obtener resultados utilizables en estos entornos.Entre las aportaciones y contribuciones de la tesis tenemos: (i) utilización de métodos de simulación para incrementar el rendimiento y la calidad de servicio de estos sistemas. (ii) ampliación de un sistema de monitorización global para aplicaciones mixtas (JAVA y C) que nos ofrece la posibilidad de conseguir información de lo que ocurre en el middleware y de relacionarlo con el sistema. (iii) creación de un gestor de recursos capaz de repartir los recursos en un entorno heterogéneo utilizando la predicción para tener en cuenta diferentes parámetros de calidad de servicio.En la tesis se muestran los mecanismos de creación de los distintos simuladores, las herramientas de obtención de datos y monitorización, así como mecanismos autónomos que pueden alimentarse de la predicción para producir mejores resultados. Los resultados obtenidos, con gran impacto en la QoS en el gestor creado para Globus, demuestran que los métodos aplicados en esta tesis pueden ser válidos para crear gestores de recursos inteligentes, alimentados de las predicciones del sistema para tomar decisiones. Finalmente, utilizamos las simulaciones realizadas incorporándolas dentro de un prototipo de gestor de recursos heterogéneo capaz de repartir los recursos entre un entorno transaccional y un entorno Grid dentro del mismo servidor. / Using different applications inside the same environment, heterogeneous environment, is getting more and more usual due the incorporation of the virtualization inside servers. Sharing a server offer advantages in different levels: energy, space, management. Virtualization helps to separate different applications or environments. On the other hand, resource managers have as principal issue offer Quality of Service for different applications, environments or workloads. A streaming server and a CPU intensive application would not collide; the resources they need are different. However, two applications that need CPU processing power will collide.Our proposal offers the possibility to introduce inside the resource manager the capacity to predict these environments. We will work with transactional and Grid environments, and we will increase the QoS and the performance. We need to use simulation techniques for our predictions because a large number of times the system won't be able to be modelled with analytic techniques, for being a saturated system or having features that are hard to reproduce.Simulation is a technique used to predict the behaviour of multiple systems in a large number of areas. Hardware simulations are very common because the building/testing cost of the simulated system (processor, memory, cache,...) is high. However, using simulation in complex environments, as the middleware, and its use in resource management is low. We propose light simulations that can obtain results that can be used in these environments.We will enumerate our contributions: (i) Use simulations to increase the performance and the QoS of those systems. (ii) Improve a global monitoring system for mixed applications (JAVA and C) that gives us information about what happens in the middleware and in the system. (iii) Build a resource manager that can share the resources in a heterogeneous environment an use the prediction to ensure the different QoS parameters that we provide.In the thesis we show how we built the different simulators, the different tools to obtain information and monitorize the applications, and finally the autonomic mechanisms that can feed with the prediction to obtain better results. Results obtained, with great success in the case of the resource manager created for Globus, show and demonstrate that the applied methods in this thesis are suitable to create intelligent resource managers, fed with predictions of the system to take decisions. Finally, we add the built simulations inside a heterogeneous resource manager that shares resources between a transactional environment and a Grid environment inside the same server.
|
2 |
Planificación global en sistemas multiprocesador de tiempo realBanús Alsina, Josep María 29 May 2008 (has links)
Esta tesis afronta el problema de la planificación de sistemas de tiempo real utilizando sistemas multiprocesador con memoria compartida. Según laliteratura este problema es NP-Hard. En las aplicaciones de sistemas de tiempo real se imponen unos plazos temporales para la realización de las tareas. Así, lo importante es obtener los resultados a tiempo y no lo es tanto el obtener un rendimiento alto en promedio. La solución al problematradicionalmente ha consistido en repartir las tareas en tiempo de diseño y tratar a losprocesadores como monoprocesadores aislados. La solución alternativa, la planificación global del multiprocesador, tiene una teoría poco desarrollada. Los límites de utilización del sistema con garantías para losplazos son muy bajos, del orden del 50%, y la capacidad sobrante difícilmente se puede usar para dar servicio a las tareas aperiódicas. Así, el objetivoprincipal de la tesis es la planificación global con garantías de los plazos y con buen servicio a las tareas aperiódicas, llegando a usar el 100% de la capacidad de proceso. Primero se estudiaron cuatro posibilidades de distribución: estática o dinámica según las tareas, periódicas o aperiódicas. Para ello se trató el servicioa las tareas aperiódicas con dos métodos distintos: con servidores y sin servidores. En las distribuciones dinámicas, con el método de los servidoresse encontraron dificultades en su dimensionado y en las garantías de los plazos. Los métodos sin servidores probados fueron los planificadores Slack Stealing y Total Bandwidth. Ambos solo se pudieron adaptar para la planificación estática de las tareas periódicas. Las simulaciones mostraron que laplanificación local con Slack Stealing y un distribuidor de las tareas aperiódicas tipo Next-Fit proporcionan los mejores tiempos de respuesta medios para las tareas aperiódicas. Sin embargo, cuando las cargas son muy altas su tiempo de respuesta se dispara. Todos los métodos ensayados hasta elmomento quedaron desestimados para la planificación global. En segundo lugar se adaptó a la planificación global el algoritmo Dual Priority. Primero se analizaron sus características en monoprocesadores y se realizaron diversas mejoras. El algoritmo depende del cálculo off-line del peor tiempo de respuesta de las tareas periódicas y la fórmula paracalcularlos en monoprocesadores no es válida para multiprocesadores. Así, se analizaron tres métodos para su cálculo: un método analítico, unmétodo con simulación y un método con un algoritmo. El primero obtiene valores demasiado pesimistas; el segundo obtiene valores más ajustados pero en ocasiones son demasiado optimistas; el tercero es un método aproximado y obtiene valores tanto optimistas como pesimistas. Así, estemétodo no garantiza los plazos y no se puede usar en sistemas de tiempo real estrictos. En sistemas laxos, con una monitorización on-liney un ajuste dinámico de las promociones, el número de plazos incumplidos es muy bajo y el tiempo de repuesta de las tareas aperiódicas es excelente. Finalmente, se presenta una solución híbrida entre el repartimiento estático de las tareas periódicas y la planificación global. En tiempo de diseño, sereparten las tareas periódicas entre los procesadores y se calculan las promociones para la planificación local. En tiempo de ejecución las tareasperiódicas se pueden ejecutar en cualquier procesador hasta el instante de su promoción, instante en el que deben migrar a su procesador. Así segarantizan los plazos y se permite un cierto grado de balanceo dinámico de la carga. La flexibilidad conferida por las promociones de las tareas y el balanceo de la carga se utiliza para (i) admitir tareas periódicas que de otra forma no serian planificables, (ii) servir tareas aperiódicas y (iii) servirtareas aperiódicas con plazo o esporádicas. Para los tres casos se diseñaron y analizaron distintos métodos de distribución de las tareas periódicas en tiempo de diseño. También se diseño un método para reducir el número de migraciones. Las simulaciones mostraron que con este método se puedenconseguir cargas con solo tareas periódicas muy cercanas al 100%, lejos del 50% de la teoría de la planificación global. Las simulaciones con tareasaperiódicas mostraron que su tiempo de repuesta medio es muy bueno. Se diseño un test de aceptación de las tareas esporádicas, de forma que si una tarea es aceptada entonces su plazo queda garantizado. El porcentaje de aceptación obtenido en los experimentos fue superior al 80%.Finalmente, se diseñó un método de distribución de las tareas periódicas pre-rutime capaz de facilitar en tiempo de ejecución la aceptación de un alto porcentaje de tareas esporádicas y mantener un buen nivel de servicio medio para las tareas aperiódicas. / This thesis takes into consideration the problem of real-time systems scheduling using shared memory multiprocessor systems. According to the literature, this problem is NP-Hard. In real-time systems applications some time limits are imposed to tasks termination. Therefore, the really important thing is to get results on time and it is not so important to achieve high average performances. The solution to the problem traditionally has been to partition the tasks at design time and treat processors as isolated uniprocessors. The alternative solution, the global scheduling, has an undeveloped theory. The limit on the system utilization with deadlines guarantees is very low, around 50%, and spare capacity can hardly be used to service aperiodic tasks. Thus, the main goal of this thesis is to develop global scheduling techniques providing deadlines guarantees and achieving good service for aperiodic tasks, being able to use 100% of the processing capacity.First of all, we explored four possibilities of distribution: static or dynamic depending on the tasks, periodic or aperiodic. We tried to schedule aperiodic tasks with two different methods: with servers and without servers. In dynamic distributions, with the method of servers were found difficulties in its size and guarantees for deadlines. The methods without servers were The Slack Stealing and The Total Bandwidth. Both were adapted only for scheduling the static case. The simulations showed that the local scheduling with Slack Stealing and an allocation of aperiodic tasks kind Next-Fit provides the best mean average response time for the aperiodic tasks. However, when the load is very high response time increases. All methods tested so far were dismissed for the global scheduling.Secondly the Dual Priority algorithm was adapted to global scheduling. First we discussed its characteristics in uniprocessors and various improvements were made. The algorithm depends on the off-line calculation of the worst case response time for the task and the formula to compute them in uniprocessors is not valid for multiprocessors. We have analyzed three methods for its calculation: an analytical method, a simulation method and an algorithmic method. The former gets too pessimistic values, the second gets adjusted values but are sometimes too optimistic, and the third is a method that obtains approximate values. Thus, this method does not guarantee deadlines and may not be used in hard real-time systems. However, it is very suitable for soft real-time systems. In these systems, using an on-line monitoring and dynamic adjustment of promotions, the number of missed deadlines is very low and the response time of aperiodic tasks is excellent.Finally, we present a hybrid solution between static task allocation and global scheduling. At design time, is performed the distribution of periodic tasks among processors and their promotions are calculated for local scheduling. At runtime, the task can be run on any processor until the moment of its promotion, when it has to migrate to its processor. This will ensure deadlines and allowing a certain degree of dynamic load balancing. The flexibility provided by task promotions and load balancing is used (i) to admit task that would otherwise not be scheduled, (ii) to serve aperiodic tasks and (iii) to serve aperiodic tasks with deadlines or sporadic tasks. For the three cases were designed and analyzed various methods of task distribution at design time. We also designed a method to reduce the number of migrations. The simulations showed that this method can achieve with only periodic task loads very close to 100%, far from the 50% of the global scheduling theory. The simulations showed that aperiodic tasks average response time is very good. We designed an acceptance test for sporadic tasks, hence, if a task is accepted then its deadline is guaranteed. The acceptance rate obtained in the experiments was over 80%. Finally, we devised a pre-rutime distribution method of periodic tasks that is able to provide at run time a high acceptance ratio for sporadic tasks and maintain a good level of service for aperiodic tasks
|
3 |
Improvements in autonomous GPS navigation of Low Earth Orbit satellitesRamos Bosch, Pedro 24 October 2008 (has links)
Es defineix un satèl·lit d'òrbita baixa aquell que es troba a una alçada de fins a 2000 km per sobre de la superfície de la Terra. Degut al ràpid decaïment dels objectes propers a la superfície degut al fregament atmosfèric, s'accepta que l'alçada típica per un LEO esta entre 200 i 2000 km.Aquesta rang d'alçades fa que els LEO siguin utilitzats per un ampli rang d'aplicacions, com a repetidors de comunicacions, sensors remots, determinació gravimètrica i magnetomètrica, altimetria oceànica, determinació atmosfèrica i en operacions de Search and Rescue (Cerca i rescat). El seu posicionament precís és de gran importància per a poder complir correctament amb els seus objectius. En aquest sentit, una gran quantitat de satèl·lits LEO tenen un receptor GPS, que permet fer mesures GPS durant tot el seu recorregut al voltant de la Terra. Aquestes mesures poden ser utilitzades per determinar la trajectòria del satèl·lit. Aquesta operació es fa normalment a terra, després que el satèl·lit hagi transmès totes les mesures que ha pres. La capacitat de fer aquest posicionament en temps real a bord del satèl·lit és una necessitat per algunes aplicacions. El posicionament autònom es molt diferent del que es pot fer a terra, ja que el processador del satèl·lit te grans limitacions en recursos computacionals, per tant els complexos models i càlculs fets en un ordinador normal a terra, son completament excessius per un ordinador espacial. A més, alguns dels models utilitzats en l'estimació de la trajectòria necessiten dades addicionals (com activitat solar, o paràmetres de rotació de la Terra) que no son disponibles en temps real, per tant s'han de fer algunes aproximacions per tal de no necessitar cap d'aquestes dades. Aquesta tesis estudiarà la navegació autònoma amb GPS de satèl·lits LEO, tendència que esta incrementant la seva importància per les aplicacions tan científiques com tecnològiques que se'n poden derivar. La tesi desenvoluparà nous algoritmes i mètodes per obtenir una posició acurada i continua per LEOs. S'han cobert diferent aspectes:· Mitigació de multipath e interferències. Les reflexions de senyals GPS en l'estructura del satèl·lit crea una distorsió que afecta la distància mesurada. La repetibilitat d'aquests efectes en relació amb l'orientació del satèl·lit pot ser utilitzat per a mitigar el seu impacte en la solució de navegació. S'han desenvolupat tècniques de mitigació de multipath i interferències per receptors d'una i de dos freqüències.· Models dinàmics de forces. L'alta predictibilitat de la trajectòria d'objectes orbitant la Terra pot ser utilitzat en sinergia amb el GPS per a aconseguir solucions més precises que fent servir únicament GPS. Això s'utilitza normalment en estratègies en postprocess, però te grans requeriments computacionals, i necessita paràmetres no disponibles en temps real. La simplificació d'aquests models, i la supressió de paràmetres no disponibles es necessari per poder aplicar aquesta tècnica de processat en condicions de temps real.· Maniobres. Els cossos en òrbita al voltant de la Terra no segueixen una trajectòria perfectament predeible. Hi han petites pertorbacions que modifiquen la seva trajectòria a llarg termini, i a més, el fregament atmosfèric frena poc a poc al satèl·lit, disminuint la seva alçada. Això fa necessari una correcció periòdica de la seva trajectòria, realitzat amb petits impulsos del sistema de propulsió del satèl·lit en lo que s'anomena una maniobra. Quan un satèl·lit es troba en una maniobra, deixa de seguir els models de caiguda lliure, per tant la maniobra s'ha de tenir en conte en l'estimació del filtre.Tots els algoritmes i mètodes dissenyats han sigut testejats amb dades reals de diferents missions: SAC-C, CHAMP, JASON-1 i GRACE. S'han fet servir diversos tests cobrint diferents opcions de parametrització per tal d'avaluar el seu comportament. / Se define un satélite de órbita baja aquel que se encuentra en una altura de hasta 2000 km sobre la superficie terrestre. Debido al rápido decaimiento de los objetos cercanos a la superficie debido al fregamiento atmosférico se acepta que la altura típica para un LEO se sitúa entre 200 y 2000 km.Este rango de alturas hace que los LEO sean utilizados para un amplio rango de aplicaciones como repetidores de comunicaciones, sensores remotos, determinación gravimétrica y magnetométrica, altimetría oceánica, determinación atmosférica y en operaciones de Search and Rescue (Búsqueda y rescate). Su posicionamiento preciso es de gran importancia para poder cumplir correctamente con sus objetivos. En este sentido, una gran cantidad de satélites LEO disponen de un receptor GPS, que permite realizar medidas GPS durante todo su recorrido alrededor de la Tierra. Estas medidas puede ser utilizadas para determinar la trayectoria del satélite. Esta operación se suele realizar en tierra, después que el satélite haya retransmitido todas las medidas que ha tomado. La capacidad de hacer este posicionamiento en tiempo real a bordo del satélite es una necesidad para algunas aplicaciones. El posicionamiento autónomo es muy diferente al que se puede realizar en tierra, ya que los procesadores de satélites tienen limitaciones en recursos computacionales, y por tanto los complejos modelos y cálculos realizados en un ordenador normal en tierra son excesivos para un ordenador espacial. Además, algunos de los modelos utilizados en la estimación de la trayectoria necesitan datos adicionales (como actividad solar, o parámetros de rotación de la Tierra) que no están disponibles en tiempo real, por lo que hay que realizar algunas aproximaciones para no necesitar ninguno de estos datos. Esta tesis estudiará la navegación autónoma mediante GPS en satélites LEO, tendencia que esta aumentando su importancia por las aplicaciones tanto científicas como tecnológicas que se pueden derivar. La tesis desarrollara nuevos algoritmos y métodos para obtener una posición precisa y continua para LEOs. Se han cubierto diferentes aspectos:· Mitigación de multipath e interferencias. Las reflexiones de las señales GPS en la estructura del satélite crea una distorsión que afecta la distancia medida. La repetibilidad de estos efectos en relación con la orientación del satélite puede ser utilizado para mitigar su impacto en la solución de navegación. Se han desarrollado técnicas de mitigación de multipath e interferencias para receptores de una o dos frecuencias.· Modelos dinámicos de fuerzas. La trayectoria de objetos orbitando la Tierra es muy predecible, lo cual puede ser usado en sinergia con GPS para conseguir posiciones más precisas que usando solo GPS. Esto se utiliza normalmente en estrategias en postproceso, pero tiene grandes necesidades computacionales, y requiere de parámetros no disponibles en tiempo real. La simplificación de estos modelos, y la supresión e esos parámetros es necesario para poder aplicar esta técnica de procesado en condiciones de tiempo real.· Maniobras. Los cuerpos en órbita alrededor de la Tierra no siguen una trayectoria perfectamente predecible. Hay pequeñas perturbaciones que modifican su trayectoria a largo plazo. Además el fregamiento atmosférico frena poco a poco el satélite, reduciendo su altura. Esto hace que sea necesaria una corrección periódica de su trayectoria, realizado en pequeños impulsos por el sistema de propulsión del satélite en lo que se llama una maniobra. Cuando un satélite realiza una maniobra deja de comportarse según los modelos de caida libre, por tanto su maniobra se ha de tener en cuenta en la estimación del filtro. Todos los algoritmos y métodos diseñados han sido testeados con datos reales de diferentes misiones: SAC-C, CHAMP, JASON-1 y GRACE. Se han realizado un amplio abanico de tests cubriendo diferentes opciones de parametrización para evaluar su comportamiento. / Satellites in low Earth orbits (LEO) are generally defined to be up to an altitude of 2000 km above Earth's surface and given the rapid decay of objects on the lower altitude range due to atmospheric drag, it is commonly accepted that a typical LEO height lies between 200 and 2000 km. This altitude range makes LEO satellites useful for a wide range of applications such as communication transponders, remote sensing, gravimetric and magnetometric sounding, ocean altimetry, atmospheric retrieval and Search and Rescue alarm operations. Its accurate positioning is of great importance in the successful accomplishment of their objectives. In this sense, most LEO satellites have a GPS receiver, which allows to collect GPS measurements in its full revolution around the Earth. These measures can be used to precisely estimate the trajectory of the spacecraft. This operation is normally done on ground, after the satellite was able to downlink all the data it collected. The capacity to do this positioning in real-time onboard the satellite is a necessity for some of the applications, and would also allow a faster science product delivery.This autonomous positioning is very different that the one that can be done on ground, as the satellite processor has large limitations in computational resources, so the complex models and calculus done in a normal computer on ground are completely unaffordable for the onboard processor. Besides, some of the models used in the trajectory estimation need some additional data (such as solar activity, or Earth rotation parameters) that are not available in real-time, so some approximations must be done to cope with these lack of data. This thesis will deepen into the study of autonomous GPS navigation of LEO satellites, a trend that is increasing its importance for their applications in both science and technological fields. It will develop new algorithms and methods in order to provide accurate and continuous positions for the satellites. Different aspects have been covered:· Multipath and interference mitigation. Reflections of GPS signals in the spacecraft structure cause a distress that affects the measured distance. On the other hand, some spacecraft have more than one GPS antenna on its payload. This creates a cross-talk interference that also affects the measures. The repeatability of these effects in relation to the attitude of the spacecraft can be used to mitigate its impact into the final navigation solution. Multipath mitigation techniques have been developed for both single- and dual-frequency receivers. · Dynamic force models. The high predictability of the trajectory of Earth orbiters is used in conjunction to GPS measurements to provide a more accurate solution than GPS standalone positions. This is a widely used technique in postprocessing strategies, but has high computational requirements and needs parameters not available in real-time. The simplifications of these models, along with the suppression of the parameters not available in an onboard environment is necessary to use these kind of positioning by a satellite processing in real-time conditions.· Maneuver handling. Earth orbiters do not follow a fully predictable orbit, some low-order perturbations modifies its trajectory on the long term, and atmospheric drag slowly brakes the satellite, decreasing its altitude. This makes necessary a periodic correction of its trajectory.This is done by short impulses produced by the satellite propulsion systems in what is called a maneuver. When a spacecraft is in a maneuver, it no longer follows the free-flight dynamic models, so this should be taken into account in the estimation filter. All the algorithms and methods have been tested with real data from different missions: SAC-C, CHAMP, JASON-1 and GRACE. Several test cases covering a wide range of days and parametrization options have been done in order to assess its performance.
|
4 |
Techniques for improving the visualization of natural scenesGumbau Portalés, Jesús 18 February 2011 (has links)
La representación interactiva de escenarios naturales en tiempo real presenta problemas debido a la gran cantidad de información que debe ser procesada. Un bosque puede estar compuesto por decenas de miles de especies vegetales, las cuales a su vez están compuestas por decenas de miles de elementos (hojas, tallos y ramas). Una descripción precisa de una escena de este tipo implica el procesamiento de una cantidad de información intratable para su uso en aplicaciones en tiempo real. Durante los últimos 20 años se han publicado muchos trabajos de carácter científico para resolver este problema, aportando diferentes estrategias con particulares ventajas e inconvenientes.
El objetivo principal de esta tesis es la presentación de un conjunto de técnicas para mejorar la eficiencia en la representación de escenas naturales en tiempo real. Para ello se han realizado aportaciones en diferentes ámbitos del área de los gráficos por computador. Por una parte, se ha propuesto un modelo de nivel de detalle multirresolución especialmente diseñado para la vegetación, basado en nivel de detalle de resolución variable, el cual permite la adaptación de la complejidad poligonal de especies vegetales en tiempo real. Esta propuesta se acompaña de una nueva aportación diseñada para el manejo de escenas masivamente pobladas, es decir, con miles de modelos multiresolución. Además se han propuesto nuevas técnicas para mejorar la visualización en el ámbito de la iluminación, tanto en cuanto a modelar los efectos de iluminación en árboles como a la representación eficiente de sombras visualmente realistas.
|
5 |
Ahorro Energético en la Planificación de Sistemas en Tiempo RealMoncusí Mercadé, Maria Angels 21 December 2005 (has links)
La evolución de los procesadores siempre ha consistido en ir aumentando el rendimiento de estos, fijando como medida de este aumento de rendimiento la velocidad de proceso en la ejecución de las distintas aplicaciones. Sin embargo esta mayor velocidad implica también un mayor consumo energético. En la era de la informática móvil, un mayor consumo energético comporta el uso de mayores baterías y una disminución del tiempo útil de trabajo de estas. A su vez, el usuario común de esta informática móvil, puede que no necesita una mayor velocidad de proceso, puesto que la limitación de velocidad de las aplicaciones más comunes que usará, aplicaciones multimedia, procesadores de texto, viene impuesta por cualidades físicas (velocidad de mecanografía, frecuencia de visualización en pantalla, frecuencia de emisión del sonido,..). En estos casos, por más rápido que sea el procesador, la aplicación no puede ejecutarse a mayor velocidad, resultando en un mayor consumo energético pero sin la obtención de mejores resultados. En los sistemas de tiempo real, estas restricciones en la velocidad del procesador también vienen impuestas por las características físicas del medio, por ejemplo, la frecuencia de muestreo de un sensor de temperatura, debe ser la necesaria, de nada sirve que se tomen medidas al doble de su frecuencia, puesto que la temperatura no cambiará tan rápidamente. Para evitar el problema de sobredimensionado de la velocidad del procesador que requiere a su vez, de un mayor consumo energético, en la última década, el estudio del rendimiento de los procesadores (velocidad del procesador) se ha unido al estudio del consumo energético y de la disipación del calor. De manera que ya no puede haber evolución únicamente a nivel de velocidad del procesador sin tener en cuenta el consumo de este y la disipación de energía. En el campo de la reducción energética se ha observado que la técnica de DVS (reducción dinámica de la velocidad del procesador junto con la reducción del voltaje suministrado) permite al algoritmo de planificación de las tareas ahorrar energía. Si observamos atentamente los algoritmos de planificación que se han usado en los entornos de tiempo real, observaremos la siguiente evolución temporal:· Algoritmos de planificación cíclicos.· Algoritmos de planificación en-línea para conjuntos de tareas periódicas independientes.· Algoritmos de planificación en-línea para conjuntos de tareas periódicas independientes y para tareas aperiódicas y/o esporádicas· Algoritmos de planificación en-línea para conjuntos de tareas no independientes entre si, es decir tareas con recursos compartidos y/o precedencias entre tareas.· Algoritmos de planificación para arquitecturas multiprocesadores.Una evolución parecida se ha producido en el estudio de los planificadores con ahorro energético, iniciando el estudio con la planificación estática y finalizando con los algoritmos de planificación dinámica, que ofrecen mayor flexibilidad a los programadores de las aplicaciones.En la tesis, se sigue esta misma evolución, estudiando y proponiendo un algoritmo de planificación con ahorro energético para un sistema monoprocesador con tareas independientes. Suponiendo, inicialmente, correctos todos los parámetros de diseño del sistema (algoritmo PLMDP) para finalmente aplicar de manera automática una corrección a un posible sobredimensionado del WCET (algoritmo EPLDP). Estudiando las diferencias de ahorro energético que se obtienen con estos dos algoritmos, se ha constatado que a nivel energético es siempre favorable ejecutar a una velocidad de proceso intermedia en lugar de ejecutar a velocidades extremas (primero a muy poca velocidad, para después tener que ejecutar a velocidades más altas).A continuación, añadimos a los planificadores anteriores la posibilidad de que las tareas puedan acceder a recursos compartidos entre estas. Implementando en los planificadores el protocolo de techo de prioridad. A pesar del uso de este protocolo, se puede observar que nuestros algoritmos continúan aportando ahorro energético, garantizando la planificabilidad de las tareas.Para finalizar con los cambios en los planificadores, se ha añadido a todos los planificadores implementados, la posibilidad de tener precedencias entre las tareas y plazos globales entre una cadena de precedencias. En este punto se ha visto que la dificultad principal del algoritmo de planificación es el hecho de no saber con exactitud el instante de llegada de estas tareas, disminuyendo de esta manera la utilización del procesador que se puede planificar de una manera garantizada. A pesar de todo, observamos que los algoritmos de planificación PLMDP y EPLDP tienen un buen comportamiento en términos de planificación de tareas.Para completar el estudio de la planificación, se ha realizado el estudio del tiempo de respuesta de las tareas aperiódicas junto al estudio del ahorro energético. En principio ambos conceptos están enfrentados, puesto que para obtener un tiempo de respuesta menor, debemos ejecutar la tarea a máxima velocidad, asegurando que en el procesador esté disponible a la llegada de las tareas. Y por el contrario, para tener ahorro energético debemos ejecutar a una velocidad reducida la mayor parte del tiempo.Realizando un análisis global, se ha visto que los planificadores PLMDP y EPLDP, obtienen un buen rendimiento, siendo de fácil implementación y requiriendo al mismo tiempo poca cantidad de memoria para su funcionamiento. Sin embargo, todos los resultados obtenidos se han realizado bajo simulaciones con conjuntos de tareas reales y conjuntos de tareas sintéticos.Las técnicas DVS y las modificaciones que se han realizado en los algoritmos de planificación para ahorro energético, son fácilmente aplicables a otros algoritmos de planificación, en concreto se podrían aplicar sin demasiada complicación a sistemas multiprocesadores con una planificación global de las tareas. Los resultados obtenidos con el algoritmo EPLDP demuestran que en las aplicaciones de tiempo real es energéticamente económico ejecutar a una velocidad media el máximo tiempo posible en lugar de ejecutar a mayor velocidad para después tener el procesador parado. Este resultado, junto con los resultados que reducen la corriente de fuga a base de agrupar los espacios libres del procesador, es fácilmente aplicable a los algoritmos de planificación, en los que las tareas pueden ejecutarse en cualquier procesador. De manera que las tareas se deben ejecutar a una velocidad lo más uniformemente posible para tener al procesador ocupado el máximo tiempo posible.
|
6 |
Analysis and design of real-time control systems with varying control timing constraintsMartí Colom, Pau 26 July 2002 (has links)
L'anàlisi i el disseny dels sistemes de control de temps real és una tasca complexa, que requereix la integració de dues disciplines, la dels sistemes de control i la dels sistemes de temps real. Tradicionalment però, els sistemes de control de temps real s'han dissenyat diferenciant, de forma independent, dues fases, primerament el disseny del controlador, i després, la seva implementació en un computador. Això ha desembocat en solucions no òptimes tant en termes de planificabilitat del sistema i com en el rendiment dels sistemes controlats.Normalment, els mètodes i models de la teoria de control de temps discret no consideren durant la fase de disseny dels controladors les limitacions que es puguin derivar de la implementació. En la fase de disseny s'assumeix que els algorismes de control s'executaran en processadors dedicats i que els processadors seran prou ràpids i determinístics per no haver-se de preocupar del comportament temporal que aquests algorismes de control tindran en temps d'execució. Tot i així, quan els recursos - per exemple, processadors - són limitats, apareixen variacions temporals en l'execució dels algorismes de control. En concret, en els sistemes de planificació de tasques de temps real, un algorisme de control s'implementa en una tasca periòdica caracterizada per restriccions temporals estàndards com períodes i terminis. És sabut que, en la planificació de tasques de temps real, les variacions temporals en l'execució d'instàncies de tasques és permesa sempre i quan les restriccions de planificabilitat estiguin garantides. Aquesta variabilitat per tasques de control viola l'estricte comporament temporal que la teoria de control de temps discret pressuposa en l'execució dels algorismes de control.Això té dos efectes negatius: la variabilitat temporal en l'execució de les tasques de control degrada el rendiment del sistema controlat, fins i tot causant inestabilitat. A més, si es minimitza la probabilitat d'aparició d'aquesta variabilitat en l'execució de les tasques de control a través d'especificacións més limitants, la planificabilitat del conjunt de tasques del sistema disminueix.Cal tenir en compte que la teoria de control no dóna directrius de com incloure, en la fase de disseny dels controladors, aquesta variabilitat en l'execució de tasques que es deriva de les limitacions d'implementació. A més, la teoria de sistemes de temps real no proporciona ni models de tasques ni restriccions temporals que puguin ser usats per garantir l'execució periòdica, i sense variabilitats temporals, de tasques sense sobrelimitar la planificabilitat dels sistema.En aquesta tesi es presenta un entorn integrat i flexible de planificació i de control per a l'anàlisi i el disseny de sistemes de control de temps real que dóna solucions als problemes esmentats anteriorment (baixa planificabilitat en el sistema i degradació del rendiment dels sistemes controlats). Mostrem que, fusionant les activitats de la comunitat de temps real amb les de la comunitat de control, això és, integrant la fase de disseny de controladors amb la fase d'implementació en un computador, es millora tant la planificabilitat del sistema com el rendiment dels sistemes controlats.També es presenta una nova aproximació al disseny de controladors de temps discret que té en compte les limitacions derivables de la implementació i relaxa les tradicionals assumpcions dels controladors de temps discret (mostreig i actuació equidistants). En lloc d'especificar, en la fase de disseny, únics valors pel període de mostreig i pel retard temporal, especifiquem un conjunt de valors tant per l'un com per l'altre. Aquesta nova aproximació al disseny de controladors es basa en la idea d'ajustar, en temps d'execució, els paràmetres del controlador d'acord amb el comportament temporal específic de la implementació (per exemple, d'acord amb la variabilitat en l'execució de les tasques deguda a la planificació). Els llaços de control resultants esdevenent sistemes variants en el temps, amb mostreig irregular i retards temporals variables. Per a aquests sistemes, i utilitzant formulació en l'espai d'estat, presentem una anàlisi completa d'estabilitat, així com l'anàlisi de la resposta. També mostrem com, a partir de les propietats temporals d'aquesta nova aproximació al disseny de controladors, podem obtenir restriccions temporals més flexibles per a les tasques de control. Les restriccions temporals estàndards, per a les tasques periòdiques en els sistemes de temps real, són constants per a totes les instàncies d'una tasca. Això és, només un sol valor per a una restricció és aplicable a totes les instàncies. Les noves restriccions temporals que presentem per a tasques de control no forcen a aplicar un valor específic, sinó que permeten aplicar valors diferents a cada instància d'una tasca, tenint en compte, per exemple, la planificabilitat d'altres tasques.Aquestes restriccions temporals flexibles per a tasques de control ens permeten obtenir planificacions viables i sistemes de control estables a partir de conjunts de tasques (incloent tasques de control i d'altres) que no eren planificables en usar mètodes estàndards tant de planificació de temps real com de disseny de controladors. A més, associant informació de rendiment de control a aquestes noves restriccions temporals per a tasques de control, mostrem com podem prendre decisions de planificació que, anant més enllà de complir amb les restriccions temporals, milloren el rendiment dels sistemes controlats quan aquests sofreixen perturbacions. / The analysis and design of real-time control systems is a complex task, requiring the integration and good understanding of both control and real-time systems theory. Traditionally, such systems are designed by differentiating two separate stages: first, control design and then its computer implementation, leading to sub-optimal solutions in terms of both system schedulability and controlled systems performance.Traditional discrete-time control models and methods consider implementation constraints only to a very small extent. This is due to the fact that in the control design stage, controllers are assumed to execute in dedicated processors and processors are assumed to be fast and deterministic enough not to worry about the timing that the controlling activities may have on the implementation. However, when resources (e.g., processors) are limited, timing variations in the execution of control algorithms occur. Specifically, a control algorithm in traditional real-time scheduling is implemented as a periodic task characterized by standard timing constraints such as period and deadline. In real-time scheduling, timing variations in task instance executions (i.e., jitters) are allowed as far as the schedulability constraints are preserved. Consequently, the resulting jitters for control task instances do not comply with the strict timing demanded by discrete-time control theory. This has two pervasive effects: the presence of jitters for control tasks degrades the controlled system performance, even causing instability. On the other hand, minimizing the likelihood of jitters for control tasks by over-constraining the control task specification reduces the schedulability of the entire task set. It is worth mentioning that control theory offers no advice on how to include, into the design of controllers, the effects that implementation constraints have in the timing of the control activities (e.g., scheduling inherent jitters). Also, real-time theory lacks task models and timing constraints that can be used to guarantee a periodic task execution free of jitters without over-constraining system schedulability. In this thesis we present a flexible integrated scheduling and control analysis and design framework for real-time control systems that solves the problems outlined above: poor system schedulability and controlled systems performance degradation. We show that by merging the activities of the control and real-time communities, that is, by integrating control design with computer implementation, both system schedulability and controlled systems performance are improved. We present a new approach to discrete-time controller design that takes implementation constraints into account and relaxes the equidistant sampling and actuation assumptions of traditionally designed discrete-time controllers. Instead of specifying a single value for the sampling period and a single value for the time delay at the design stage, we specify a set of values for both the sampling period and for the time delay. This new approach for the controller design relies on the idea of adjusting controller parameters at run time according to the specific implementation timing behaviour, i.e., scheduling inherent jitters. The resulting closed-loop systems are based on irregularly sampled discrete-time system models with varying time delays. We have used state space formulation to present a complete stability and response analysis for such models.We also show how to derive more flexible timing constraints for control tasks by exploiting the timing properties imposed by this new approach to discrete-time controller design. Real-time scheduling standard timing constraints for periodic tasks are constant for all task instances. That is, a single value of a constraint (e.g., period or deadline) holds for all task instances. Our flexible timing constraints for control tasks do not set specific values. Rather, they provide ranges and combinations to choose from (at each control task instance execution), taking into account, for example, schedulability of other tasks. That is, these more flexible timing constraints for control tasks allow us to obtain feasible schedules and stable control systems from task sets (including control and non-control tasks) that are not feasible using traditional real-time scheduling and discrete-time control design methods. In addition, by associating control performance information with these new timing constraints for control tasks, we show how scheduling decisions, going beyond meeting timing constraints, can be taken to improve the performance of the controlled systems when they are affected by perturbations.
|
7 |
Development of molecular monitoring methods and assessment of the environmental fate of the biological control agent of fire blight Pseudomonas fluorescens EPS62ePujol Abajo, Marta 19 December 2006 (has links)
Pseudomonas fluorescens EPS62e es va seleccionar com a agent de biocontrol del foc bacterià per la seva eficàcia en el control de Erwinia amylovora. En aquest treball es van desenvolupar mètodes de traçabilitat que van permetre la seva detecció específica i quantificació. Mitjançant les tècniques RAPD i U-PCR es van obtenir fragments d'amplificació diferencial per EPS62e que es van seqüenciar i caracteritzar com marcadors SCAR per dissenyar una PCR en temps real. La PCR a temps real es va utilitzar simultàniament amb mètodes microbiològics per estudiar l'adaptabilitat epifítica de EPS62e en pomera i perera. L'ús combinat de mètodes microbiològics i moleculars va permetre la identificació de tres estats fisiològics de EPS62e: la colonització activa, l'entrada en un estat de viable però no cultivable, i la mort cel·lular. Aquest treball mostra que EPS62e està ben adaptada a la colonització de flors a camp, encoratjant la seva utilització dins d'una estratègia de control biològic contra el foc bacterià. / Pseudomonas fluorescens EPS62e was selected as a reliable biological control agent of fire blight for its high efficacy controlling Erwinia amylovora infections. In the present work, monitoring methods which allowed EPS62e specific detection and quantification were developed. RAPD and U-PCR fingerprints were used to obtain differential amplified fragments from EPS62e that were sequence characterized as SCAR markers. A real-time PCR was developed on the basis of the strain-specific SCAR markers, and was used simultaneously with microbiological methods to study the environmental fate of EPS62e in apple and pear orchards. The combined use of both microbiological and molecular methods permitted the identification of three physiological states for EPS62e, which consisted of active colonization, survival and entry into a viable but nonculturable state, and cell death. The present work shows that EPS62e is well adapted for blossom colonisation in the field, and encourages its utilisation in a fire blight.
|
8 |
Influència del microquimerisme hematopoètic en l'establiment del rebuig en transplantaments d'òrgans sòlidsPujal Reyes, Josep Maria 11 April 2008 (has links)
La presència de cèl·lules del donant en el receptor després del trasplantament d'un òrgan sòlid ha estat objecte de controvèrsia des de mitjans del segle XX. Tot va començar amb el descobriment de l'acceptació de trasplantaments de pell entre bessons bovins bivitel·lins amb anastomosis vasculars. L'evolució marcada de les tècniques de trasplantament i la disminució del rebuig amb l'aparició de la immunosupressió han permès perllongar la vida de l'empelt i augmentar el nombre de trasplantaments amb èxit. No obstant encara subsisteix un índex massa elevat de rebuig agut que compromet la supervivència de l'empelt a mig-llarg termini. Arribats a aquest punt, algunes experimentacions han suggerit que el microquimerisme podria ser una opció per a disminuir la incidència d'aquest tipus de rebuig en els pacients trasplantats. Els resultats descrits en aquesta tesi permeten en primer lloc demostrar l'existència d'aquest microquimerisme a nivell molecular en els pacients trasplantats de ronyó, de cor o de fetge. En segon lloc, es va correlacionar la presència de microquimerisme al segon mes post-trasplantament amb una més baixa incidència de rebuig agut en pacients trasplantats de ronyó i una tendència similar per als pacients amb trasplantament de cor. Tenint en compte l'absència d'episodis de rebuig a 4 anys en els pacients amb microquimerisme, aquest podria ser considerat com a factor precoç de pronòstic del rebuig agut a mig termini, suposant així la classificació dels pacients en grups de risc de rebuig en funció de l'absència o la presència de microquimerisme als dos mesos. / The presence of a few circulating donor cells in recipient's blood was first thought to be only an epiphenomenon of solid organ transplantation, also called microchimerism, but several authors have suggested that these circulating cells may contribute to tolerance induction. This study aims to assess the rate of microchimerism after kidney transplantation and determine its influence on acute rejection in a 4-year follow-up. A total of 84 single-kidney recipients were included for microchimerism detection and quantification 2, 6, 12, and 18 months after transplantation by specific detection of non-shared STR, VNTR, human leukocyte antigen-A, -B, -DRB1, and SRY alleles. Kinetic establishment of microchimerism was monitored in a double kidney transplanted recipient for 150 min after declamping and after 7 days. Microchimerism was detected in 56.2% of kidney recipients 2 months after transplantation (M2): this fell to 30.1% at 12 months. In renal calcineurin inhibitor-based immunosuppression cohort (n_73), the microchimerism negative group (n_32) showed 37.9% biopsy-proven acute rejection (BPAR), whereas in the microchimerism-positive group (n_41), no recipient did (P_0.001). Regardless of immunosuppression, BPAR incidence was 35.6% and 4.9%, respectively (P_0.001). Multivariate study showed microchimerism as a protective factor against BPAR (odds ratio: 8.3; 95% confidence interval: 1.8 to 37.9; P_0.006), blinding other well-known rejection-risk variables. Microchimerism M2 presence did not correlate with a multifactorial critical outcome such as late graft loss. Microchimerism was frequent after kidney transplantation and correlated with a significantly lower incidence of rejection. We propose that early microchimerism monitoring could help early detection of low rejection-risk recipients.
|
9 |
Development of molecular-based techniques for the detection, identification and quantification of food-borne pathogensRodríguez Lázaro, David 18 June 2004 (has links)
La presencia de microorganismos patógenos en alimentos es uno de los problemas esenciales en salud pública, y las enfermedades producidas por los mismos es una de las causas más importantes de enfermedad. Por tanto, la aplicación de controles microbiológicos dentro de los programas de aseguramiento de la calidad es una premisa para minimizar el riesgo de infección de los consumidores. Los métodos microbiológicos clásicos requieren, en general, el uso de pre-enriquecimientos no-selectivos,enriquecimientos selectivos, aislamiento en medios selectivos y la confirmación posterior usando pruebas basadas en la morfología, bioquímica y serología propias de cada uno de los microorganismos objeto de estudio. Por lo tanto, estos métodos son laboriosos, requieren un largo proceso para obtener resultados definitivos y, además, no siempre pueden realizarse. Para solucionar estos inconvenientes se han desarrollado diversas metodologías alternativas para la detección identificación y cuantificación de microorganismos patógenos de origen alimentario, entre las que destacan los métodosinmunológicos y moleculares. En esta última categoría, la técnica basada en la reacción en cadena de la polimerasa (PCR) se ha convertido en la técnica diagnóstica más popular en microbiología, y recientemente, la introducción de una mejora de ésta, la PCR a tiempo real, ha producido una segunda revolución en la metodología diagnóstica molecular, como pude observarse por el número creciente de publicaciones científicas y la aparición continua de nuevos kits comerciales. La PCR a tiempo real es unatécnica altamente sensible -detección de hasta una molécula- que permite la cuantificación exacta de secuencias de ADN específicas de microorganismos patógenos de origen alimentario. Además, otras ventajas que favorecen su implantación potencial en laboratorios de análisis de alimentos son su rapidez, sencillez y el formato en tubo cerrado que puede evitar contaminaciones post-PCR y favorece la automatización y un alto rendimiento. En este trabajo se han desarrollado técnicas moleculares (PCR y NASBA) sensibles y fiables para la detección, identificación y cuantificación de bacterias patogénicas de origen alimentario (Listeria spp., Mycobacterium avium subsp. paratuberculosis y Salmonella spp.). En concreto, se han diseñado y optimizado métodos basados en la técnica de PCR a tiempo real para cada uno de estos agentes: L. monocytogenes, L. innocua, Listeria spp. M. avium subsp. paratuberculosis, y también se ha optimizado yevaluado en diferentes centros un método previamente desarrollado para Salmonella spp. Además, se ha diseñado y optimizado un método basado en la técnica NASBA para la detección específica de M. avium subsp. paratuberculosis. También se evaluó la aplicación potencial de la técnica NASBA para la detección específica de formas viables de este microorganismo. Todos los métodos presentaron una especificidad del 100 % con una sensibilidad adecuada para su aplicación potencial a muestras reales de alimentos. Además, se han desarrollado y evaluado procedimientos de preparación de las muestras en productos cárnicos, productos pesqueros, leche y agua. De esta manera se han desarrollado métodos basados en la PCR a tiempo real totalmente específicos y altamente sensibles para la determinación cuantitativa de L. monocytogenes en productoscárnicos y en salmón y productos derivados como el salmón ahumado y de M. avium subsp. paratuberculosis en muestras de agua y leche. Además este último método ha sido también aplicado para evaluar la presencia de este microorganismo en el intestino de pacientes con la enfermedad de Crohn's, a partir de biopsias obtenidas de colonoscopia de voluntarios afectados.En conclusión, este estudio presenta ensayos moleculares selectivos y sensibles para la detección de patógenos en alimentos (Listeria spp., Mycobacterium avium subsp. paratuberculosis) y para una rápida e inambigua identificación de Salmonella spp. La exactitud relativa de los ensayos ha sido excelente, si se comparan con los métodos microbiológicos de referencia y pueden serusados para la cuantificación de tanto ADN genómico como de suspensiones celulares. Por otro lado, la combinación con tratamientos de preamplificación ha resultado ser de gran eficiencia para el análisis de las bacterias objeto de estudio. Por tanto, pueden constituir una estrategia útil para la detección rápida y sensible de patógenos en alimentos y deberían ser una herramienta adicional al rango de herramientas diagnósticas disponibles para el estudio de patógenos de origen alimentario. / The presence of pathogens in foods is among the most serious public health concerns, and the diseases produced by them are a major cause of morbidity. Consequently, the application of microbiological control within the quality assessment programs in the food industry is a premise to minimize the risk of infection for the consumer. Classical microbiological methods involve, in general, the use of a non-selective pre-enrichment, selective enrichment, isolation on selective media, and subsequent confirmation using morphological, biochemical and/or serological tests. Thus, they are laborious, time consuming and not always reliable (e.g. in viable but non-culturable VBNC forms). A number of alternative, rapid and sensitive methods for the detection, identification and quantification of foodborne pathogens have been developed to overcome these drawbacks. PCR has become the most popular microbiological diagnostic method, and recently, the introduction of a development of this technique, RTi-PCR, has produced a second revolution in the molecular diagnostic methodology in microbiology. RTi-PCR is highly sensitive and specific. Moreover, it allows accurate quantification of the bacterial target DNA. Main advantages of RTi-PCR for its application in diagnostic laboratories include quickness, simplicity, the closed-tube format that avoids risks of carryover contaminations and the possibility of high throughput and automation.In this work, specific, sensitive and reliable analytical methods based on molecular techniques (PCR and NASBA) were developed for the detection, identification and quantification of foodborne pathogens (Listeria spp., Mycobacterium avium subsp. paratuberculosis and Salmonella spp.). Real-time PCR based methods were designed and optimised for each one of these target bacteria: L. monocytogenes, L. innocua, Listeria spp. M. avium subsp. paratuberculosis, and also a real-time PCR basedmethod previously described for Salmonella spp. was optimised and multicenter evaluated. In addition, an NASBA-based method was designed and optimised for the specific detection of M. avium subsp. paratuberculosis. The potential application of the NASBA technique for specific detection of viable M. avium subsp. paratuberculosis cells was also evaluated.All the amplification-based methods were 100 % specific and the sensitivity achieved proved to be fully suitable for further application in real food samples. Furthermore, specific pre-amplification procedures were developed and evaluated on meatproducts, seafood products, milk and water samples. Thus, fully specific and highly sensitive real-time PCR-based methods were developed for quantitative detection of L. monocytogenes on meat and meat products and on salmon and cold smoked salmon products; and for quantitative detection of M. avium subsp. paratuberculosis on water and milk samples. The M. avium subsp. paratuberculosis-specific real-time PCR-based method was also applied to evaluate the presence of this bacterium in the bowelof Crohn's disease patients using colonic biopsy specimens form affected and unaffected volunteers. In addition, fully specific and highly sensitive real-time NASBA-based methods were developed for detection of M. avium subsp. paratuberculosis on water and milk samples.In conclusion, this study reports selective and sensitive amplification-based assays for the quantitative detection of foodborne pathogens (Listeria spp., Mycobacterium avium subsp. paratuberculosis and) and for a quick and unambiguously identification of Salmonella spp. The assays had an excellent relative accuracy compared to microbiological reference methods and can be used for quantification of genomic DNA and also cell suspensions. Besides, in combination with sample pre-amplification treatments,they work with high efficiency for the quantitative analysis of the target bacteria. Thus, they could be a useful strategy for a quick and sensitive detection of foodborne pathogens in food products and which should be a useful addition to the range of diagnostic tools available for the study of these pathogens.
|
10 |
Conflict-Free Networks on Chip for Real Time SystemsPicornell Sanjuan, Tomás 22 November 2021 (has links)
[ES] La constante necesidad de un mayor rendimiento para cumplir con la gran demanda de potencia de cómputo de las nuevas aplicaciones, (ej. sistemas de conducción autónoma), obliga a la industria a apostar por la tecnología basada en Sistemas en Chip con Procesadores Multinúcleo (MPSoCs) en sus sistemas embebidos de seguridad-crítica. Los sistemas MPSoCs generalmente incluyen una red en el chip (NoC) para interconectar los núcleos de procesamiento entre ellos, con la memoria y con el resto de recursos compartidos. Desafortunadamente, el uso de las NoCs dificulta alcanzar la predecibilidad en el tiempo, ya que pueden aparecer conflictos en muchos puntos y de forma distribuida a nivel de red.
Para afrontar este problema, en esta tesis se propone un nuevo paradigma de diseño para NoCs de tiempo real donde los conflictos en la red son eliminados por diseño. Este nuevo paradigma parte del Grafo de Dependencia de Canales (CDG) para evitar los conflictos de red de forma determinista. Nuestra solución es capaz de inyectar mensajes de forma natural usando un periodo TDM igual al límite teórico óptimo sin la necesidad de usar un proceso offline exigente computacionalmente. La red se ha integrado en un sistema multinúcleo basado en tiles y adaptado a su jerarquía de memoria.
Como segunda contribución principal, proponemos un nuevo planificador dinámico y distribuido capaz de alcanzar un rendimiento pico muy cercanos a las NoC basadas en un diseño wormhole sin comprometer sus garantías de tiempo real. El planificador se basa en nuestro diseño de red para explotar sus propiedades clave.
Los resultados de nuestra NoC muestran que nuestro diseño garantiza la predecibilidad en el tiempo evitando interferencias en la red entre múltiples aplicaciones ejecutándose concurrentemente. La red siempre garantiza el rendimiento y también mejora el rendimiento respecto al de las redes wormhole en una red 4 x 4 en un factor de 3,7x cuando se inyecta trafico para generar interferencias. En una red 8 x 8 las diferencias son incluso mayores. Además, la red obtiene un ahorro de área total del 10,79% frente a una implementación básica de una red wormhole.
El planificador propuesto alcanza una mejora de rendimiento de 6,9x y 14,4x frente la versión básica de la red DCFNoC para redes en forma de malla de 16 y 64 nodos, respectivamente. Cuando lo comparamos frente a un conmutador estándar wormhole se preserva un rendimiento de red del 95% al mismo tiempo que preserva la estricta predecibilidad en el tiempo. Este logro abre la puerta a nuevos diseños de NoCs de alto rendimiento con predecibilidad en el tiempo.
Como contribución final, construimos una taxonomía de NoCs basadas en TDM con propiedades de tiempo real. Con esta taxonomía realizamos un análisis exhaustivo para estudiar y comparar desde tiempos de respuesta, a implementaciones con bajo coste, pasando por soluciones de compromiso para diseños de NoCs de tiempo real. Como resultado, obtenemos nuevos diseños de NoCs basadas en TDM. / [CA] La constant necessitat d'un major rendiment per a complir amb la gran demanda de potència de còmput de les noves aplicacions, (ex. sistemes de conducció autònoma), obliga la indústria a apostar per la tecnologia basada en Sistemes en Xip amb Processadors Multinucli (MPSoCs) en els seus sistemes embeguts de seguretat-crítica. Els sistemes MPSoCs generalment inclouen una xarxa en el xip (NoC) per a interconnectar els nuclis de processament entre ells, amb la memòria i amb la resta de recursos compartits. Desafortunadament, l'ús de les NoCs dificulta aconseguir la predictibilitat en el temps, ja que poden aparéixer conflictes en molts punts i de forma distribuïda a nivell de xarxa.
Per a afrontar aquest problema, en aquesta tesi es proposa un nou paradigma de disseny per a NoCs de temps real on els conflictes en la xarxa són eliminats per disseny. Aquest nou paradigma parteix del Graf de Dependència de Canals (CDG) per a evitar els conflictes de xarxa de manera determinista. La nostra solució és capaç d'injectar missatges de mra natural fent ús d'un període TDM igual al límit teòric òptim sense la necessitat de fer ús d'un procés offline exigent computacionalment. La xarxa s'ha integrat en un sistema multinucli basat en tiles i adaptat a la seua jerarquia de memòria.
Com a segona contribució principal, proposem un nou planificador dinàmic i distribuït capaç d'aconseguir un rendiment pic molt pròxims a les NoC basades en un disseny wormhole sense comprometre les seues garanties de temps real. El planificador es basa en el nostre disseny de xarxa per a explotar les seues propietats clau.
Els resultats de la nostra NoC mostren que el nostre disseny garanteix la predictibilitat en el temps evitant interferències en la xarxa entre múltiples aplicacions executant-se concurrentment. La xarxa sempre garanteix el rendiment i també millora el rendiment respecte al de les xarxes wormhole en una xarxa 4 x 4 en un factor de 3,7x quan s'injecta trafic per a generar interferències. En una xarxa 8 x 8 les diferències són fins i tot majors. A més, la xarxa obté un estalvi d'àrea total del 10,79% front una implementació bàsica d'una xarxa wormhole.
El planificador proposat aconsegueix una millora de rendiment de 6,9x i 14,4x front la versió bàsica de la xarxa DCFNoC per a xarxes en forma de malla de 16 i 64 nodes, respectivament. Quan ho comparem amb un commutador estàndard wormhole es preserva un rendiment de xarxa del 95% al mateix temps que preserva la estricta predictibilitat en el temps. Aquest assoliment obri la porta a nous dissenys de NoCs d'alt rendiment amb predictibilitat en el temps.
Com a contribució final, construïm una taxonomia de NoCs basades en TDM amb propietats de temps real. Amb aquesta taxonomia realitzem una anàlisi exhaustiu per a estudiar i comparar des de temps de resposta, a implementacions amb baix cost, passant per solucions de compromís per a dissenys de NoCs de temps real. Com a resultat, obtenim nous dissenys de NoCs basades en TDM. / [EN] The ever need for higher performance to cope with the high computational power demands of new applications (e.g autonomous driving systems), forces industry to support technology based on multi-processors system on chip (MPSoCs) in their safety-critical embedded systems. MPSoCs usually include a network-on-chip (NoC) to interconnect the cores between them and, with memory and the rest of shared resources. Unfortunately, the inclusion of NoCs difficults achieving time predictability as network-level conflicts may occur in many points in a distributed manner.
To overcome this problem, this thesis proposes a new time-predictable NoC design paradigm where conflicts within the network are eliminated by design. This new paradigm builds on top of the Channel Dependency Graph (CDG) in order to deterministically avoid network conflicts. Our solution is able to naturally inject messages using a TDM period equal to the optimal theoretical bound without the need of using a computationally demanding offline process. The network is integrated in a tile-based manycore system and adapted to its memory hierarchy.
As a second main contribution, we propose a novel distributed dynamic scheduler that is able to achieve peak performance close to a wormhole-based NoC design without compromising its real-time guarantees. The scheduler builds on top of our NoC design to exploit its key properties.
The results of our NoC show that our design guarantees time predictability avoiding network interference among multiple running applications. The network always guarantees performance and also improves wormhole performance in a 4 x 4 setting by a factor of 3.7x when interference traffic is injected. For a 8 x 8 network differences are even larger. In addition, the network obtains a total area saving of 10.79% over a standard wormhole implementation.
The proposed scheduler achieves an overall throughput improvement of 6.9x and 14.4x over a baseline conflict-free NoC for 16 and 64-node meshes, respectively. When compared against a standard wormhole router 95% of its network throughput is preserved while strict timing predictability is kept. This achievement opens the door to new high performance time predictable NoC designs.
As a final contribution, we build a taxonomy of TDM-based NoCs with real-time properties. With this taxonomy we perform a comprehensive analysis to study and compare from response time specific, to low resource implementation cost, through trade-off solutions for real-time NoCs designs. As a result, we derive new TDM-based NoC designs. / Picornell Sanjuan, T. (2021). Conflict-Free Networks on Chip for Real Time Systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/177347
|
Page generated in 0.0598 seconds