Spelling suggestions: "subject:"tecnologia del"" "subject:"tecnologia dess""
31 |
Polyphenol metabolism: from in vitro to in vivo approachesSerra Maqueda, Aida 18 September 2012 (has links)
Los compuestos fenólicos son fitoquímicos ampliamente distribuidos en nuestra dieta debido a la ingesta de productos vegetales –principalmente frutas y verduras, derivados del cacao, te, café y vino tinto-. Varios efectos beneficiosos han sido relacionados con la ingesta de compuestos fenólicos, como por ejemplo la reducción del riesgo de sufrir enfermedades cardiovasculares o neurodegenerativas, la prevención de enfermedades relacionadas con el estrés oxidativo, o la reducción de algunos canceres. Pero menos información existe sobre los mecanismos de acción de estos en el cuerpo y sobre que compuestos alcanzan las dianas metabólicas. La presente tesis ha estado centrada en la evaluación de la digestibilidad y bioaccesibilidad de los compuestos fenólicos de la dieta durante el proceso de digestión y en el estudio de la absorción, el metabolismo y la distribución en tejidos de los compuestos fenólicos y de sus metabolitos. Para completar los objetivos citados, (i) se estudió la digestibilidad y bioaccesibilidad de los compuestos fenólicos de la dieta mediante el uso de un método de digestión in vitro; (ii) se desarrolló un método in vitro de fermentación colónica y se aplicó dicho método a compuestos fenólicos de la dieta; (iii) se desarrollaron metodologías analíticas para la cuantificación de compuestos fenólicos y sus metabolitos en muestras biológicas y finalmente (iv) se realizaron estudios in vivo, usando rata Wistar como modelo animal, para evaluar la absorción, el metabolismo y la distribución en tejidos de los compuestos fenólicos (principalmente procianidinas y compuestos fenólicos del aceite de oliva) y sus metabolitos.Como resultados principales de la parte experimental, se demostró que las procianidinas de bajo grado de polimerización (dimer y trímero) fueron estables durante el proceso de digestión. Se caracterizaron las rutas de formación de los productos de fermentación colónica de varios compuestos fenólicos, identificando a los ácidos fenólicos hidroxilados como los principales productos de fermentación de los flavonoides. Paralelamente, se desarrollaron y validaron dos métodos cromatográficos que combinaban la extracción en fase sólida con la ultra cromatografía líquida de alta resolución acoplada a la espectrometría de mases en tándem (UPCL-MS/MS) para la determinación de compuestos fenólicos y sus metabolitos en muestras biológicas. Dichos métodos fueron utilizados para analizar los compuestos fenólicos y sus metabolitos en las muestras biológicas que fueron obtenidas como resultado de los estudios de ingesta aguda e ingesta crónica de extractos ricos en compuestos fenólicos y de alimentos ricos en compuestos fenólicos en ratas Wistar. De los estudios in vivo se estableció que los metabolitos fenólicos fueron ampliamente distribuidos alcanzando prácticamente todos los órganos del cuerpo y que la presencia de metabolitos de procianidinas en plasma y su distribución en tejidos fue modulada por la composición de la matriz alimentaria que vehiculizaba a los compuestos fenólicos. Además, se demostró, mediante la comparación de un producto rico y un producto enriquecido en compuestos fenólicos, que la naturaleza de los compuestos fenólicos puede modificar significativamente parámetros farmacocinéticos de los metabolitos fenólicos. Adicionalmente, se demostró, mediante la exposición de los animales durante el embarazo y la lactancia a una dieta rica en fructosa y grasas saturadas, que la dieta pueden modular la capacidad de glucuronidación del hígado sobre los flavonoides en la generación parental y en la generación hija. No obstante, se ha de tener en cuenta que los resultados obtenidos en estudios con animales y en estudios in vitro representan el paso previo a los estudios clínicos y que los resultados obtenidos pueden no ser directamente extrapolables a humanos. Por lo que, los estudios clínicos representan el objetivo final de todo estudio nutricional relacionado con alimentos funcionales. / Phenolic compounds are phytochemicals widely distributed in our diet due to the intake of plant-derived products -e.g. fruits and vegetables, cocoa derivatives, tea, coffee or red wine-. Several beneficial effects have been established related to the intake of dietary phenolic compounds, such as the reduction of the risk of cardiovascular and neurodegenerative diseases, prevention of illnesses related with oxidative stress, or the reduction of some cancers, among others. But less is known about how phenolic compounds act in the body after their ingestion and which phenolic metabolites reach the metabolic targets. This thesis was focus on the evaluation of the bioaccessibility and digestibility of dietary phenolic compounds during the digestion process; and on the study of the absorption, metabolism and tissue distribution of phenolic compounds and their metabolites. To complete with these objectives, (i) the evaluation of the bioaccessibility and digestibility of dietary phenolic compounds by the use of an in vitro digestion system; (ii) the development of an in vitro colonic fermentation model and the evaluation of the colonic fermentation of dietary phenolic compounds (ii) the development of analytical methodologies to quantify polyphenols and their metabolites in biological samples (plasma and tissues) and (iii) the study of the absorption, metabolism and tissue distribution of dietary phenolic compounds (mainly procyanidins and olive oil phenolics) and their metabolites in vivo using rats as an animal model were performed. As a result of the experimental work developed within this dissertation, the stability during the digestion process of dimer and trimerprocyanidins was demonstrated. The colonic metabolic pathways of individual phenolic compounds were successfully established detecting hydroxylated phenolic acids as the main colonic metabolites of flavonoids. Parallel, two chromatographic methods combining off-line solid-phase extraction and ultra-performance liquid chromatography-tandem mass spectrometry (UPLC-MS/MS) were successfully validated for the determination of phenolic compounds and their metabolites in biological samples, which were used to detect and quantify polyphenols and their metabolites in the biological samples obtained as a result of the in vivo acute and chronic studies performed using phenolic extract and polyphenol-rich foods as a polyphenol sources. Derived from the in vivo studies were established that, phenolic metabolites were widely distributed through the body reaching practically all the organs; procyanidin plasmatic bioavailability and tissue distribution were modulated according to the food matrix composition and the intake of phenols by a naturally rich-phenol or by a phenol-enriched food could vary the pharmacokinetic parameters of the phenolic metabolites. Additionally environmental factors, such as the diet, may modulate the hepatic glucuronidation capacity toward flavonoids in the parental and offspring rats, as was demonstrated with an in utero exposure of a high fructose and saturated fat diet.Nonetheless, data from animal and in vitro experiments represent the previous step to the human clinical studies because it may not be readily extrapolatable to humans. So, human clinical studies should be the colophon of all the nutritional studies related with functional foods.
|
32 |
Capacidad de crecimiento de patógenos de transmisión alimentaria en manzana y melocotón mínimamente procesados y nuevas estrategias de intervención para mejorar su seguridad microbiológicaAlegre Vilas, Isabel 13 July 2012 (has links)
En els última anys s’ha popularitzat el consum de fruites i hortalisses mínimament processades o de IV gama ja que ofereixen al consumidor un producte fresc i saludable amb una presentació còmoda i atractiva que s’adapta a l’estil de vida actual. Tot i que tradicionalment les fruites s’han considerat segures gracies al seu baix pH, aquest augment de consum ha comportat un increment de intoxicacions alimentaries associades a fruites i hortalisses mínimament processades. Aquesta tesi pretén, en primer lloc determinar la supervivència i creixement de tres patògens de transmissió alimentària, Escherichia coli O157:H7, Salmonella enterica i Listeria innocua, en pomes i préssecs mínimament processats en funció de la temperatura de conservació, la varietat de la fruita , l'ús d'antioxidants i l'atmosfera d'envasat. A continuació s'estudien possibles estratègies d'intervenció, com a substàncies desinfectants alternatives al hipoclorit sòdic en poma mínimament processada i el control biològic o bioconservació. Finalment, s'avalua la possibilitat d'aplicar un microorganisme probiòtic, Lactobacillus rhamnosus GG en poma mínimament processada i el seu efecte en la dinàmica poblacional de Salmonella spp. i Listeria monocytogenes. / En los últimos años se ha popularizado el consumo de frutas y hortalizas mínimamente procesadas o de IV gama ya que ofrecen al consumidor un producto fresco y saludable con una presentación cómoda y atractiva que se adapta al estilo de vida actual. Aunque tradicionalmente las frutas se han considerado seguras debido a su bajo pH, este aumento de consumo ha provocado un incremento de los casos de toxiinfecciones alimentarias asociados con frutas y hortalizas mínimamente procesadas. Esta tesis pretende, en primer lugar determinar la supervivencia y crecimiento de tres patógenos de transmisión alimentaria, Escherichia coli O157:H7, Salmonella enterica y Listeria innocua, en manzanas y melocotones mínimamente procesados en función de la temperatura de conservación, la variedad de la fruta, el uso de antioxidantes y la atmósfera de envasado. A continuación se estudian posibles estrategias de intervención, como sustancias desinfectantes alternativas al hipoclorito sódico en manzana mínimamente procesada y el control biológico o bioconservación. Por último, se evalúa la posibilidad de aplicar un microorganismo probiótico, Lactobacillus rhamnosus GG en manzana mínimamente procesada y su efecto en la dinámica poblacional de Salmonella spp. y Listeria monocytogenes. / Recently, consumption of minimally processed or fresh-cut fruits and vegetables has risen significantly because they offer a fresh and healthy product with a convenient and attractive presentation that fits perfectly on today's lifestyle. Although fruits have been traditionally considered as safe due to its low pH, this increase in consumption has resulted in increased frequency of outbreaks of illness associated with minimally processed fruits and vegetables. This thesis has two main objectives. First, to determine the survival and growth of three foodborne pathogens, Escherichia coli O157:H7, Salmonella enterica and Listeria innocua on minimally processed apples and peaches depending on the storage temperature, variety of fruit, the use of antioxidants and atmosphere packaging. Then, to study possible intervention strategies as alternatives to chlorine disinfection in minimally processed apple and biological control or biopreservation. Finally, to evaluate the possibility of applying a probiotic microorganism, Lactobacillus rhamnosus GG, to minimally processed apple and its effect on the population dynamics of Salmonella spp. and Listeria monocytogenes.
|
33 |
Algoritmos de ordenación conscientes de la arquitectura y las características de los datosJiménez González, Daniel 02 July 2004 (has links)
En esta tesis analizamos y presentamos algoritmos de ordenación secuencial y paralelo que explotan la jerarquía de memoria del computador usado y/o reducen la comunicación de los datos. Sin embargo, aunque los objetivos de esta tesis son los mismo que los de otros trabajos, la forma de conseguirlos es diferente.En esta tesis los conseguimos haciendo que los algoritmos de ordenación propuestos sean conscientes de la arquitectura del computador y las características de los datos que queremos ordenar.Los conjuntos de datos que consideramos son conjuntos que caben en memoria principal, pero no en memoria cache.Los algoritmos presentados se adaptan, en tiempo de ejecución, a las características de los datos (duplicados, con sesgo, etc.) para evitar pérdidas de rendimiento dependiendo de estas características. Para ello, estos algoritmos realizan un particionado de los datos, utilizando una técnica que llamamos Mutant Reverse Sorting y que presentamos en esta tesis. Mutant Reverse Sorting se adapta dinámicamente a las características de los datos y del computador. Esta técnica analiza una muestra del conjunto de datos a ordenar para seleccionar la forma más rápida de particionar los datos. Esta técnica elige entre Reverse Sorting y Counting Split en función de la distribución de los datos. Estas técnicas también son propuestas en esta tesis. El análisis de estas técnicas, junto con los algoritmos de ordenación presentados, se realiza en un computador IBM basado en módulos p630 con procesadores Power4 y en un computador SGI O2000 con procesadores R10K. En el análisis realizado para ambos computadores se presentan modelos de comportamiento que se comparan con ejecuciones reales.Con todo ello, conseguimos los algoritmos de ordenación secuencial y paralelo más rápidos para las características de los datos y los computadores utilizados. Esto es gracias a que estos algoritmos se adaptan a los computadores y las características de los datos mejor que el resto de algoritmos analizados.Así, por un lado, el algoritmo secuencial propuesto, SKC-Radix sort, consigue unas mejoras de rendimiento de más de 25% comparado con los mejores algoritmos que encontramos en la literatura. Es más, cuanto mayor es el número de duplicados o el sesgo de los datos, mayor es la mejora alcanzada por el SKC-Radix sort.Por otro lado, el algoritmo paralelo presentado, PSKC-Radix sort, es capaz de ordenar hasta 4 veces más datos que Load Balanced Radix sort en la misma cantidad de tiempo. Load Balanced Radix sort era el algoritmo más rápido de ordenación en memoria y en paralelo para los conjunto de datos que ordenamos hasta la publicación de nuestros trabajos. / In this thesis we analyze and propose parallel and sequential sorting algorithms that exploit the memory hierarchy of the computer used and/or reduce the data communication. So, the objectives of this thesis are not different from the objectives of other works. However, the way to achieve those objectives is different.We achieve those objectives by being conscious of the computer architecture and the data characteristics of the data set we want to sort.We have focused on the data sets that fit in main memory but not in cache.So, the sorting algorithms that we present take into account the data characteristics (duplicates, skewed data, etc.) in order to avoid any lose of performance in execution time depending on those characteristics. That is done by partitioning the data set using Mutant Reverse Sorting, which is a partition technique that we propose in this thesis.Mutant Reverse Sorting dynamically adapts to the data characteristics and the computer architecture. This technique analyzes a set of samples of the data set to choose the best way to partition this data set. This chooses between Reverse Sorting and Counting Split, which are selected depending on the data distribution. Those techniques are also proposed in this thesis.The analysis of the partitioning techniques and the sorting algorithms proposed is done in an IBM computer based on p630 nodes with Power4 processors and in a SGI O2000 with R10K processors. Also, we present models of the behavior of the algorithms for those machines.The sequential and parallel algorithms proposed are the fastest for the computer architectures and data set characteristics tested. That is so because those algorithms adapt to the computer architecture and data characteristics better than others.On one hand, the sequential sorting algorithm presented, SKC-Radix sort, achieves performance improvements of more than 25% compared to other sequential algorithms found in the literature. Indeed, the larger the number of duplicates or data skew, the larger the improvement achieved by SKC-Radix sort. On the other hand, the parallel sorting algorithm proposed, PSKC-Radix sort, sorts 4 times the number of keys that Load Balanced Radix can sort in the same amount of time. Load Balanced Radix sort was the fastest in-memory parallel sorting algorithm for the kind of data set we focus on.
|
34 |
Contributions to the continuum modelling of strong discontinuities in two-dimensional solidsSamaniego Alvarado, Esteban 28 March 2003 (has links)
El estudio de la mecánica computacional de fallo ha ganado creciente popularidad en los últimos años. Modelizar el comportamiento poscrítico de estructuras puede alcanzar un grado elevado de complejidad, debido a la multiplicidad de aspectos que es necesario considerar.Desde el punto de vista de la mecánica de medios continuos, el fallo está estrechamente relacionado con la localización de deformaciones. Se dice que un sólido presenta localización de deformaciones cuando existen bandas en las cuales se producen modos de deformación intensos. Este fenómeno ha sido clasificado como una inestabilidad material, ya que está ligado a modelos constitutivos con ablandamiento o con reglas de flujo no asociadas. Un enfoque fenomenológico del problema de localización de deformaciones permite su estudio mediante saltos en el campo de desplazamientos, conocidos como discontinuidades fuertes.Este trabajo propone varias técnicas numéricas que contribuyen a la modelización de discontinuidades fuertes en sólidos bidimensionales dentro del marco de la mecánica de medios continuos. Con este objetivo, se hace una revisión sistemática de los fundamentos teóricos con los cuales se puede emprender el estudio del fallo en estructuras sin salir del ámbito de la mecánica de medios continuos clásica.En primer lugar, mediante el análisis de bifurcación discontinua, se establecen las condiciones necesarias para la aparición de discontinuidades en sólidos. A continuación, se analizan las implicaciones de adoptar la cinemática de discontinuidades fuertes en el contexto de la modelización constitutiva de medios continuos mediante el análisis de discontinuidades fuertes. Establecidas estas herramientas conceptuales, se procede a estudiar una serie de formulaciones de elementos finitos con discontinuidades internas que posibiliten la simulación numérica eficiente de la evolución de interfaces de discontinuidad en sólidos.El marco de trabajo escogido se basa en el planteamiento de las ecuaciones de gobierno del problema de valores de contorno mediante una formulación de varios campos. A partir de un análisis comparativo, se determina que el elemento más eficiente es el conocido como elemento asimétrico. Su uso implica la utilización de algoritmos de trazado del camino de la discontinuidad. Luego de estudiar este tipo de algoritmos, se propone uno que, basado en una analogía con el problema de conducción del calor, permite determinar todos las posibles líneas de discontinuidad para cada paso en un proceso de carga. Este algoritmo es especialmente eficiente para gestionar la evolución de varias líneas de discontinuidad.Se estudian, además, algunos posibles problemas de estabilidad que podrían surgir. La adición de un término viscoso a la ecuación de equilibrio se adopta como solución a las posibles inestabilidades. Finalmente, se presenta una serie de ejemplos que ponen de manifiesto la potencia de las técnicas propuestas. / The study of Computational Failure Mechanics has attracted increasing attention over the past years. Modelling the postcritical behaviour of structures is by no means trivial, due to high level of complexity that it can reach . From the continuum mechanics point of view, failure is tightly related to strain localization. When bands with modes of intense deformation are observed in a solid, it is said to undergo strain localization. It has been classified as a material instability due to its close relationship with constitutive models either equipped with strain softening or having non-associative flow rules. From a phenomenological standpoint, strain localization can be regarded as an interface where a jump in the displacement field develops. These jumps in the displacement field are termed strong discontinuities. In this work, several techniques that contribute to the continuum modelling of strong discontinuities in two-dimensional solids are proposed.To this end, a systematic review of the fundamentals of the study of failure in solids within the context of Classical Continuum Mechanics is made. First, the necessary conditions for the appearance of discontinuities in solids are established by using the socalled discontinuous bifurcation analysis. Then, the implications of adopting the strong discontinuity kinematics plus the use of continuum constitutive models are studied by means of the so-called strong discontinuity analysis. With these concepts on hand, the study of finite elements with embedded discontinuities is undertaken. A very general multi-field statement of the governing equations of the boundary value problem is used as the framework to formulate the different families of elements. The comparative analysis of all the formulations leads to the conclusion that the so-called non-symmetric element is the most efficient. However, the use of this element entails the necessity of a tracking algorithm. This kind of algorithms are also studied. A tracking algorithm based on a heat-conduction-like boundary value problem that gives all the possible discontinuity lines for a given time step in a loading process is proposed. This algorithm is specially suitable for managing multiple discontinuity interfaces. The problems of stability and uniqueness that can appear when simulating the evolution of discontinuity interfaces are analyzed and the addition of a regularizing damping term to the momentum balance equation was proposed. Finally, the proposed techniques were tested by means of some numerical examples.
|
35 |
Cooperación entre la aplicación y el kernel para la planificación de flujos, en sistemas multiprocesadores, como soporte al paralelismoGil Gómez, Maria Luisa 04 July 1994 (has links)
El objetivo de nuestro trabajo ha sido defender la tesis de que, para los entornos de trabajos actuales, multiprocesador, una opción válida para obtener el mejor rendimiento de las aplicaciones paralelas de propósito general es conseguir que el kernel y la propia aplicación cooperen en la gestión de los recursos.El estudio abarca a la aplicación en su conjunto, con todas sus partes, en cuya ejecución el sistema operativo toma una parte activa y decisoria. Y nos hemos centrado en aplicaciones paralelas multiflujo de granularidad media.Hemos diseñado y realizado un entorno de trabajo basándonos en la tecnología microker-nel en el que ofrecemos un nuevo sistema de planificación.A partir de políticas de planificación de particionado de la máquina, hemos aislado a las aplicaciones, unas de otras, y hemos habilitado que en cada partición el usuario pueda decidir qué política de planificación y qué quantums y recálculo de prioridades quiere. Con ello conseguimos, por un lado, que cada aplicación pueda ajustar la planificación que mejor rendimiento le suponga.Por otro, que no queden afectadas unas por el funcionamiento de otras.A partir de la abstracción de procesador virtual, dotamos a la aplicación de la capacidad de gestionar la planificación de sus propios flujos, mediante la nueva abstracción "contexto de eje-cución" (eXc) que el kernel ofrece a la aplicación para que pueda ejecutar un flujo en cada uno de los procesadores físicos que le ha asignado. En este nuevo entorno el kernel puede comunicar de manera asíncrona con la aplicación, transmitiéndole los eventos que puedan afectar a ésta para decidir una replanificación en sus flujos. En concreto, el bloqueo/desbloqueo de flujos, la asigna-ción/desasignación de procesadores físicos y un temporizador para poder disponer del dispositivo reloj a nivel de aplicación. Se han resuelto los problemas de desbanque de flujos dentro de exclusiones mutuas gracias a unas nuevas primitivas de sincronización que evitan el abrazo mortal.Con nuestra realización de paso de gestión de flujos del kernel a la aplicación, además de aumentar el throughput en un orden de magnitud, ganamos tiempo de ejecución para otros flujos de la aplicación.La plataforma de desarrollo ha sido un multiprocesador de memoria compartida sobre el que hemos modificado el microkernel Mach 3.0, con el entorno operativo OSF/1 MK y la librería de threads de usuario CThreads, modificada igualmente para enriquecer y potenciar la parte de planificación de flujos. / The goal of this thesis is to show that it is possible to achieve a better parallel application perfor-mance in multiprocessor operating environments when the kernel and the application cooperate in the resource management.The study includes the whole application, in addition to the components whose manage-ment is mainly supported by the operating system. The selected applications for study are medium grain parallelism applications (ie. servers, subsystems, virtual machines,...).Our work includes a design and implementation of an operating environment in the micro-kernel technology with a new scheduling approach.We have implemented space sharing scheduling policies to isolate applications insidemachine partitions; each partition has its own scheduling policy and the user can modify priorities, quantums and policies in his application partition. This approach allows each application to adjust and tune its own scheduling to achieve the better performance it would. Also it permits to protect applications from the other applications faults.We propose a new abstraction: the eXecution context (eXc) as the processor virtual object that allows the application to manage its threads. The eXc are offered by the kernel to the application to run threads in the physical processors that the kernel gives to the application.The kernel communicates to the application, in an asynchronous way, the events thatcould lead to a rescheduling of its threads. This events are: thread blocked/unblocked, physical processor allocated/deallocated and the clock, to have the possibility of timeouts at application level.New synchronization primitives prevent the deadlock problem when there may be a thread preemption in a mutex area.Our implementation overcomes throughput in one order of magnitude and also has a gain in the execution time for the other application threads.This work has been implemented in a shared memory multiprocessor. We have modified the Mach 3.0 microkernel, the OSF/1 MK operating environment and the CThreads library. This library has been also modified to offer more complete scheduling policies and synchronization mechanisms.
|
36 |
Tecnologia postcollita de l'avellana. Assecatge i frigoconservació de l'avellana, Corylus avellana L.Piqué Ferré, Maria Teresa 19 September 1995 (has links)
L'assecatge i emmagatzematge de l'avellana són processos molt importants en latecnologia postcollita de l'avellana que poden influir en la seva qualitat i idoneïtat per alconsum. Aquesta Tesi estudia la cinètica d'assecatge i la influència de les condicionsd'assecatge i frigoconservació sobre la qualitat de l'avellana; prèviament, però, es fa un estudidel comportament higroscopio de l'avellana.Per a l'estudi del comportament higroscòpic de l'avellana s'han determinat les corbesde rehidratació i les isotermes d'humitat d'equilibri a diferents temperatures. L'equació dePeleg dóna un bon ajust a les corbes de rehidratació; mentre que dels diferents modelsmatemàtics als que s'han ajustat les dades experimentals d'humitat d'equilibri, l'equació deG.A.B. és la que prediu millor les isotermes d'humitat d'equilibri de l'avellana.L'estudi de la influència de les condicions de frigoconservació sobre la qualitat del'avellana en gra s'ha fet emmagatzemant, durant un any, mostres d'avellana de les varietatsNegret, Pauetet i Tonda Romana a temperatures entre 0°C i 10°C i a humitats relatives de40% i 60%. Per avaluar la qualitat de l'avellana emmagatzemada s'ha determinat l'índexd'acidesa, els coeficients d'extinció K232 i K270, el període d'inducció, l'activitat dels enzimslipasa, peroxidasa i polifenoloxidasa, l'evolució del color i l'acceptació organoléptica del'avellana. Els resultats obtinguts posen de manifest que la conservació de l'avellana enaquestes condicions de frigoconservació és bona.Per a l'estudi de la influència de les condicions d'assecatge sobre la qualitat del'avellana s'han realitzat experiències d'assecat amb avellana de la varietat Negt'et en gra i enclosca i amb avellana de la varietat Pauetet en gra, a temperatures entre 30°C i 80°C, i s'hadeterminat el grau d'alteració de la fracció lipídica i l'evolució del color de l'avellana. Elsresultats obtinguts indiquen que les temperatures d'assecat superiors a 50°C afavoreixen eldesenvolupament dels enranciments hidrolític i oxidatiu.En darrer terme, s'ha estudiat la cinètica d'assecat de l'avellana ajustant les corbesd'assecat en capa prima a diferents equacions. També s'ha realitzat la validació de l'algoritmede simulació de l'assecat d'avellana en llit profund que utilitza el model de Nellist i l'equacióde velocitat d'assecat de Page, mitjançant la realització d'experiències d'assecat industriald'avellana.
|
37 |
Speculative multithreaded processorsMarcuello Pascual, Pedro 22 July 2003 (has links)
En esta tesis se estudia el modelo de ejecución de los procesadores multithreaded especulativos así como los requisitos necesarios para su implementación. El modelo de ejecución se basa en la inserción de instrucciones de spawn dentro del código secuencial. De esta manera, la ejecución de un programa en estos procesadores es similar a cualquier otro hasta que se encuentra con un punto de spawn. Entonces, se crea un nuevo thread especulativo en el punto indicado por la instrucción de spawn y ambos threads se ejecutan en paralelo. Cuanto el thread creador llega al punto inicial del thread especulativo, se ha de verificar si la especulación ha sido correcta. En ese caso, el contexto del thread no especulativo se gradúa y se libera para uso futuro de más threads especulativos. En caso de que la verificación no haya sido correcta, se recupera el estado correcto. En este modelo de ejecución siempre hay un thread no especulativo y puede haber múltiples threads especulativos.Para soportar este modelo de ejecución, se necesita: i) hardware capaz de crear y gestionar threads especulativo y ii) un mecanismo de particionado para dividir los programas en threads especulativos. Se han estudiado varias plataformas para gestionar threads de forma concurrente. Por un lado, los procesadores clustered se benefician de menores retardos, menor potencia consumida y una menor complejidad aunque las latencias de comunicación sean mayores. Por otro lado, las arquitecturas centralizadas se benefician del hecho de compartir recursos y menor latencia de comunicación, pero la complejidad del hardware es mucho mayor. En cualquier caso, el hardware ha de ser capaz de ejecutar múltiples threads simultáneamente con el inconveniente de que algunos valores van a tener que compartirse mientras que otros son copias privadas. Es decir, el procesador deberá ser capaz de gestionar múltiples versiones de un mismo registro o posición de memoria para cada uno de los threads que se estén ejecutando.Además, se ha puesto especial énfasis en la gestión de las dependencias de datos entre los threads especulativos ya que tienen un impacto muy importante en el rendimiento del procesador. Encontrar threads independientes es casi imposible en aplicaciones irregulares, por tanto los threads especulativos necesitarán de valores producidos por otros threads especulativos. Se han estudiado dos mecanismos: sincronizar el thread productor y el thread consumidor y predecir los valores dependientes. En el primer caso, se han propuesto mecanismos para pasar el valor tan pronto como ha sido producido del productor al consumidor, especialmente en el caso de valores de memoria. Por otro lado, el segundo modelo es mucho más atrayente ya que si todos los valores dependientes fueran predichos de forma correcta, los threads pasarían a ejecutarse de forma independiente. Se han evaluado múltiples predictores de valores propuestos en la literatura y se ha presentado un nuevo predictor especialmente pensado para este tipo de arquitecturas que es el predictor de incremento. Este predictor usa la información de control de los threads especulativos para predecir los valores y los resultados obtenidos son muy prometedores aún con tamaños muy reducidos del predictor. Finalmente, el particionado de las aplicaciones afecta al rendimiento de este tipo de procesadores. Se han propuesto y evaluado varios esquemas de particionado. Una familia de estos esquemas asigna threads especulativos a construcciones de programa que por si solas proporcionan cierta independencia de control. Políticas de esta familia son aquellas que crean threads especulativos en iteraciones de bucles, continuaciones de bucles y continuaciones de subrutinas. La segunda familia de esquemas de particionadose ayuda de un análisis basado en profiling para encontrar las parejas de spawn más idóneas para cada uno de los códigos. De esta manera, aquellas partes del programa que cumplan las mejores características se seleccionan para crear threads especulativos. Algunos criterios de selección que han sido considerados en esta tesis han sido: la independencia de control, el tamaño mínimo de los threads, la independencia de datos y su predictabilidad. Los resultados obtenidos por ambas familias han sido muy significativos, aunque el esquema basado en técnicas de profile mejora los resultados obtenidos por la otra familia.
|
38 |
Traffic Management of the ABR. Service Category in ATM NetworksCerdà Alabern, Llorenç 13 January 2000 (has links)
Data traffic has emerged as a big challenge for the standardization of traffic management mechanisms in ATM networks. In April 1996 the ATM Forum published the first version of the Available Bit Rate Service Category (ABR) to give support to this kind of traffic. ABR was designed with ambitious objectives: high network efficiency, fairness and inter-operability of different ABR switch mechanisms.The major part of this PhD Thesis has been devoted to ABR. Instead of focusing on one aspect of ABR, the main research topics involved in ABR have been covered, namely: (i) switching mechanisms, (ii) conformance definition, (iii) charging, (iv) ABR support to TCP traffic. In the following the main conclusions are summarized. Maybe, switch algorithms have been the most investigated topic of ABR. This has happened because the specification of ABR given by the ATM Forum allows a diversity of switch algorithms to be implemented. These range from the simplest binary switches to the more complex ER switches. In the PhD Thesis three of these switch algorithms are analyzed by means of simulation, showing the different degree of performance and complexity that can be achieved. The behavior of ER switches is also analyzed by means of real traces obtained with a commercial ER switch. The conformance definition is the formalism established to decide whether the source transmits according to the traffic contract. The conformance algorithm standardized for ABR is the Dynamic Generic Cell Rate Algorithm (DGCRA). The PhD Thesis gives a detailed description of the DGCRA. Furthermore, traces obtained by simulation are depicted showing that the algorithm given by the ATM Forum has a decreasing accuracy of the rate conformance with increasing feedback delay. A "UPC based on the CCR" is proposed to solve this drawback. The parameter dimensioning of the DGCRA is addressed in the PhD Thesis by means of two analytical approaches. Numerical results calculated with the analytical models are also obtained by simulation for validation. The analytical approaches are based on a novel queuing model of the DGCRA. The first analytical approach is based on a renewal assumption of the cell inter-arrival process at the UPC. This approach gives a simple but coarse approximation of the cell rejection probability at the UPC. The second analytical method consists of a Markov chain that accurately describes the stochastic variables involved in the queuing model of the DGCRA. The Markov chain is solved applying the matrix geometric technique. The complexity of this mathematical approach only allows investigating a simple network topology. However, the accuracy of the model allows taking into account the influence of the delay bounds that are negotiated with the DGCRA. This study shows that a major degradation of the cell rejection probability may be obtained if these delay bounds are not properly set. Another issue investigated in the PhD Thesis is the charging of ABR. Charging may have a decisive impact on the deployment, success and growth of a network. In fact, the research community has paid a great attention to this topic in recent years. Furthermore, pricing may be an essential condition for the users when submitting traffic. Some authors have used this fact to propose congestion control mechanisms based on a dynamic pricing. In such schemes, prices vary according to the demand of network resources by the sources. New prices are conveyed to the sources by means of a feedback mechanism. This charging scheme seems to fit well with ABR, since the RM-cells can be used to dynamically communicate the prices. In the PhD Thesis a dynamic pricing scheme is proposed and an analytical model is used to find out the evolution of the prices. Additionally, several charging schemes are confronted by simulation. This comparison shows that the dynamic pricing gives the best expected charging. Finally, the support of ABR to the traffic generated with the TCP protocol used in the Internet is investigated by simulation. Currently, the data communications are dominated by the Internet traffic transported by a variety of networks. The deployment of ATM technology has been located in the backbone networks and the end-to-end ATM systems appear remote. In fact, it is not clear whether the universal multi-service network will be built on the Internet rather than the B-ISDN. Simulations performed in the PhD Thesis confront the transport of TCP traffic in different scenarios using ABR and the simpler UBR Service Category. The main conclusion is that ABR can solve the severe fairness problems that can arise using UBR.
|
39 |
Power- and Performance - Aware ArchitecturesCanal Corretger, Ramon 14 June 2004 (has links)
The scaling of silicon technology has been ongoing for over forty years. We are on the way to commercializing devices having a minimum feature size of one-tenth of a micron. The push for miniaturization comes from the demand for higher functionality and higher performance at a lower cost. As a result, successively higher levels of integration have been driving up the power consumption of chips. Today, heat removal and power distribution are at the forefront of the problems faced by chip designers.In recent years portability has become important. Historically, portable applications were characterized by low throughput requirements such as for a wristwatch. This is no longer true.Among the new portable applications are hand-held multimedia terminals with video display and capture, audio reproduction and capture, voice recognition, and handwriting recognition capabilities. These capabilities call for a tremendous amount of computational capacity. This computational capacity has to be realized with very low power requirements in order for the battery to have a satisfactory life span. This thesis is an attempt to provide microarchitecture and compiler techniques for low-power chips with high-computational capacity.The first part of this work presents some schemes for reducing the complexity of the issue logic. The issue logic has become one of the main sources of energy consumption in recent years. The inherent associative look-up and the size of the structures (crucial for exploiting ILP), have led the issue logic to a significant energy budget. The techniques presented in this work eliminate or reduce the associative logic by determining producer-consumer relationships between the instructions or by scheduling the instructions according to the latency of the operations.An important effort has been deployed to reduce the energy requirements and the power dissipation through novel mechanisms based on value compression. As a result, the second part of this thesis introduces several ultra-low power and high-end processor designs. First, the design space for ultra-low power processors is explored. Several designs are developed (at the architectural level) from scratch that exploit value compression at all levels of the data-path. Second, value compression for high-performance processors is proposed and evaluated. At the end of this thesis, two compile-time techniques are presented that show how the compiler can help in reducing the energy consumption. By means of a static analysis of the program code or through profiling, the compiler is able to know the size of the operands involved in the computation. Through these analyses, the compiler is able to use narrower operations (i.e. a 64-bit addition can be converted to an 8-bit addition due to the information of the size of the operands).Overall, this thesis compromises the detailed study of one of the most power hungry units in a processor (the issue logic) and the use of value compression (through hardware and software) as a mean to reduce the energy consumption in all the stages of the pipeline.
|
40 |
Proveïment de QoS en xarxes de paquets òptiques per a entorns d'àrea metropolitana i de gran abastCareglio, Davide 15 February 2005 (has links)
El gran crecimiento y expansión de Internet en los últimos años, con el consecuente incremento de usuarios y tráfico, ha hecho que aumente la necesidad de ancho de banda en las redes de telecomunicación actuales. El desafío de la futura generación de redes de telecomunicación punta a pasar de la simple transmisión de señales ópticas de gran capacidad a efectivamente conmutar y gestionar esta cantidad de datos en el domino óptico. Estas funcionalidades, actualmente realizadas por componentes eléctricos, son las que actualmente causan un cuello de botella en la escalabilidad y crecimiento de Internet. Por otro lado, se espera que las futuras redes transporten servicios heterogéneos que incluyen tanto transferencia de datos como transmisión de aplicaciones multimedia e interactivas. Cada servicio por lo tanto necesita un requerimiento y tratamiento particular (por ejemplo garantir un limite en el retraso extremo-extremo o en el ancho de banda). En este entorno, proporcionar calidad de servicio (Quality of Service, QoS) resulta ser un factor obligatorio. En este ámbito el objetivo de esta tesis es el desarrollo de nuevos mecanismos para proporcionar QoS en redes de conmutación de paquetes ópticos (Optical Packet Switching, OPS) tanto en entorno metropolitano como de área extendida. OPS pretende ser una solución a largo plazo en cuanto requiere conmutadores de alta velocidad y componentes ópticos avanzados como los conversores sintonizables de longitud de onda y regeneradores completamente ópticos. Por lo que concierne el entorno metropolitano, las redes son generalmente sin memoria, en el sentido que una vez transmitida la información a la red, esa se queda en el dominio óptico sin encontrar ninguna cola en el camino hasta alcanzar su destino. Para evitar contenciones, protocolos de acceso al medio compartido (Medium Access Control, MAC) son necesarios y pueden integrase con mecanismos para proporcionar QoS. De este concepto se pueden diseñar varias arquitecturas distintas. En esta tesis nos concentramos en dos arquitecturas basadas en topologías compuestas, llamadas respectivamente redes multi-PON y redes multi-anillos. Ambas han sido desarrolladas en el proyecto de investigación DAVID financiado por la Unión Europea dentro del quinto programa marco. Nuestras contribuciones abarcan varios aspectos. Antes de todos se han identificado los requerimientos de las futuras redes metropolitanas basadas en OPS, con particular atención en determinar los servicios necesarios de acuerdo con lo que se ha diseñado en la anterior generación eléctrica de redes metropolitanas. Luego para ambas redes se ha seguido el mismo procedimiento. La primera etapa ha sido la evaluación de prestaciones a través de simulaciones con el objetivo de identificar los puntos débiles. Se ha luego pasado a la fase de optimización tanto de la arquitectura de las redes como de los mecanismos que gobiernan su funcionamiento y se han verificado las mejoras. Finalmente se han propuesto mecanismos para proporcionar QoS según los requerimientos definidos anteriormente y se ha hecho un estudio de coste/prestaciones comparando las dos arquitecturas con otras actualmente en comercio como SDH, RPR y Ethernet.Por lo que concierne el entorno de área extendida, se ha considerado una red de conmutación de paquetes ópticos orientado a la conexión donde los nodos tienen limitadas capacidad de encolamiento. En este contexto, se han tratado dos problemáticas: el establecimiento de las conexiones virtuales ópticas (Optical Virtual Circuit, OVC) configurando propiamente las tablas de expedición (forwarding table) en los nodos y la provisión de QoS.Para el primer punto, a la llegada de una petición de establecimiento de una nueva OVC, cada nodo debe asignar un puerto y una longitud de onda de salida a esta OVC. Mientras la elección del puerto de salida depende de los algoritmos de routing, la elección de la longitud de onda se puede decidir localmente en cada nodo según diferente políticas llamadas OVC-to-wavelength setup assignment (OWSA). En esta parte de la tesis se ha estudiado en detalle este problema y se han propuesto diferentes estrategias. En particular se ha demostrado que una buena política de asignación de longitud de onda incrementa notablemente la prestación de un conmutador OPS. Se ha usado la idea de agrupar, siempre que se pueda, los flujos de tráfico que entran en el conmutador por el mismo puerto y misma longitud de onda de manera de disminuir lo máximo posible la probabilidad de convención entre paquetes. Por lo que concierne proporcionar QoS, el estado del arte indica que hasta el momento se ha siempre seguido la misma técnica basada en: 1) diseñar un algoritmo de resolución de contenciones que minimice la probabilidad de pérdidas de paquetes (Packet Loss Rate, PLR) y luego 2) aplicar un mecanismo de reserva de recursos capaz de diferenciar la PLR entre dos o mas clases de tráfico. Considerando que el entorno de estudio es orientado a la conexión, se ha propuesto un enfoque diferente basado en el esquema aplicado en redes ATM donde se definen diferentes categorías de servicio, cada una con su propio tratamiento dentro de la red. En particular se han definido 3 categorías de servicio para entorno OPS y se han desarrollado 3 algoritmos de resolución de contenciones, cada uno pensado para proporcionar el servicio requerido. Con esta técnica, además de controlar la PLR, también se pueden considerar el retraso y la complejidad computacional como métricas QoS.
|
Page generated in 0.1068 seconds