Spelling suggestions: "subject:"refuerzo"" "subject:"refuerzos""
21 |
Sistemas cannabinoide y purinérgico: posibles sustratos neurobiológicos de la drogadicciónSoria Rodríguez, Guadalupe 21 June 2006 (has links)
La adicción es un trastorno crónico de la conducta caracterizado por la búsqueda y el consumo compulsivos de la droga, la pérdida de control para limitar dicho consumo, a aparición de un estado emocional negativo cuando el acceso a la droga está impedido y la recaída en el proceso incluso tras largos períodos de abstinencia. El sistema dopaminérgico mesolímbico cortical ha sido propuesto como la principal base neurobiológica de la adicción, sin embargo existen otros sistemas de neurotransmision que participan en la consolidación del proceso adictivo.El sistema endocannabinoide, a traves del receptor CB1, participa en las propiedades adictivas de diferentes drogas de abuso como el delta9-tetrahidrocannabinol, la nicotina y la morfina. Sin embargo, hasta el momento de iniciar este trabajo, pocos estudios han demostrado una clara implicación del sistema endocannabinoide en las propiedades reforzantes de los psicoestimulantes. Mediante el uso de ratones CB1 knockout, hemos demostrado que el receptor CB1 participa en la eficacia reforzante de la cocaína. Además, la presencia de dicho receptor es necesaria para los procesos de consolidación de una conducta operante mantenida por la autoadministración de cocaína. Este estudio demuestra la importancia de dicho receptor CB1 en las propiedades adictivas de la cocaína, confirmando que el sistema endocannabinoide es un sustrato común para la adicción de drogas de abuso. Por otra parte, el sistema purinérgico modula numerosos sistemas de neurotransmisión en el SNC. La estrecha relación a nivel celular y funcional entre los receptores de adenosina y los receptores dopaminérgicos proporciona evidencias de que el sistema purinérgico podría modular los sistemas de recompensa. Utilizando diferentes modelos animales, hemos demostrado que los receptores de adenosina A2A son necesarios para que las propiedades adictivas de las drogas de abuso como los cannabinoides, los opioides, la nicotina y los psicoestimulantes se produzcan de un modo completo.Nuestros estudios nos permiten afirmar que ambos sistemas, el cannabinoide y el purinérgico podría suponer la existencia de nuevos sistemas de modulación común de los procesos adictivos. Asi, sería de gran interés desarrollar nuevas estrategias de bloqueo de los receptores A2A y CB1 para atenuar e incluso prevenir el desarrollo de la adicción. / Drug addiction is a chronically relapsing disorder that is defined by a compulsion to take the drug intake, a loss of control in limiting intake and a withdrawal-negative affect state when the access to the drug is interrupted. Mesolimbic dopaminergic system has been proposed as a fundamental neurobiological substrate for drug addiction. However, there is evidence for other neurotransmitter systems involved in the consolidation of the addictive process. The endocannabinoid system, through the activation of CB1 receptor, participates in the addictive properties of different drugs of abuse such as delta9-tetrahydrocannabinol, morphine and nicotine. Nevertheless, few studies have revealed an important implication of CB1 receptor in the reinforcing properties of psychostimulants. By using CB1 knockout mice, we have demonstrated that CB1 receptor participates in the reinforcing efficacy of cocaine. Moreover, this receptor is necessary for the consolidation processes involved in cocaine maintained intravenous self-administration. Therefore, this study reveals an essential role of CB1 receptor in cocaine addictive properties, confirming that the endocannabinoid system is a common substrate of addiction to drugs of abuse.On the other hand, the purinergic system modulates different neurotransmitter systems in the CNS. Adenosine receptors are closely related to dopaminergic receptors at both cellular and functional levels, suggesting that purinergic system could modulate the reward systems. By using different animal models, we have demonstrated that A2A adenosine receptors are necessary for the development of the addictive properties of drugs of abuse such as opioids, cannabinoids, nicotine and cocaine. Our studies suggest that both cannabinoid and purinergic systems could represent new and common modulatory systems of addictive processes. Thus, it would be of interest to develop new therapeutic targets blocking CB1 and A2A receptors to attenuate the development of addiction.
|
22 |
A proposal of a behavior-based control architecture with reinforcement learning for an autonomous underwater robotCarreras Pérez, Marc 16 September 2003 (has links)
Aquesta tesi proposa l'ús d'un seguit de tècniques pel control a alt nivell d'un robot autònom i també per l'aprenentatge automàtic de comportaments. L'objectiu principal de la tesis fou el de dotar d'intel·ligència als robots autònoms que han d'acomplir unes missions determinades en entorns desconeguts i no estructurats. Una de les premisses tingudes en compte en tots els passos d'aquesta tesis va ser la selecció d'aquelles tècniques que poguessin ésser aplicades en temps real, i demostrar-ne el seu funcionament amb experiments reals. El camp d'aplicació de tots els experiments es la robòtica submarina.En una primera part, la tesis es centra en el disseny d'una arquitectura de control que ha de permetre l'assoliment d'una missió prèviament definida. En particular, la tesis proposa l'ús de les arquitectures de control basades en comportaments per a l'assoliment de cada una de les tasques que composen la totalitat de la missió. Una arquitectura d'aquest tipus està formada per un conjunt independent de comportaments, els quals representen diferents intencions del robot (ex.: "anar a una posició", "evitar obstacles",...). Es presenta una recerca bibliogràfica sobre aquest camp i alhora es mostren els resultats d'aplicar quatre de les arquitectures basades en comportaments més representatives a una tasca concreta. De l'anàlisi dels resultats se'n deriva que un dels factors que més influeixen en el rendiment d'aquestes arquitectures, és la metodologia emprada per coordinar les respostes dels comportaments. Per una banda, la coordinació competitiva és aquella en que només un dels comportaments controla el robot. Per altra banda, en la coordinació cooperativa el control del robot és realitza a partir d'una fusió de totes les respostes dels comportaments actius. La tesis, proposa un esquema híbrid d'arquitectura capaç de beneficiar-se dels principals avantatges d'ambdues metodologies.En una segona part, la tesis proposa la utilització de l'aprenentatge per reforç per aprendre l'estructura interna dels comportaments. Aquest tipus d'aprenentatge és adequat per entorns desconeguts i el procés d'aprenentatge es realitza al mateix temps que el robot està explorant l'entorn. La tesis presenta també un estat de l'art d'aquest camp, en el que es detallen els principals problemes que apareixen en utilitzar els algoritmes d'aprenentatge per reforç en aplicacions reals, com la robòtica. El problema de la generalització és un dels que més influeix i consisteix en permetre l'ús de variables continues sense augmentar substancialment el temps de convergència. Després de descriure breument les principals metodologies per generalitzar, la tesis proposa l'ús d'una xarxa neural combinada amb l'algoritme d'aprenentatge per reforç Q_learning. Aquesta combinació proporciona una gran capacitat de generalització i una molt bona disposició per aprendre en tasques de robòtica amb exigències de temps real. No obstant, les xarxes neurals són aproximadors de funcions no-locals, el que significa que en treballar amb un conjunt de dades no homogeni es produeix una interferència: aprendre en un subconjunt de l'espai significa desaprendre en la resta de l'espai. El problema de la interferència afecta de manera directa en robòtica, ja que l'exploració de l'espai es realitza sempre localment. L'algoritme proposat en la tesi té en compte aquest problema i manté una base de dades representativa de totes les zones explorades. Així doncs, totes les mostres de la base de dades s'utilitzen per actualitzar la xarxa neural, i per tant, l'aprenentatge és homogeni.Finalment, la tesi presenta els resultats obtinguts amb la arquitectura de control basada en comportaments i l'algoritme d'aprenentatge per reforç. Els experiments es realitzen amb el robot URIS, desenvolupat a la Universitat de Girona, i el comportament après és el seguiment d'un objecte mitjançant visió per computador. La tesi detalla tots els dispositius desenvolupats pels experiments així com les característiques del propi robot submarí. Els resultats obtinguts demostren la idoneïtat de les propostes en permetre l'aprenentatge del comportament en temps real. En un segon apartat de resultats es demostra la capacitat de generalització de l'algoritme d'aprenentatge mitjançant el "benchmark" del "cotxe i la muntanya". Els resultats obtinguts en aquest problema milloren els resultats d'altres metodologies, demostrant la millor capacitat de generalització de les xarxes neurals.
|
23 |
Neurodynamical modeling of arbitrary visuomotor tasksLoh, Marco 11 February 2008 (has links)
El aprendizaje visuomotor condicional es un paradigma en el que las asociaciones estímulo-respuesta se aprenden a través de una recompensa. Un experimento típico se desarrolla de la siguiente forma: cuando se presenta un estímulo a un sujeto, éste debe decidir qué acción realizar de entre un conjunto. Una vez seleccionada la acción, el sujeto recibirá una recompensa en el caso de que la acción escogida sea correcta. En este tipo de tareas interactúan distintas regiones cerebrales, entre las que destacan el córtex prefrontal, el córtex premotor, el hipocampo y los ganglios basales. El objetivo de este proyecto consiste en estudiar la dinámica neuronal subyacente a esta clase de tareas a través de modelos computacionales. Proponemos el término processing pathway para describir cómo ejecuta esta tarea el cerebro y explicar los roles e interacciones entre las distintas áreas cerebrales. Además, tratamos el procesamiento anómalo en una hipótesis neurodinámica de la esquizofrenia. / Conditional visuomotor learning is a paradigm in which stimulus-response associations are learned upon reward feedback. A typical experiment is as follows: Upon a stimulus presentation, a subject has to decide which action to choose among a number of actions. After an action is selected, the subject receives reward if the action was correct. Several interacting brain regions work together to perform this task, most prominently the prefrontal cortex, the premotor cortex, the hippocampus, and the basal ganglia. Using computational modeling, we analyze and discuss the neurodynamics underlying this task. We propose the term processing pathway to describe how the brain performs this task and detail the roles and interactions of the brain regions. In addition, we address aberrant processing in a neurodynamical hypothesis of schizophrenia.
|
24 |
[en] ADAPTIVE ROUTING IN DATA COMMUNICATION NETWORKS THROUGH REINFORCEMENT LEARNING / [pt] ROTEAMENTO ADAPTATIVO EM REDES DE COMUNICAÇÃO DE DADOS POR REINFORCEMENT LEARNING / [es] RUTEAMIENTO ADAPTATIVO EN REDES DE COMUNICACIÓN DE DATOR POR REINFORCEMENT LEARNINGYVAN JESUS TUPAC VALDIVIA 13 March 2001 (has links)
[pt] Esta dissertação investiga a aplicação dos métodos de
Reinforcement Learning na descoberta de rotas ótimas em uma
rede de comunicação. Uma rede de comunicação real possui um
comportamento dinâmico, mudando seu estado com o tempo. Os
algoritmos de roteamento devem, portanto, oferecer rapidez
na resposta às mudanças do estado da rede. O objetivo do
trabalho é avaliar a aplicação de técnicas de Reinforcement
Learning (RL) como base de algoritmos adaptativos de
roteamento de pacotes. O problema de roteamento de pacotes
sob a visão de RL consiste na definição de cada nó na rede
como um agente RL, sendo que este agente deve definir ações
de forma a minimizar uma função objetivo que pode ser o
tempo de roteamento dos pacotes. Um dos objetivos do RL é
precisamente aprender a tomar as ações que minimizem uma
função. O trabalho consistiu de 4 etapas principais: um
estudo sobre a área de Reinforcement Learning (RL); um
estudo sobre a área de redes de comunicação e roteamento de
pacotes; a modelagem do problema de roteamento como um
sistema RL e implementação de diferentes métodos de RL para
obter algoritmos de roteamento; e o estudo de casos.
O estudo na área de Reinforcement Learning abrangeu desde
as definições mais fundamentais: suas características, os
elementos de um sistema RL e modelagem do ambiente como um
Processo de Decisão de Markov, até os métodos básicos de
solução: Programação Dinâmica, método de Monte Carlo, e o
método de Diferenças Temporais. Neste último método, foram
considerados dois algoritmos específicos: TD e Q-Learning.
Em seguida, foi avaliado o parâmetro Eligibility Traces
como uma alternativa para apressar o processo de
aprendizado, obtendo o TD(lambda) e o Q(lambda)
respectivamente. O estudo sobre Redes de Comunicação e
Roteamento de pacotes envolveu os conceitos básicos de
redes de comunicações, comutação por pacotes, a questão do
roteamento de pacotes e os algoritmos existentes
adaptativos e não adaptativos, que são utilizados na
atualidade. Nas redes de comunicação, definidas como um
conjunto de nós ligados através de enlaces de comunicação,
para se enviar uma mensagem de um nó a outro, geralmente, a
mensagem é quebrada em pedaços, chamados pacotes, e
enviados através de outros nós, até chegar ao destino.
Deste modo surge o problema de escolher os nós que levem o
pacote o mais rápido possível até o nó destino. Os
algoritmos analisados foram: Shortest Path Routing que
procura os caminhos com menor número de nós
intermediários, não sendo sensível às mudanças na carga nem
na topologia da rede; Weighted Shortest Path Routing, que
oferece um melhor desempenho a partir de uma visão global
do estado da rede, que nem sempre é fácil de obter em redes
reais e o algoritmo de Bellman-Ford, baseado em decisões de
roteamento locais e atualizações periódicas, com algumas
limitações para obter políticas em altas cargas. Este
último é um dos algoritmos mais utilizados na atualidade,
sendo base de muitos protocolos de roteamento existentes.
A modelagem do problema de roteamento como um sistema RL
foi inspirada por uma característica na definição de um
sistema RL: um agente que interage com o ambiente e aprende
a atingir um objetivo. Assim, a modelagem dos algoritmos
tem como objetivo aprender a descobrir as rotas que
minimizem o tempo de roteamento de pacotes desde uma origem
até um dado destino. A avaliação de uma rota escolhida não
pode ser obtida antes que o pacote alcance o seu destino
final. Este fato faz com que os processos de aprendizado
supervisionado tenham dificuldade de se aplicar a esse
problema. Por outro lado, o Reinforcement Learning não
necessita de um par entrada-resposta para fazer o
aprendizado, permitindo-lhe abordar o problema com relativa
facilidade. Na modelagem efetuada, cada nó na rede se
comporta como um agente de RL que age na própria rede, a
qual é o ambiente. A informação das rotas é armazenada nas
funções de valor existentes em todos os nós da rede para / [en] This dissertation investigates the application of
Reinforcement Learning methods to the discovery of
optimal routes in communication networks. Any current
communication network displays dynamic behavior,
changing its states over time. Therefore, the routing
algorithms must react swiftly to changes in the network
status. The objective of this work is to evaluate the
application of some Reinforcement Learning techniques to
define adaptive packet routing algorithms. The packet
routing problem under the RL vision consists in the
definition of each node on network as an RL agent. Thus,
each agent must take actions in order to minimize an
objective function such as end to end packet routing delay.
One main objective of the RL is precisely learning to
take the actions that minimize a given function.
This thesis is consists of 4 main parts: first, a study of
Reinforcement Learning (RL); a study of the
communication networks and packet routing; the routing
problem model as a RL system and the implementation
of several RL methods in order to obtain some routing
algorithms; e finally, the case study.
The study of Reinforcement Learning extends from the more
basic definitions, Reinforcement Learning
features, elements of a RL system and environment modeling
as a Markovian Decision Process, to the basic
methods of solution: Dynamic Programming, Monte Carlo
methods and Temporal Differences methods. In this
last case, two specific algorithms have been considered: TD
and Q-Learning, and, finally, the Eligibility Traces
are evaluated as a useful tool that permits us to
accelerate the learning process leading to the TD(lambda)
and the Q(lambda) routing algorithms. The study on
communication networks and packet routing
involves the foundations of communication networks, packet
switching, the packet routing problem, and adaptive and non-
adaptive routing algorithms used
at the present time. Communication networks are defined as
a set of nodes connected through communication
links. In order to send a message from a source node to a
destination node usually the message is broken into
segments called packets, and these are sent through other
nodes until arriving at the destination. In this way the
problem appears to choose the path which takes the shortest
possible time for the packet to reach the destination
node. The following algorithms have been analyzed: Shortest
Path Routing that looks for paths with minimal
hop number, not being sensible to the changes of load level
and network topology; Weighted Shortest Path
Routing that offers better performance from a global vision
of the state of the network, which is not always easy
to get in real networks; on the other hand, the Bellman-
Ford routing algorithm was studied, this is based on local
routing decisions and periodic updates, with some
limitations to obtain policies in high load conditions.
Bellman-Ford
is one of the algorithms most used at the present time,
being the basis for many existing routing protocols.
The modeling of the routing problem as a RL system was
inspired by one of the main features of the
definition of an RL system: an agent who interacts with the
environment and learns to reach an objective;
therefore, the modeling of the routing algorithms has as
its objective to learn to discover the paths that minimize
packet routing time from an origin to an destination. The
evaluation of a chosen route cannot be completed
before the package reaches its final destination. This fact
implies that supervised learning cannot be applied to
the routing problem. On the other hand, Reinforcement
Learning does not need a input-output pair for the
learning process, allowing it to approach the problem with
relative ease. In the modeling, each network node is
viewed as a RL agent that acts in the same network; the
network is the environment. The routing information is
stored in the existing value functions in all nodes in the
network, for each node and all another destination node / [es] Esta disertación investiga la aplicación de los métodos de
Reinforcement Learning en la determinación de rutas óptimas
en una red de comunicación. Una red de comunicación real
posee un comportamiento dinámico, donde su estado varia en
el tiempo. Los algoritmos de ruta óptima deben, por lo
tanto, ofrecer rapidez en la respuesta a las variaciones
del estado de la red. El objetivo de este trabajo es
evaluar la aplicación de técnicas de Reinforcement Learning
(RL) como base de algoritmos adaptativos de problemas de
ruteamiento en redes. Este problema consiste en la
definición de cada nodo de la red como un agente RL. Este
agente debe definir acciones de modo a minimizar una
función objetivo que puede ser el tiempo de ruteamiento.
El trabajo consta de 4 etapas principais: un estudio sobre
el área de Reinforcement Learning (RL); un estudio sobre
redes de comunicación y problema de ruteamiento; el modelo
de ruta óptima como un sistema RL y la implementación de
diferentes métodos de RL para obtener algoritmos de ruta
óptima; y un estudio de casos.
El estudio en el área de Reinforcement Learning va desde
las definiciones fundamentales: características, elementos
de un sistema RL y modelaje del ambiente como un Proceso de
Decisión de Markov, hasta los métodos básicos de solución:
Programación Dinámica, método de Monte Carlo, y método de
Diferencias Temporales. En este último método, fueron
considerados dos algoritmos específicos: TD e Q-Learning.
A seguir, fue evaluado el parámetro Eligibility Traces como
una alternativa para agilizar el proceso de aprendizaje,
obteniendo el TD(lambda) y el Q(lambda) respectivamente.
El estudio sobre Redes de Comunicación y Problema de
Transporte incluye los conceptos básicos de redes de
comunicaciones, la cuestión de la ruta óptima y los
algoritmos adaptativos y no adaptativos existentes, que se
utilizan actualmente. Los algoritmos analizados fueron:
Shortest Path Routing, que busca los caminos con menor
número de nodos intermedios, no siendo sensible a
variaciones en la carga ni en la topología de la red;
Weighted Shortest Path Routing, que ofrece un mejor
desempeño a partir de una visión global del estado de la
red, que no siempre es fácil de obtener en redes reales; y
el algoritmo de Bellman-Ford, que tiene como base
decisiones de rutas locales y actualizaciones periódicas,
con algunas limitaciones para obtener políticas en altas
cargas. Este último es uno de los algoritmos más utilizados
en la actualidad, siendo base de muchos protocolos de
trazado de ruta existentes. La solución para modelar el
problema de ruteamiento como un
sistema RL fue inspirada por una característica en la
definición de un sistema RL: un agente que interactúa con
el ambiente y aprende a alcanzar un objetivo. Así, el
modelo tiene como objetivo aprender a determinar las rutas
que minimizen el timpo desde el origen hasta un destino
dado. La evaluación de uma ruta seleccionada no puede ser
obtenida antes que el paquete alcance su destino final.
Esto hace que los procesos de aprendizaje supervisionado
tengan dificultades para ser aplicados a este problema. Por
otro lado, Reinforcement Learning no necesita de un par
entrada-salida para el aprendizaje, permitiendo así,
abordar el problema con relativa facilidad. En el modelo
establecido, cada nodo en la red se comporta como un agente
de RL que actúa en la propria red.
La información de las rutas se almacena en las funciones de
valor existentes en todos los nodos de la red para cada
nodo destino diferente. Esta información contiene un valor
estimado del tiempo requerido para un paquete para llegar
hasta el nodo destino. La actualización de esos valores se
realiza durante la transición del paquete hasta el vecino
seleccionado. En este trabajo se implementaron varios
algoritmos de ruta óptima. Cada uno de los algoritmos
aplica características de las técnicas en Reinforcement
Learning: o Q(lambda)-Routing, y el TD-Routing. En el
estudio d
|
25 |
Estudio experimental y numérico de soportes de hormigón armado reforzados con perfiles metálicos sometidos a esfuerzos de compresión simpleGiménez Carbó, Ester 07 May 2008 (has links)
En los últimos años ha habido un interés creciente por todos los temas relacionados con la rehabilitación y refuerzo de estructuras de hormigón armado. El motivo principal por el que se desarrolla este campo de la ingeniería civil es por el inevitable envejecimiento de las estructuras existentes, pero también intervienen otros factores de carácter económico, medioambiental, o las variaciones de normativa provocadas por un mayor conocimiento del medio.
El presente trabajo de investigación surge de la necesidad de ampliar el conocimiento del modo de funcionamiento de los soportes de hormigón armado reforzados con angulares y presillas metálicas, al ser uno de los métodos más empleados en nuestro país.
El estudio se ha iniciado realizando una revisión de la literatura científica en relación al estado del conocimiento de:
- Refuerzo de soportes de hormigón armado.
- Ingluencia del confinamiento en el incremento de resistencia a compresión del soporte.
Se ha concebido y desarrollado ensayos experimentales que permiten conocer y analizar el modo de comportamiento de los soportes reforzados reniendo en cuenta distintas variables que pueden producirse en su configuración.
Tras el análisis de los resultados experimentales, que permite la elaboración de un modelo conceptual de comportamiento, y la comparación con formulaciones existentes hasta la fecha se confirma la necesidad de la elaboración de métodos simplificados más aproximados.
Se han propuesto métodos simplificados para el análisis de soportes reforzados con perfiles metálicos empresillados, válidos para su aplicación en el diseño y proyecto de rehabilitación y refuerzo de estructuras de hormigón armado. Igualmente se han definido recomendaciones de diseño y ejecución para obtener la eficiencia óptima de la actuación.
Finalmente se ha constatado la viabilidad de la aplicación de los métodos de cálculo simplificados propuestos ampliándose de esta manera el estado de conocimiento del comportamiento de un tramo d / Giménez Carbó, E. (2007). Estudio experimental y numérico de soportes de hormigón armado reforzados con perfiles metálicos sometidos a esfuerzos de compresión simple [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1966
|
26 |
Contribución al estudio de soportes de hormigón armado reforzados con angulares y presillas metálicas. Análisis del soporte y del nudo viga soporte sometidos a compresión centradaAdam Martínez, José Miguel 07 May 2008 (has links)
Cada vez son más frecuentes las situaciones en las que resulta necesario el refuerzo de estructuras existentes. Sin embargo, las investigaciones relacionadas con este tema son más bien escasas, sobre todo cuando se trata del refuerzo y reparación de soportes de hormigón armado (en adelante HA).
Los soportes de una estructura de edificación son los elementos que sustentan el conjunto de la estructura, por lo que los fallos en su comportamiento suponen un riesgo de colapso del edificio completo. Si a esto se une el hecho de que un porcentaje considerable de los daños detectados en estructura de edificación se localiza en estos elementos, queda de manifiesto el problema que implica la falta de recomendaciones de diseño y cálculo, así como de investigaciones relacionadas con el refuerzo de soportes de HA.
Considerando que la técnica de reforzar soportes de HA mediante angulares y presillas metálicas es una de las más empleadas en la actualidad, coincidiendo además con que es una de las menos estudiadas hasta la fecha, queda de manifiesto la necesidad de estudiar el comportamiento de esta técnica de refuerzo. Con este objeto, se plantea la investigación "Estudio experimental y numérico de soportes de hormigón armado reforzados con perfiles metálicos sometidos a esfuerzos de compresión y flexo-compresión", financiada por el Ministerio de Ciencia y Tecnología de España con cargo al proyecto de investigación MAT 2003-08075, cofinanciado con fondos FEDER. Esta investigación se desarrolla en el Instituto de Ciencia y Tecnología del Hormigón (ICITECH) de la Universidad Politécnica de Valencia.
La presente Tesis Doctoral, se engloba dentro del proyecto de investigación descrito en el párrafo anterior, y en ella se estudia el comportamiento de soportes de HA reforzados mediante angulares y presillas metálicas sometidos a compresión centrada.
Se efectúa también el estudio del comportamiento del nudo viga-soporte, analizando diversos modos de resolver dicho nudo.
A partir de los r / Adam Martínez, JM. (2008). Contribución al estudio de soportes de hormigón armado reforzados con angulares y presillas metálicas. Análisis del soporte y del nudo viga soporte sometidos a compresión centrada [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/1982
|
27 |
Job shop smart manufacturing scheduling by deep reinforcement learning for Industry 4.0Serrano Ruiz, Julio César 24 January 2026 (has links)
Tesis por compendio / [ES] El paradigma de la Industria 4.0 (I4.0) gravita en gran medida sobre el potencial de las tecnologías de la información y la comunicación (TIC) para mejorar la competitividad y sostenibilidad de las industrias. El concepto de Smart Manufacturing Scheduling (SMS) surge y se inspira de ese potencial. SMS, como estrategia de transformación digital, aspira a optimizar los procesos industriales mediante la aplicación de tecnologías como el gemelo digital o digital twin (DT), el modelo de gestión zero-defect manufacturing (ZDM), y el aprendizaje por refuerzo profundo o deep reinforcement learning (DRL), con el propósito final de orientar los procesos de programación de operaciones hacia una automatización adaptativa en tiempo real y una reducción de las perturbaciones en los sistemas de producción.
SMS se basa en cuatro principios de diseño del espectro I4.0: automatización, autonomía, capacidad de acción en tiempo real e interoperabilidad. A partir de estos principios clave, SMS combina las capacidades de la tecnología DT para simular, analizar y predecir; la del modelo ZDM para prevenir perturbaciones en los sistemas de planificación y control de la producción; y la del enfoque de modelado DRL para mejorar la toma de decisiones en tiempo real. Este enfoque conjunto orienta los procesos de programación de operaciones hacia una mayor eficiencia y, con ello, hacia un mayor rendimiento y resiliencia del sistema productivo.
Esta investigación emprende, en primer lugar, una revisión exhaustiva del estado del arte sobre SMS. Con la revisión efectuada como referencia, la investigación plantea un modelo conceptual de SMS como estrategia de transformación digital en el contexto del proceso de programación del taller de trabajos o job shop. Finalmente, la investigación propone un modelo basado en DRL para abordar la implementación de los elementos clave del modelo conceptual: el DT del taller de trabajos y el agente programador. Los algoritmos que integran este modelo se han programado en Python y han sido validados contra varias de las más conocidas reglas heurísticas de prioridad. El desarrollo del modelo y los algoritmos supone una contribución académica y gerencial en el área de la planificación y control de la producción. / [CA] El paradigma de la Indústria 4.0 (I4.0) gravita en gran mesura sobre el potencial de les tecnologies de la informació i la comunicació (TIC) per millorar la competitivitat i la sostenibilitat de les indústries. El concepte d'smart manufacturing scheduling (SMS) sorgeix i inspira a partir d'aquest potencial. SMS, com a estratègia de transformació digital, aspira a optimitzar els processos industrials mitjançant l'aplicació de tecnologies com el bessó digital o digital twin (DT), el model de gestió zero-defect manufacturing (ZDM), i l'aprenentatge per reforçament profund o deep reinforcement learning (DRL), amb el propòsit final dorientar els processos de programació doperacions cap a una automatització adaptativa en temps real i una reducció de les pertorbacions en els sistemes de producció.
SMS es basa en quatre principis de disseny de l'espectre I4.0: automatització, autonomia, capacitat d¿acció en temps real i interoperabilitat. A partir d'aquests principis clau, SMS combina les capacitats de la tecnologia DT per simular, analitzar i predir; la del model ZDM per prevenir pertorbacions en els sistemes de planificació i control de la producció; i la de de l'enfocament de modelatge DRL per millorar la presa de decisions en temps real. Aquest enfocament conjunt orienta els processos de programació d'operacions cap a una eficiència més gran i, amb això, cap a un major rendiment i resiliència del sistema productiu.
Aquesta investigació emprèn, en primer lloc, una exhaustiva revisió de l'estat de l'art sobre SMS. Amb la revisió efectuada com a referència, la investigació planteja un model conceptual de SMS com a estratègia de transformació digital en el context del procés de programació del taller de treballs o job shop. Finalment, la investigació proposa un model basat en DRL per abordar la implementació dels elements claus del model conceptual: el DT del taller de treballs i l'agent programador. Els algorismes que integren aquest model s'han programat a Python i han estat validats contra diverses de les més conegudes regles heurístiques de prioritat. El desenvolupament del model i els algorismes suposa una contribució a nivell acadèmic i gerencial a l'àrea de la planificació i control de la producció. / [EN] The Industry 4.0 (I4.0) paradigm relies, to a large extent, on the potential of information and communication technologies (ICT) to improve the competitiveness and sustainability of industries. The smart manufacturing scheduling (SMS) concept arises and draws inspiration from this potential. As a digital transformation strategy, SMS aims to optimise industrial processes through the application of technologies, such as the digital twin (DT), the zero-defect manufacturing (ZDM) management model and deep reinforcement learning (DRL), for the ultimate purpose of guiding operations scheduling processes towards real-time adaptive automation and to reduce disturbances in production systems.
SMS is based on four design principles of the I4.0 spectrum: automation, autonomy, real-time capability and interoperability. Based on these key principles, SMS combines the capabilities of the DT technology to simulate, analyse and predict; with the ZDM model, to prevent disturbances in production planning and control systems; by the DRL modelling approach, to improve real-time decision making. This joint approach orients operations scheduling processes towards greater efficiency and, with it, a better performing and more resilient production system.
This research firstly undertakes a comprehensive review of the state of the art on SMS. By taking the review as a reference, the research proposes a conceptual model of SMS as a digital transformation strategy in the job shop scheduling process context. Finally, it proposes a DRL-based model to address the implementation of the key elements of the conceptual model: the job shop DT and the scheduling agent. The algorithms that integrate this model have been programmed in Python and validated against several of the most well-known heuristic priority rules. The development of the model and algorithms is an academic and managerial contribution in the production planning and control area. / This thesis was developed with the support of the Research Centre on
Production Management and Engineering (CIGIP) of the Universitat Politècnica
de València and received funding from: the European Union H2020 programme
under grant agreement No. 825631, “Zero Defect Manufacturing Platform
(ZDMP)”; the European Union H2020 programme under grant agreement No.
872548, "Fostering DIHs for Embedding Interoperability in Cyber-Physical
Systems of European SMEs (DIH4CPS)"; the European Union H2020
programme under grant agreement No. 958205, “Industrial Data Services for
Quality Control in Smart Manufacturing (i4Q)”; the European Union Horizon
Europe programme under grant agreement No. 101057294, “AI Driven
Industrial Equipment Product Life Cycle Boosting Agility, Sustainability and
Resilience” (AIDEAS); the Spanish Ministry of Science, Innovation and
Universities under grant agreement RTI2018-101344-B-I00, "Optimisation of
zero-defects production technologies enabling supply chains 4.0 (CADS4.0)";
the Valencian Regional Government, in turn funded from grant RTI2018-
101344-B-I00 by MCIN/AEI/10.13039/501100011033 and by “ERDF A way of
making Europe”, "Industrial Production and Logistics optimization in Industry
4.0" (i4OPT) (Ref. PROMETEO/2021/065); and the grant PDC2022-133957-
I00, “Validation of transferable results of optimisation of zero-defect enabling
production technologies for supply chain 4.0” (CADS4.0-II) funded by
MCIN/AEI/10.13039/501100011033 and by European Union Next
GenerationEU/PRTR. / Serrano Ruiz, JC. (2024). Job shop smart manufacturing scheduling by deep reinforcement learning for Industry 4.0 [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/202871 / Compendio
|
28 |
Recerca sobre les persones amb discapacitat psíquica contractades a l'Administració de la Generalitat de Catalunya. Anàlisi de la incidència de la inserció laboral en diferents dimensions de la vida dels treballadors amb discapacitat psíquicaRius Bonjoch, Maria 02 December 2005 (has links)
L'activitat professional és fonamental en la vida de qualsevol persona i en el cas de les persones amb discapacitat resulta molt potent per tal que assumeixin la identitat adulta. Per això, en la tesi es realitza una aproximació al binomi discapacitat i treball i a les mesures que justifiquen l'actual situació de la inserció laboral de les persones amb discapacitat al mercat laboral protegit i al mercat laboral ordinari. L'objectiu general de la tesi és conèixer en profunditat una experiència d'inserció laboral de persones amb discapacitat psíquica a l'Administració de la Generalitat de Catalunya. La investigació realitzada s'ha estructurat en dues fases. En la primera fase s'ha fet una anàlisi descriptiva del col·lectiu estudiat i en la segona fase, emmarcada en una perspectiva metodològica qualitativa, s'ha desenvolupat un estudi de casos per tal de mostrar el testimoni dels protagonistes, partir del seu relat i recollir les seves valoracions. / The professional activity is basic in the life of any person and in the case of the disabled people it is highly powerful so that they assume the adult identity. So, in the thesis, an approach is made to know more about the situation between disabled people and work and to study what kind of measures explain the current labour insertion of disabled people either in shelter places or in the ordinary labour market. The general goal of the thesis is an in-depth investigation about a labour insertion experience of mental disability people in the Catalonia's Administration. The investigation has been structured in two phases. First of all it has made a descriptive analysis of searched group. Then it has been developed a case study framed in a qualitative methodological perspective to show the witness of the protagonists, starting off from their stories and to pick up their valuations.
|
Page generated in 0.0266 seconds