• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 185
  • 52
  • 18
  • 4
  • 4
  • 3
  • 2
  • 1
  • 1
  • 1
  • Tagged with
  • 272
  • 153
  • 153
  • 79
  • 73
  • 73
  • 51
  • 50
  • 42
  • 32
  • 30
  • 27
  • 25
  • 23
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
161

Scopus: Base de datos de artículos científicos, análisis de resultados, citas y métricas

Vidal, Sergio 06 May 2022 (has links)
Evento organizado por la Biblioteca UPC, el 6 de mayo de 2022. Participaron: Sergio Vidal (Brasil) - Expositor; Claudia Gutierrez (Perú) - Moderadora / Webinar enfocado en capacitar a toda la comunidad universitaria en el uso de la base de datos bibliométrica Scopus. Aprenderá las principales características y funcionalidades del recurso para buscar, analizar y visualizar publicaciones en las diferentes áreas del conocimiento.
162

Webinar: Harvard Business Publishing: conoce el contenido y las principales características de la plataforma líder en gestión

Durini, Luciano 09 November 2021 (has links)
Se presentó la importancia del desarrollo de competencias por medio de metodologías participativas de aprendizaje, especialmente en la educación virtual. Dentro de este contexto, se mostró la información, recursos y materiales pedagógicos que ofrece la plataforma HBP, en particular los casos de estudio. Se explicó como HBP puede ser una herramienta aliada de los docentes para conectar la academia con el mundo real y que no estén disociados. Así los alumnos tienen un rol clave en su formación y aprenden a aplicar los conocimientos que adquieren de forma práctica, tal y como deberán hacerlo luego en su propio su ejercicio profesional. El ponente concluyó absolviendo las consultas de los participantes.
163

Los Procesos de Investigación en las Ciencias del Deporte

Merlo, Rodrigo 01 September 2020 (has links)
El Dr en Educación y Ciencias del Deporte, Rodrigo Damian Merlo, nos presenta LOS PROCESOS DE INVESTIGACION EN LAS CIENCIAS DEL DEPORTE. A través de una ponencia muy didáctica nos explica los pasos a seguir y las buenas prácticas para desarrollar investigaciones, tanto relacionadas al ámbito deportivo como en general.
164

Responsible innovation at the firm-level : tracing in car industry

Zahinos Ruiz, Abel 18 January 2016 (has links)
Innovation is an essential activity for the competitiveness of firms. It has also contributed positively to increasing the living standards of millions of people. However, it is widely recognized that innovation co-produces unintended impacts on socio- economic and ecological systems. Existing mechanisms of control and authorization, i.e. regulations, are inefficient in preventing the diffusion of innovations which give rise to ethical, social, economic and/or environmental concerns. The ineffiency of regulations and the increasing capability of science and technology to create long-lasting and far-reaching impacts have stressed the need of introducing responsibility issues through innovation processes. The aim is to foster the generation of ethically acceptable, socially desirable and sustainable innovation. But, how can firms generate innovation in a more responsible manner? The purpose of this thesis is to contribute to the development of the Responsible Innovation (RI) approach. In particular, its aim is to propose and validate a framework for helping firms to innovate more responsibly. For achieving this aim, the thesis is organized around a two-stage research procedure. First, an extensive literature research on models and approaches of innovation is conducted to generate a theoretical framework explaining how to innovate more responsibly. The literature review reveals the shortcomings of the Linear and Interactive models, Innovation Systems models, Open Innovation model and the Sustainable Innovation approach, for helping firms to innovate responsibly. Therefore, the emerging approach of RI is explored. The literature review shows that three frameworks for RI have been proposed so far. The analysis of these frameworks leads to the adoption of one as the most suitable for addressing the research objective of this dissertation. The theoretical framework suggests that the generation of RI is contingent on ensuring care of certain values for sustainability through the innovation process. For ensuring care of values, the framework proposes five dimensions: Anticipation, Participation, Deliberation, Reflexivity and Responsiveness. As an evolving theory, the adopted framework shows two shortcomings that requires further research: 1) the framework does not suggest methods for deploying the dimensions at firm-level; and 2) it provides little empirical evidence supporting its validity. To overcome the first shortcoming, the five dimensions are further developed and a set of methods are proposed based on a literature review.The second stage of this thesis focuses on the empirical research part. This part aims to overcome the second shortcoming of the framework for RI, i.e. the little empirical evidence supporting its validity. Thereby, a multi-case study research strategy is adopted as the most suitable to test the validity of the framework. The research design involves the elaboration of a seven propositions. Then, three cases from the car industry are selected and analysed as potential instances of RI. The first case refers to an innovation process aimed to commercialize electric vehicles. The second case is an innovation process aimed at commecializing Advanced Driver Assistance Systems for enhancing the safety and competitiveness of certain vehicles. The last case is an innovation process that created a new safety system aimed at reducing the potential consequences of car accidents. The cross-analysis of the cases provides evidence which confirmes the seven propositions and therefore the validity of the framework for explaining how to generate RI. Conclusions and practical implications for firms attempting to innovate responsibly are drawn based on the case results. The main contribution of this research is a set of validated mechanisms which can be used at the firm level for fostering the generation of innovation outcomes which contribute to sustainability. / La innovación es una actividad esencial para la competitividad de las empresas. Asimismo, la innovación ha contribuido al incremento de los niveles de vida de millones de personas. Por otra parte, es ampliamente reconocido que la innovación co-produce efectos no deseados sobre los sistemas socioeconómicos y/o ecológicos. Los actuales mecanismos de control y autorización, e.g. las regulaciones, han demostrado ser ineficaces en la prevención de la difusión de innovaciones que dan lugar a importantes problemas sociales, económicos y/o ambientales. Esto, junto con la creciente capacidad de la la tecnología para generar nuevos riesgos, han contribuido al debate sobre la necesidad de introducir más responsabilidad en los procesos de innovación para fomentar la generación de innovaciones éticamente aceptable, socialmente deseable y sostenible. Pero, ¿cómo pueden las empresas generar innovación de una manera más responsable? La finalidad de esta tesis es contribuir al desarrollo del enfoque de Innovación responsable (IR). Su objetivo es proponer y validar un marco de trabajo para ayudar a las empresas a innovar de manera más responsable. Para lograr este objetivo, la tesis está estructurada en dos partes. En la primera, se lleva a cabo una extensa revisión bibliográfica sobre los modelos y enfoques de innovación con el objetivo de desarrollar un marco teórico que explique cómo innovar responsablemente. La revisión revela las deficiencias de los modelos lineales e interactivos, los de sistemas de innovación, el de innovación abierta y el enfoque de innovación sostenible, para ayudar a las empresas a innovar responsablemente. Esto lleva a explorar un nuevo enfoque: la IR. La revisión de la literatura muestra que se han propuesto tres marcos para IR hasta la fecha. El análisis de éstos lleva a la adopción de uno como el más adecuado para abordar el objetivo de esta investigación. El marco teórico sugiere que la IR depende de garantizar la atención de ciertos valores para sostenibilidad a través del proceso de innovación. Para lograr esto, el marco propone cinco dimensiones: Anticipación, Participación, Deliberación, Reflexividad y Capacidad de respuesta. Debido a que la teoría está aún en desarrollo, el marco adoptado muestra defciencias que requieren más investigación: 1) el marco no sugiere métodos para el despliegue de las dimensiones a nivel de empresa; y 2) proporciona pocas evidencias empíricas que apoyen su validez. Para superar la primera deficiencia, las cinco dimensiones se han desarrollaron y un conjunto de métodos se ha propuesto para su despliegue. La segunda etapa de esta investigación se centra en la parte de investigación empírica. Su objetivo es comprobar la validez del marco de trabajo. Para ello, se adopta una estrategia de investigación basada en multiples casos de estudio. El diseño de la investigación conduce a la elaboración de siete proposiciones. Posteriormente, tres casos procedentes del sector de automoción son evaluados. El análisis de los casos proporciona pruebas que confirman las siete proposiciones y, por lo tanto, validan el marco adoptado para explicar cómo innovar responsablemente. A partir de los resultados del caso, se describen las conclusiones y las implicaciones para las empresas que tratan de innovar responsablemente. La principal contribución de esta tesis es un conjunto de mecanismos validados que se pueden utilizar a nivel de empresa para fomentar la generación de innovaciones que contribuyan a la sostenibilidad.
165

Plataformas on-line de vigilancia/inteligencia : caracterización e implementación práctica

Benítez Nieto, Yamilaydis 25 January 2016 (has links)
Successful decision-making strategies by organisations and generally in the enterprise, strongly depends on the knowledge, assessment and processing of extensive, varied, changing and often non-explicit information, coming from different sources (information services, patent websites, online communication media, blogs, forums, web sources or web feeds [RSS or Atom]). Moreover, time commitment, motivation and the need to address this type of work is limited, as well as the awareness of methodologies and tools to optimise the search and information analysis processes, when qualified personnel is not available. In this context, those organizations lose capabilities to manage information and turn it into knowledge; to avoid or correct errors (retrofeeding character); to draw new guidelines, or, to adapt to the complex and changing environment in which they must perform their daily activities. This Doctoral Thesis firstly outlines and discusses the special features of Intelligence activities. A thorough analysis is then made of the various online platforms, in terms of their potentialities and disadvantages as Intelligence tools, as well as of their impact on information management. Several criteria and indicators have been established as relevant, being mainly motivated by daily experience in the management and administration of such tools. Finally, a case study is presented for the Solar Photovoltaic Energy sector (a high-tech sector with large information flows from numerous sources). For this study, a web platform has been implemented for the management of Technology and Strategic Environment Intelligence, which is currently marketed in Spain and Latin America under the name VIGIALE. The platform allows to manage strategic information for companies and organizations from a single access point. The cae study confirms the importance of establishing an effective methodology for monitoring strategic information from one sector or technology area. / El éxito de las estrategias y la toma de decisiones por parte de las organizaciones y el sector empresarial en general, depende marcadamente del conocimiento, la discriminación y procesamiento de la extensa, variada, cambiante y en ocasiones poco explícita información proveniente de diferentes fuentes (servicios de información, páginas Web de patentes, medios de comunicación on-line, blogs, foros, fuentes Web o web feed (RSS o Atom)). Además, el tiempo de dedicación, el interés y la necesidad de abordar este tipo de labor es limitado, así como el conocimiento de las metodologías y las herramientas que permiten optimizar los procedimientos de búsqueda y el análisis de la información, cuando no se dispone del personal cualificado. En este contexto, los diferentes entes ven mermadas las posibilidades de gestionar la información para convertirla en conocimiento; la capacidad de evitar o corregir errores (carácter retroalimentador), trazar nuevas directrices, o de adaptarse al entorno complejo y cambiante en el que deben de desempeñar sus actividades diarias. En esta Tesis Doctoral primero se plantean y discuten las particularidades de la actividad de Vigilancia/Inteligencia. A continuación, se realiza un análisis exhaustivo de diferentes plataformas on-line, en términos de sus potencialidades y desventajas como herramientas de Vigilancia/Inteligencia, así como la repercusión en la gestión de la información. Para ellos se han establecido unos criterios que han sido considerados de importancia, motivados principalmente por la experiencia cotidiana en el manejo y administración de este tipo de herramientas. Finalmente, se plantea un estudio de caso para el sector de la energía solar fotovoltaica (sector altamente tecnológico y con grandes flujos de información que circulan en numerosas fuentes). Para realizar este estudio se implementa una plataforma Web para la gestión de la Vigilancia Tecnológica y del entorno, actualmente comercializada en España y Latinoamérica con el nombre de VIGIALE. La plataforma permite gestionar la información de interés estratégico de las empresas y organizaciones desde un único punto de acceso. En este estudio de caso, se corrobora la importancia de establecer una metodología eficaz para el seguimiento de la información estratégica de un sector o área tecnológica.
166

La congestión, su pensamiento y su influencia en la creación de la metrópoli entre 1850 y 1970

Borja Gómez, Miguel 26 January 2016 (has links)
Congestion is the saturation of urban and architecturals pace uses and activities utilizing all resources available construction and management, this action on society have established throughout the recent history of the city, by the profusion of events, environments and procedures for space or urban setting that achieves the highest concentration and densification. Similarly, it is a noticeable fact granted by mastering operations carried out according to the needs of space or place and a high population density. Similarly, congestion,by their impact and forceful statement in cities, buildings and extensive projects or massive structures, be they residential, residential and administrative blocks, equipment or facilities of basic services, etc.,in which the spatial dimension and saturation content manifest as an indication of its technical and technological determinism, as well as the favorable disposition toward a knowledge that facilitates the realization of architecture and the city. Congestion as an ideology of space comes from contemporary urban grid,an immediate present, not despite its historic fabric and its closed city high densities. Since the current arrangement implied rational city, both in form and in its functions it is to express the utilitarian and symbolic content as a result of the association of dominant interests of political and economic character. Congestion in the modern city and the contemporary city is run efficiently by a closed checkerboard that will accommodate indifferently on the ground, as the ideal arrangement for a conditioning urban space to a minimum without any concession to collective interactions They produced in the past in the traditional city. This led to control almost all processes and future of the city, and the society that produced them. Since the consequences of these procedures domain of urban structure is not now found under a hierarchical structure or a sovereign power, but under bureaucratic administration aims to control and predict the future development of the city. Congestion is part of the development of the city and imbalances that have addressed the metropolis from orbitto institute investment dynamics and efficiency criteria, either from the creation and reinforcement of the means of production, as well as to the gradual adjustment of the city before the arrival of emerging companies. Congestion is committed from the proper functioning of the economy and fundamental ways from this process have been created, congestion is a unilateral process that affects the development of the city and presented by his sudden economic boom from mid-nineteenth century, when by way of the expansion of manufacturing and fluctuations of the urban environment in relation to population growth, the effective demand for housing, the needs created by the extension of an exponential consumption, as well as the new relationship between the urban dweller and the new training parameters that have validated their actual improvement. These processes converge in economic pragmatism, in a specialization of the social structure and cultural fragmentation have facilitated the expansion of the congestion from short-term success at the outset of these circumstances in the development of the city, but also by the failure of these measures by cities branched long term, constituting a problem peculiar to the urbanization of the city and its close relationship with the rational and productive forces. / La congestión es la saturación del espacio urbano y arquitectónico de usos y actividades que utiliza todos los recursos de gestión y de construcción disponibles, esta acción sobre la sociedad se han logrado establecer a lo largo de la historia reciente de la ciudad, mediante la profusión de sucesos, ambientes y procedimientos para que ese espacio o escenario urbano logre la mayor concentración y densificación. De igual manera, es un hecho perceptible otorgado por el dominio de operaciones que se realizan en función de las necesidades de espacio o de lugar y por una elevada concentración poblacional. Igualmente, la congestión, por su incidencia y afirmación contundente en las ciudades, proyecta edificaciones y estructuras extensivas o masivas, ya sean viviendas, bloques residenciales o administrativos, equipamientos o instalaciones de servicios básicos, etc.,en los que la dimensión espacial y la saturación de contenidos se manifiestan como una indicación de su determinismo técnico y tecnológico, así como por la disposición favorable hacia un conocimiento que facilita la realización de la arquitectura y la ciudad. La congestión como una ideología del espacio proviene de la cuadricula urbana contemporánea ,de un presente inmediato, no de la ciudad histórica a pesar de su tejido cerrado y sus densidades elevadas. Ya que la actual disposición sobreentendida de la ciudad racional, tanto en su forma, como en sus funciones, es expresar los contenidos utilitaristas y simbólicos como resultado de la asociación de intereses dominantes de carácter político y económico. La congestión en la ciudad moderna y en la urbe contemporánea es ejecutada de manera eficiente por medio de un damero cerrado que se acomoda indiferentemente sobre el terreno, como la disposición ideal para un espacio urbano acondicionado al mínimo sin ninguna concesión a las interacciones colectivas que se producían en otras épocas en la urbe tradicional. Esto condujo al control de casi todos los procesos presentes y futuros de la ciudad, como de la sociedad que los produjo.Ya que las consecuencias de estos procedimientos de dominio de la estructura urbana no se encontraban ahora bajo una estructura jerárquica o un poder soberano,sino bajo la administración burocrática que pretende controlar como predecir el futuro desarrollo de la ciudad. La congestión hace parte del desarrollo de la ciudad y de los desequilibrios que han abordado la metrópoli desde su órbita de instituir dinámicas de inversión y criterios de eficiencia, ya sea desde la creación y reafirmación de los medios de producción,como también ante el ajuste gradual de la ciudad ante la irrupción de las sociedades emergentes. La congestión se encuentra comprometida a partir del buen funcionamiento de la economía y de las formas fundamentales que a partir de este proceso han sido creadas, la congestión es un proceso unilateral que afecta el desarrollo de la ciudad y se presenta por su repentino auge económico desde mediados del siglo XIX, en que por vías de la expansión de la manufactura y las fluctuaciones del medio urbano en lo referente al aumento de la población, la demanda efectiva de vivienda, las necesidades creadas por la extens ión de un consumo exponencial,así como por las nuevas relaciones entre el habitante urbano y los nuevos parámetros formativos que han validado su actual perfeccionamiento. Estos procesos que confluyen en una pragmatismo económico,en una especialización de la estructura social y en un fraccionamiento cultural, han facilitado la expansión de la congestión a partir del éxito a corto plazo en un primer momento de estas circunstancias en el desarrollo de la ciudad, pero también por el fracaso de estas medidas que se ramificaron por las ciudades a largo plazo, constituyendo una problemática propia de la urbanización de la ciudad y de su estrecha relación con las fuerzas racionales y productivas.
167

Modified poly(lactic acid) sheets manufactured by one-step reactive extrusion-calendering : thermal, rheological, mechanical and fracture behaviours

Cailloux, Jonathan 21 January 2016 (has links)
The purpose of this PhD thesis was to investigate the sensitivity of the rheological, thermal, mechanical and fracture behaviours on the topological changes induced in two commercial PLA grades. PLA 2002D and PLA 4032D (NatureWorks, Belgium) with a D-lactide content of 4.25 and 2 %, respectively, were reactively modified in the melt with predetermined concentrations of a multi-functional epoxide agent. In a preliminary study, the evolution of the coupling reactions was followed by monitoring the torque versus time in an internal mixer device. Once all parameters were optimized, reactive extrusion was performed in a co-rotating twin screw extruder with a screw diameter of 25 mm (L/D=36). The main emphasize of this work was on the production of modified PLA sheets (thickness: 1 mm, width: 100 mm) through a one-step reactive extrusion-calendering process in pilot plant. Under similar processing conditions, the higher the D-lactide content, the lower was the reactivity of the PLA type towards the reactive agent. During processing, a competition between degradation and chain extension/branching reactions took place which led to a stabilization of the melt properties and an increase in the molecular weight (MW). Classical spectroscopic (FT-IR, NMR) and chromatographic (SEC-multiple detectors) methods failed to highlight structural differences between unmodified (PLA) and modified (PLA-REX) samples. On the other hand, rheological properties were significantly modified and suggest the formation of non-uniform branched structures, which include sparsely long chain branching (LCB) macromolecules. Both the melt elasticity and the melt response time increased. Bi-modal molecular weight distribution (MWD) spectra were inferred from the complex viscosity functions of PLA-REX samples which exhibit a double curvature in the shear-thinning regime. Based on these MWDs, a procedure is suggested to quantitatively estimate the amount of modified PLA chains from solely melt measurements. Thus, rheological measurements turned out to be a valuable tool for the detection and the quantification of small contents of topological changes in the work at hand. Thermal properties were slightly modified with the modification of the chain architecture. Upon constant heating, the maximum rate of conversion declined for PLA-REX samples; thus leading to a decrease in the degree of cold-crystallization. Thermal fractionation, according to the successive self-nucleation and annealing methodology, suggests a modification of the length distribution of crystallisable PLLA chain segments. In the present work, These trends mainly accounted from the increase in MW coupled with the enhanced concentration of defects into the polymeric chains (e.g. branch point). In the Tg region, the rate of enthalpy relaxation was found to decrease with increasing the entanglement network density under controlled aging periods at 30 °C. For a given thermal history, PLA-REX yielded comparative mechanical properties as those of PLA samples under uniaxial tensile loading. This is an important finding, because rheological properties (i.e. melt elasticity, viscosity, etc) may be controlled independently of the mechanical properties according to both the processing conditions and the concentrations of reactive agent used in the current study. While de-aged samples behaved in a ductile manner, aged samples were brittle. This behaviour was attributed to the effect of the physical aging process on the mechanical behaviour which commonly promotes the ductile/brittle transition. Regarding de-aged samples, the essential work of fracture analysis revealed no changes in the typical fracture parameters. Regarding aged PLA-REX samples, the energy consumed up to the onset of crack propagation was found to decrease due to an apparently decreased network extensibility, promoting a premature craze-crack transition. / El propósito de esta tesis doctoral ha sido investigar los efectos inducidos por cambios topológicos en dos grados comerciales de PLA en sus comportamientos reológicos, térmicos, mecánicos y a fractura. PLA 2002D y PLA 4032D con un contenido de enantiomero D igual a 4,25 y 2%, respectivamente, fueron modificados a través de un proceso de extrusión reactiva con concentraciones predeterminadas de un agente multifuncional con grupos epóxidos reactivos. En un estudio preliminar, la evolución de las reacciones de acoplamiento fue registrada a través del seguimiento del par de fuerzas en función del tiempo de mezcla en un dispositivo de mezclador interno. Una vez todos los parámetros optimizados, el proceso de extrusión reactiva se realizó en una extrusora doble husillo co-giratorio con un diámetro de usillo igual a 25 mm (L/D = 36). El principal objetivo de este trabajo, fue la producción de láminas de PLA modificadas estructuralmente a través de un proceso simultáneo de extrusión reactiva-calandrado en un solo paso. Bajo condiciones similares de procesamiento, cuando el contenido de enantiomero D sea mayor, la reactividad del tipo de PLA será menor hacia el agente reactivo. Durante el procesamiento, una competición entre degradación, extensión de cadenas y reacciones de ramificación conlleva a una estabilización de las propiedades del fundido y a un aumento en el peso molecular. Mientras que los métodos clásicos de espectroscopia (FT-IR, NMR) y cromatográfico (SEC-múltiples detectores) fallaron en resaltar cambios arquitecturales, las propiedades reológicas confirmaron la formación de estructuras ramificadas no uniformes, que incluyen escasamente ramificaciones largas. Tanto la elasticidad como la respuesta del fundido en el tiempo aumentaron. Los espectros de distribución de peso moleculares (MWD) bi-modal se infirieron de las funciones de viscosidad compleja de las muestras de PLA-REX las cuales presentan una doble curvatura en el régimen pseudo-plástico. En base a estos MWD, se sugiere un procedimiento, para estimar cuantitativamente la cantidad de cadenas de PLA modificadas a partir de mediciones realizadas únicamente en el fundido. Las propiedades térmicas se vieron ligeramente alteradas con la modificación de la arquitectura molecular. Tras un calentamiento constante, la tasa máxima de conversión para las muestras de PLA-REX se redujo; lo que conlleva a una disminución en el grado de cristalización en frío alcanzable. El fraccionamiento térmico, de acuerdo con la metodología de auto-nucleación y recocidos sucesivos (SSA), sugiere una modificación de la distribución de la longitud de los segmentos cristalizables de cadena de PLLA. En la región de Tg, los resultados sugieren una reducción de la cinética de envejecimiento físico con un aumento en la densidad de enredos físicos bajo períodos de envejecimiento controlados a 30 ° C. Para una historia térmica dada, las muestras de PLA-REX exhiben propiedades mecánicas comparativas a las muestras de PLA. Este podría ser considerado un hallazgo importante, puesto que las propiedades reológicas (elasticidad del fundido, viscosidad, etc.) pueden ser controladas de forma independiente a las propiedades mecánicas de acuerdo a las condiciones de procesamiento y a las concentraciones de agente reactivo utilizadas en el estudio actual. Mientras que las muestras rejuvenecidas presentaron un comportamiento dúctil, las muestras envejecidas resultaron frágiles. Este comportamiento, se atribuyó al efecto del proceso de envejecimiento físico en el comportamiento mecánico que promueve la transición dúctil/frágil. En las muestras rejuvenecidas, el trabajo esencial de fractura no reveló ningún cambio en los parámetros típicos de fractura. Por otra parte las muestras envejecidas de PLA-REX, la energía consumida hasta el inicio de la propagación de la grieta disminuyó debido a una disminución de la extensibilidad aparentemente de la red molecular, promoviendo una transición prematura
168

The Optimum Communication Spanning Tree Problem : properties, models and algorithms

Luna Mota, Carlos 01 February 2016 (has links)
For a given cost matrix and a given communication requirement matrix, the OCSTP is defined as finding a spanning tree that minimizes the operational cost of the network. OCST can be used to design of more efficient communication and transportation networks, but appear also, as a subproblem, in hub location and sequence alignment problems. This thesis studies several mixed integer linear optimization formulations of the OCSTP and proposes a new one. Then, an efficient Branch & Cut algorithm derived from the Benders decomposition of one of such formulations is used to successfully solve medium-sized instances of the OCSTP. Additionally, two new combinatorial lower bounds, two new heuristic algorithms and a new family of spanning tree neighborhoods based on the Dandelion Code are presented and tested.
169

Topologías para la distribución de contenidos en redes de comunicación

Machado Sánchez, Sergio 03 February 2016 (has links)
The peer-to-peer (P2P) overlay networks are distribution topologies that take advantage of the ability that their nodes have to forward the information that they receive. For the particular case of video transmission using P2P networks, known as streaming P2P, there are implementations based on BitTorrent protocol data dissemination for files downloading. These networks use a pseudorandom topology which makes difficult to determine both the size of the network -defined as the maximum number of nodes which can receive information with a given quality of service- and the distribution delay. Despite this lack of definition, in the current thesis we present a structured network in which the nodes establish both incoming and outgoing connections according to a deterministic joining algorithm. That topology allows to calculate exactly the number of nodes that may join the network and that in stable conditions may get the flow with guaranteed quality of service, and also one very fitted bound for the total distribution delay. In our case, we have defined networks which contain a single source node with a bandwidth weater than the bandwidth of the information flow, and also a set of nodes with a bandwidth lower than the bandwidth of the flow. This constraint is used to distinguish the high capacity nodes from the terminal nodes which either have physical limitations due to their access link bandwidth or do not consider to allocate all their bandwidth to the forwarding of the information flow. In fact, high capacity nodes can be considered sources either because they produce the flow physically or because, receiving it from another distribution network, they forward it as source to the low bandwidth nodes that belong to the P2P network. Once the distribution topology is described, we define the mathematical model for its analysis. With this purpose, we normalize the flow bandwidth and we define a network joining algorithm with the aim of optimizing distribution delay. Following, the network topology is characterized by means of three parameters: the number of nodes that can be served directly by the source, the number of download connections that must arrive to a node to guarantee the reception at unitary rate, and the maximum number of upload connections that a node can establish. Likewise, the information flow is segmented into generic information units called objects, which are transmitted into the network by means of a certain set of dissemination trees. The number of dissemination trees corresponds to the number of download connections of a node. With this background material, we calculate the maximum number of peers which can be connected, under stable conditions, to the network, and also a very fitted bound for the transmission delay. Besides, we present a simulation that allows to evaluate the performance of the described topology in the field of VANET networks. Finally, in the last chapter we present a proposal for application-layer multicast distribution network which can be used to send the information flow from the node that initially produces it to the source nodes of the P2P distribution network that we have described. / Las redes superpuestas peer-to-peer (P2P) son topologías de distribución que aprovechan la capacidad que tienen sus nodos de retransmitir a otros nodos la información que reciben. En el caso particular de la transmisión de vídeo mediante redes P2P, conocida como streaming P2P, existen implementaciones basadas en la diseminación de datos del protocolo BitTorrent de descarga de ficheros. Estas redes emplean una topología pseudoaletoria que hace difícilmente caracterizable tanto el tamaño que puede tener la red -entendido como el máximo número de nodos a los que se puede garantizar una calidad de servicio determinada- como el retardo de distribución. Frente a esta falta de definición, en el presente trabajo se presenta una red estructurada en la que los nodos establecen conexiones tanto de recepción como de retransmisión según un algoritmo de ingreso determinista. Dicha topología permite calcular exactamente el número máximo de nodos que pueden formar la red y que, en condiciones de estabilidad, reciben el flujo con garantías de calidad, así como una cota muy ajustada del retardo total de distribución. En nuestro caso, hemos definido redes formadas por un único nodo fuente con una capacidad mayor que el ancho de banda de la transmisión del flujo, así como por una serie de nodos cuya capacidad es inferior al ancho de banda de dicho flujo. Esta restricción sirve para separar los nodos de alta capacidad de los nodos terminales que o bien tienen limitaciones físicas debido a la capacidad de su enlace o bien no quieren destinar toda su capacidad a la retransmisión del flujo de información. De hecho, los nodos de alta capacidad pueden considerarse fuentes o bien porque generan físicamente el flujo o bien porque, recibiéndolo a través de otra red de distribución, lo retransmiten como fuente a los nodos de baja capacidad que conforman la red P2P. Una vez descrita la topología de distribución, se define el modelo matemático para su análisis. Para ello se normaliza el ancho de banda del flujo y se propone un algoritmo de ingreso de nodos en la red con el objeto de optimizar el retardo de distribución. A continuación, se caracteriza la topología de la red mediante tres parámetros: el número de nodos a los que puede servir el nodo fuente, el número de conexiones de descarga que deben llegar a un nodo para recibir el flujo a tasa unitaria y el número máximo de conexiones de subida que puede establecer un nodo. Asimismo, se segmenta el flujo de información en unidades genéricas, denominadas objetos, que se diseminan en la red a través de un determinado conjunto de árboles de difusión. El número de árboles de difusión se corresponde con el número de conexiones de descarga de los nodos. Todo esto permite obtener una expresión del número de nodos que, en condiciones de estabilidad, pueden conectarse a la red, así como una cota muy ajustada del retardo total de transmisión. Presentamos además una simulación que permite evaluar el rendimiento de la topología descrita en el entorno de redes VANET. De forma complementaria, en el último capítulo se presenta una propuesta de distribución multicast en la capa de aplicación que puede emplearse para transmitir el flujo de información desde el nodo que lo produce inicialmente hasta los nodos fuentes de las redes P2P de distribución.
170

Computational representation and discovery of transcription factor binding sites

Maynou Fernàndez, Joan 01 February 2016 (has links)
Tesi per compendi de publicacions. / The information about how, when, and where are produced the proteins has been one of the major challenge in molecular biology. The studies about the control of the gene expression are essential in order to have a better knowledge about the protein synthesis. The gene regulation is a highly controlled process that starts with the DNA transcription. This process operates at the gene level, hereditary basic units, which will be copied into primary ribonucleic acid (RNA). This first step is controlled by the binding of specific proteins, called as Transcription Factors (TF), with a sequence of the DNA (Deoxyribonucleic Acid) in the regulatory region of the gene. These DNA sequences are known as binding sites (BS). The binding sites motifs are usually very short (5 to 20 bp long) and highly degenerate. These sequences are expected to occur at random every few hundred base pairs. Besides, a TF can bind among different sites. Due to its highly variability, it is difficult to establish a consensus sequence. The study and identification binding sites is important to clarify the control of the gene expression. Due to the importance of identifying binding sites sequences, projects such as ENCODE (Encyclopedia of DNA elements), have dedicated efforts to map binding sites for large set of transcription factor to identify regulatory regions. In this thesis, we have approached the problem of the binding site detection from another angle. We have developed a set of toolkit for motif binding detection based on linear and non-linear models. First of all, we have been able to characterize binding sites using different approaches. The first one is based on the information that there is in each binding sites position. The second one is based on the covariance model of an aligned set of binding sites sequences. From these motif characterizations, we have proposed a new set of computational methods to detect binding sites. First, it was developed a new method based on parametric uncertainty measurement (Rényi entropy). This detection algorithm evaluates the variation on the total Rényi entropy of a set of sequences when a candidate sequence is assumed to be a true binding site belonging to the set. This method was found to perform especially well on transcription factors that the correlation among binding sites was null. The correlation among binding sites positions was considered through linear, Q-residuals, and non-linear models, alpha-Divergence and SIGMA. Q-residuals is a novel motif finding method which constructs a subspace based on the covariance of numerical DNA sequences. When the number of available sequences was small, The Q-residuals performance was significantly better and faster than all the others methodologies. Alpha-Divergence was based on the variation of the total parametric divergence in a set of aligned sequenced with binding evidence when a candidate sequence is added. Given an optimal q-value, the alpha-Divergence performance had a better behavior than the others methodologies in most of the studied transcription factor binding sites. And finally, a new computational tool, SIGMA, was developed as a trade-off between the good generalisation properties of pure entropy methods and the ability of position-dependency metrics to improve detection power. In approximately 70% of the cases considered, SIGMA exhibited better performance properties, at comparable levels of computational resources, than the methods which it was compared. This set of toolkits and the models for the detection of a set of transcription factor binding sites (TFBS) has been included in an R-package called MEET. / La informació sobre com, quan i on es produeixen les proteïnes ha estat un dels majors reptes en la biologia molecular. Els estudis sobre el control de l'expressió gènica són essencials per conèixer millor el procés de síntesis d'una proteïna. La regulació gènica és un procés altament controlat que s'inicia amb la transcripció de l'ADN. En aquest procés, els gens, unitat bàsica d'herència, són copiats a àcid ribonucleic (RNA). El primer pas és controlat per la unió de proteïnes, anomenades factors de transcripció (TF), amb una seqüència d'ADN (àcid desoxiribonucleic) en la regió reguladora del gen. Aquestes seqüències s'anomenen punts d'unió i són específiques de cada proteïna. La unió dels factors de transcripció amb el seu corresponent punt d'unió és l'inici de la transcripció. Els punts d'unió són seqüències molt curtes (5 a 20 parells de bases de llargada) i altament degenerades. Aquestes seqüències poden succeir de forma aleatòria cada centenar de parells de bases. A més a més, un factor de transcripció pot unir-se a diferents punts. A conseqüència de l'alta variabilitat, és difícil establir una seqüència consensus. Per tant, l'estudi i la identificació del punts d'unió és important per entendre el control de l'expressió gènica. La importància d'identificar seqüències reguladores ha portat a projectes com l'ENCODE (Encyclopedia of DNA Elements) a dedicar grans esforços a mapejar les seqüències d'unió d'un gran conjunt de factors de transcripció per identificar regions reguladores. L'accés a seqüències genòmiques i els avanços en les tecnologies d'anàlisi de l'expressió gènica han permès també el desenvolupament dels mètodes computacionals per la recerca de motius. Gràcies aquests avenços, en els últims anys, un gran nombre de algorismes han sigut aplicats en la recerca de motius en organismes procariotes i eucariotes simples. Tot i la simplicitat dels organismes, l'índex de falsos positius és alt respecte als veritables positius. Per tant, per estudiar organismes més complexes és necessari mètodes amb més sensibilitat. En aquesta tesi ens hem apropat al problema de la detecció de les seqüències d'unió des de diferents angles. Concretament, hem desenvolupat un conjunt d'eines per la detecció de motius basats en models lineals i no-lineals. Les seqüències d'unió dels factors de transcripció han sigut caracteritzades mitjançant dues aproximacions. La primera està basada en la informació inherent continguda en cada posició de les seqüències d'unió. En canvi, la segona aproximació caracteritza la seqüència d'unió mitjançant un model de covariància. A partir d'ambdues caracteritzacions, hem proposat un nou conjunt de mètodes computacionals per la detecció de seqüències d'unió. Primer, es va desenvolupar un nou mètode basat en la mesura paramètrica de la incertesa (entropia de Rényi). Aquest algorisme de detecció avalua la variació total de l'entropia de Rényi d'un conjunt de seqüències d'unió quan una seqüència candidata és afegida al conjunt. Aquest mètode va obtenir un bon rendiment per aquells seqüències d'unió amb poca o nul.la correlació entre posicions. La correlació entre posicions fou considerada a través d'un model lineal, Qresiduals, i dos models no-lineals, alpha-Divergence i SIGMA. Q-residuals és una nova metodologia per la recerca de motius basada en la construcció d'un subespai a partir de la covariància de les seqüències d'ADN numèriques. Quan el nombre de seqüències disponible és petit, el rendiment de Q-residuals fou significant millor i més ràpid que en les metodologies comparades. Alpha-Divergence avalua la variació total de la divergència paramètrica en un conjunt de seqüències d'unió quan una seqüència candidata és afegida. Donat un q-valor òptim, alpha-Divergence va tenir un millor rendiment que les metodologies comparades en la majoria de seqüències d'unió dels factors de transcripció considerats. Finalment, un nou mètode computacional, SIGMA, va ser desenvolupat per tal millorar la potència de detecció

Page generated in 0.058 seconds