• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 408
  • 36
  • 4
  • 3
  • 1
  • 1
  • Tagged with
  • 454
  • 109
  • 91
  • 82
  • 78
  • 77
  • 77
  • 77
  • 77
  • 69
  • 67
  • 64
  • 58
  • 51
  • 50
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
211

Desarrollo y aplicación de estrategias de optimización para el diseño óptico de redes metabólicas y procesos biotecnológicos

Lasry Testa, Romina D. 17 March 2020 (has links)
Las cianobacterias tienen potencial como productoras de biocombustibles y otros productos químicos, ya que pueden crecer utilizando el CO2 presente en la atmósfera como fuente de carbono, la luz como fuente de energía y el agua como fuente de electrones. Esto resulta atractivo en el contexto actual de cambio climático ocasionado por las elevadas concentraciones de CO2 en la atmósfera. En esta tesis se estudia la producción de etanol de cuarta generación y polihidroxibutirato (PHB) a partir de la cianobacteria Synechocystis sp. PCC 6803, con un enfoque de Ingeniería de Sistemas Metabólicos. En primer lugar, se cura un modelo estequiométrico de escala genómica (GEM) de dicha cianobacteria con información bibliográfica específica actualizada, con el objetivo de mejorar las predicciones in silico. Luego, el GEM es validado frente a datos experimentales fisiológicos y datos de fluxómica, demostrándose que la curación resulta efectiva en mejorar las predicciones del modelo. Con el modelo curado y validado, se formulan problemas de programación binivel para buscar estrategias de acoplamiento, a través de la supresión de genes, entre el crecimiento y la producción del compuesto de interés con el objetivo de convertir al metabolito deseado en un subproducto obligado del crecimiento y que en consecuencia, su producción resulte una parte integral de la función metabólica del organismo. Matemáticamente, las intervenciones genéticas se representan por medio de variables binarias asociadas a dichos genes. Estos problemas son reformulados por medio de la teoría de la dualidad, obteniéndose como resultado problemas de programación mixta entera lineal (MILP) en un solo nivel que se resuelven tanto para el caso de etanol como para el de PHB. Existen en bibliografía formulaciones de este tipo, aunque con variables binarias asociadas a reacciones. El aporte realizado en esta tesis al incorporar asociación de variables binarias a genes es un avance en el agregado de información biológica a este tipo de formulaciones. En el caso del etanol se obtienen dos mutantes factibles que presentan diferentes estrategias de intervención para acoplar la producción al crecimiento, una relacionada con la producción de acetato y la otra, con el balance celular de poder reductor, siendo el segundo caso el más prometedor desde el punto de vista biotecnológico ya que aumenta en un 235 % la productividad de la cepa con respecto a las productividades presentadas en bibliografía. Para este producto, también se estudia la posibilidad de producción con una estrategia en dos etapas. En dicha estrategia, se considera un primer biorreactor con condiciones que maximicen el crecimiento y un segundo biorreactor donde un nutriente limita dicho crecimiento y se favorece la producción de etanol. Esta estrategia mejora aún más los índices de producción. En el caso de PHB también se obtienen dos mutantes factibles, pero la estrategia de acoplamiento no varía. La diferencia entre ambos son dos intervenciones más, que hacen que la tasa de producción de PHB aumente un 25%. La estrategia, en este caso, también está relacionada con el balance de poder reductor de la red, pero se observan mayores cambios en los flujos metabólicos internos que para el caso del etanol. La productividad del mejor mutante se analiza en condiciones de exceso y de limitación de nutrientes. Las productividades obtenidas vuelven atractiva la realización de experimentos in vivo para avanzar en el diseño de cepas de Synechocystis como fábricas celulares de etanol de cuarta generación y de bioplásticos. Los modelos desarrollados constituyen herramientas útiles para el diseño de cepas industriales para la producción fotosintética no solo de biocombustibles y bioplásticos, sino también de compuestos de interés en una gran variedad de industrias como la farmacéutica, la nutracéutica, de biofertilizantes, entre otros. / Cyanobacteria are potential candidates for biofuel and chemical product production, due to their ability to grow autotrophically, on the atmospheric CO2 as carbon source, light as energy source, and water as electron source. These capacities become attractive in the current climate change context, caused by the high concentrations of CO2 in the atmosphere. In this thesis, the production of fourth generation ethanol and polyhydroxybutyrate (PHB) from the cyanobacteria Synechocystis sp. PCC 6803 is studied through a Systems Metabolic Engineering approach. First, a genomic scale stoichiometric model (GEM) of Synechocystis is curated, based on specialized and actualized bibliography, to improve the in silico predictions. Then, the GEM is validated against physiological and fluxomic data. After model curation and validation, bilevel programming problems are formulated, to determine genetic engineering strategies to couple growth and bioproduct production by gene knock-outs. The aim of coupling production is turning the biotechnological compound into an obligate subproduct of growth, so that its production becomes an integral part of the organism’s metabolic function. Mathematically, knock-outs are represented by binary variables associated to the corresponding genes. This bilevel programming problems are reformulated into one level Mixed Integer Linear Programming (MILP) problems by applying the duality theory, and are solved for both ethanol and PHB cases. Considering binary variables associated with genes instead of reactions is a novel contribution of this thesis. and constitutes a step towards the incorporation of biological meaning into in silico results. For the case of ethanol, two feasible mutants are obtained, with different intervention strategies to couple production to growth. One of the strategies is related to acetate production and the other with the cellular reductive power balance. The latter is the most promising case from a biotechnological point of view, because it gives a productivity 235%.higher than those reported in bibliography. Also, a two-stage ethanol production strategy is addressed, where a first bioreactor with growth maximizing conditions and a second one with nutrient limiting conditions are considered. This strategy further improves production indexes. In the case of PHB, two feasible mutants are obtained with similar coupling strategies. The difference between them are two interventions that improve PHB production rate by 25%. The strategy in this case is also related with the cellular reductive power balance, but more changes in the internal metabolic fluxes are required, as compared to the ethanol case. The productivity of the best mutant is analyzed under excess and limiting nutrient conditions. The results obtained are encouraging to make further in vivo experiments to move forward in the design of Synechocystis as a microbial cell factory of fourth generation biofuels and bioplastics. The models developed in this thesis constitute useful tools for the design of industrial strains for the photosynthetic production of not only biofuels and bioplastics, but also of compounds of interest with application in a wide range of industries like pharmaceutical, nutraceutical and biofertilizers, among others
212

El método del gradiente espectral proyectado acelerado mediante paralelismo : aplicaciones a ingeniería de procesos

Ardenghi, Juan Ignacio 20 May 2014 (has links)
En el área de Ingeniería de Procesos abundan los problemas de optimización no lineales. En busca de formulaciones más realistas ha aumentado la exigencia de un modelado riguroso. Como complejidades incorporadas, al aumento de la cantidad de variables continuas y restricciones no lineales se le suman la presencia de variables binarias. En muchos casos los problemas se resuelven mediante la relajación de variables y condiciones, así generando subproblemas no lineales cuya resolución se realiza a través de aproximaciones lineales y cuadráticas. La pregunta formulada en esta tesis es la siguiente ¿Podemos lograr eficiencia sin tener que relajar el problema? Es decir ¿podemos conseguir soluciones del modelo original en tiempos razonables? En esta tesis proponemos explotar el Método del Gradiente Espectral Proyectado (SPG) mediante su refundación a partir del paradigma paralelo. El SPG es un método de optimización global no monótono para problemas de programación no lineal, con características diferentes a las exhibidas por los métodos clásicos de gradiente proyectado. La no monotonicidad y una elección particular de la longitud del paso permiten aprovechar situaciones especiales que se presentan en muchos problemas, acelerando la convergencia con mínimos costos de almacenamiento de datos. Entre sus características más atractivas aparece su bajo costo en operaciones: SPG no calcula matrices hessianas ni resuelve sistemas lineales. SPG sólo utiliza productos matriz vector y una estrategia de búsqueda lineal no monótona para garantizar convergencia global. Combinado con un esquema de Lagrangiano Aumentado, el método se muestra como una herramienta muy prometedora para el abordaje de problemas muy exigentes en cuanto a esfuerzo computacional y eficiencia. Sus puntos débiles se encuentran en el requerimiento de muchas búsquedas lineales para obtener un nuevo iterado, y en la necesidad de una buena aproximación del gradiente cuando éste no está disponible en forma analítica. En problemas de aplicaciones industriales estos dos aspectos pueden devenir en verdaderos cuellos de botella del algoritmo. En consecuencia, el bajo costo aritmético por iteración no se ve reflejado en el tiempo total de resolución. El auge del desarrollo en la programación en paralelo hace que este paradigma se presente como un recurso que ofrece una gran oportunidad para superar estos inconvenientes. El objetivo de esta tesis fue el desarrollo y análisis del desempeño de una versión eficiente del algoritmo SPG programado en paralelo, asumiendo desconocimiento de expresiones analíticas de la función objetivo o de los gradientes. Este escenario a menudo se presenta en los problemas de optimización en ingeniería de procesos con gran cantidad de variables y restricciones no lineales. La nueva versión del algoritmo SPG genera una sucesión de iterados que es alternativa a la que genera la versión secuencial lo que lo hace más competitivo, pero manteniendo la robustez de convergencia que posee el método SPG original. Se desarrollaron e implementaron dos versiones del algoritmo paralelo: una fue concebida para ejecutarse eficientemente sobre una arquitectura distribuida mediante pasaje de mensajes sobre una red de área local estándar, y la otra fue diseñada para ejecutarse sobre una arquitectura de memoria local compartida. La experimentación numérica se realizó sobre un cluster de 8 procesadores y en una computadora multicore de 12 núcleos. Se demostró en forma teórica la eficiencia esperada. Además, hemos contrastado estos desarrollos teóricos con resultados empíricos obtenidos en algunos problemas de diseño relacionados a plantas de procesos industriales, ubicando así a este resolvedor paralelo como una herramienta competitiva frente a los resolvedores clásicos de paquetes comerciales. / There are many nonlinear optimization problems in the area of Process Engineering. In the search of more realistic formulations the need of more rigorous modeling has grown. The presence of binary variables, the increasing amount of continuous variables and nonlinear constraints count among the incorporated complexities. In many cases the problems are solved by relaxing variables and conditions, thus generating nonlinear subproblems whose resolution is carried out through linear and quadratic approximations. The question posed in this thesis is the following: Can we achieve efficiency without having to relax the problem? I mean: Can we get the original model solutions in reasonable time? In this thesis we propose to exploit the Spectral Projected Gradient method (SPG) by its relaunching from the parallel paradigm. SPG is a non-monotone global optimization method for nonlinear programming problems, its features being different from those exhibited by the classical projectedgradient methods. The non-monotonicity and a particular choice of the step length allow to exploit special situations that arise in many problems, accelerating the convergence with minimal data-storage costs. Its low operating cost features among its most attractive attributes SPG neither calculates Hessian matrices nor solves linear systems. SPG just performs matrix vector products and a non-monotone line-search strategy in order to ensure global convergence. When combined with an Augmented Lagrangian scheme, the method looks like a promising tool for addressing demanding problems in terms of computational effort and efficiency. Its weaknesses lie in the requirement of too many line-searches for a new iterate, and in the need for a good approximation of the gradient when it is not available in analytical form. In industrial application these two mentioned aspects may become real bottlenecks in the algorithm. In consequence, the low arithmetic cost per iteration is not reflected in the total elapsed time of resolution. The boom development in parallel programming presents this paradigm as a resource that provides a great opportunity to overcome these drawbacks. The goal of this thesis was the development and analysis of the performance of an efficient version of the SPG algorithm programmed in parallel, assuming lack of knowledge about the analytical expressions of the objective function or gradients. This scenario often appears in process engineering optimization problems with many variables and non-linear constraints. The new version of the SPG algorithm generates a sequence of iterates that is alternative to the one generated by the sequential version. In this way, the proposed version becomes more competitive, while maintaining the robustness of the original method. Two versions of the parallel algorithm were developed and implemented: one of them was conceived to run efficiently on a distributed architecture by using message passing on a standard local area network, and another one was designed to run on a shared local-memory architecture. The numerical experiments were performed on a cluster of 8 processors and a 12-core multicore computer. We have proved the expected efficiency theoretically. Besides, we have contrasted these theoretical developments with empirical results in some design problems related to industrial plants processes. thus placing this parallel solver as a competitive tool against classical commercial packages.
213

Reglas y estrategias de transformación para programas lógico-funcionales

Moreno Valverde, Ginés Damián 20 May 2009 (has links)
El problema de la integración d ela programación lógica y funcional estaá considerado como uno de los más importantes en el área de investigación sobre programación declarativa. Para que los lenguajes declarativos sean útiles y puedan utilizarse en aplicaciones reales, es necesario que el grado de eficiencia de su ejecución se aproxime al de los lenguajes imperativos. Para ello, es imprescindible el desarrollo de herramientas potentes para el análisis y transformacón de los programas, capaces de optimizar las implementaciones existentes. Esta tesis se centra en el desarrollo de tales técnicas, adoptándose la aproximación conocida como "reglas + estrategias" para la optimización de programas en un tentexto lógico-funcional unificado. Las reglas básicas que se usan son el plegado y el desplegado que aquí se definen en términos del Narrowing y sus refinamientos. Gracias a la propagación bidireccional de parámetros realizadas por el mecanismo de unificación del narrowing, se obtienen optimizaciones apreciables y es posible explotar la sinergía existente entre la sintaxis funcional (anidamientos funcionales, evaluaciones perezosas, etc.) y el uso de variables lógicas. Esta fisión unificada de ejecución y transformación de programas nos permite explotar los resultados conocidos en ambos campos, funcional y lógico, y desarrollar un esquema simple y potente para mejorar un programa con respecto a su capacidad para computar tanto valores a funciones como respuestas a objetivos. Presentamos algunas aplicaciones de las reglas de plegado y desplegado (semánticas formales pr desplegado y relaciones con las técnicas de evalación parcial). Además, mostramos que su combinación con otras reglas para la introducción y eliminación de difiniciones y reglas de abstracción permite obtener programas eficicientes cuando son dirigidas por estrategias adecuadas como son la composición o la formación de Tuplas. El esquema presentado constituye la primera aproximación correcta y completa .... / Moreno Valverde, GD. (2000). Reglas y estrategias de transformación para programas lógico-funcionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4701
214

Propuesta de Marco y Metodología para el Modelado del Proceso de Planificación Colaborativa en Redes de Suministro/Distribución basado en Programación Matemática. Aplicación a Empresas del Sector de Pavimientos y Revestimientos Cerámicos

Pérez Perales, David 07 October 2013 (has links)
En la actualidad, cada vez más son necesarias Herramientas de ayuda a la Toma de Decisiones para la Planificación de Operaciones Colaborativa en contextos de Cadenas de Suministro, o más ampliamente, lo que se denomina Redes de Suministro/Distribución (RdS/D). Entre dichas Herramientas son de especial relevancia las de optimización, y entre estas últimas, aquellas basadas en Modelos de Programación Matemática. Una extensa revisión de la literatura depara que dichos Modelos se han utilizado mayoritariamente considerando una Toma de Decisiones centralizada de la RdS/D. Sin embargo, la realidad muestra como las diferentes ¿Entidades¿ que forman parte de la RdS/D, no siempre comparten los mismos objetivos y en muchas ocasiones, son reáceas a compartir cierto tipo de información. Por esa razón, la situación más común es la toma de Decisiones descentralizada, en la que diferentes ¿Entidades¿ deben coordinarse para obtener un buen rendimiento individual y de la RdS/D en su conjunto. Por otra parte, los Modelos que sí se han aplicado al caso descentralizado han simplificado enormemente la realidad, sin considerar RdS/D con el suficiente grado de complejidad (productos, recursos¿) u omitiendo algunos aspectos importantes del propio proceso de Planificación Colaborativa, y particularmente la aplicación simultánea de aspectos ligados a la integración espacial (entre diferentes ¿decisores¿ perteneciente a un mismo Nivel Decisional) o la integración vertical (entre diferentes Niveles Decisionales). Además, en muchas de las ocasiones dichos Modelos no son fácilmente extrapolables a otras situaciones y se obvia la manera en que se han elaborado. Por todo ello, la presente Tesis propone un Marco, y posteriormente una Metodología basada en el mismo, que indique de forma estructurada, en primer lugar, los pasos para el Modelado del proceso de Planificación de Operaciones (Colaborativo) en contextos de RdS/D, y en segundo lugar, para el Modelado Analítico (basado en Programación Matemática) del mismo y su posterior Resolución/Evaluación. Más concretamente, el Marco propuesto integra cuatro visiones diferentes de modelado, como son las visiones Física, Organizacional, Decisional e Informacional y sus inter-relaciones, lo cual favorece la construcción de modelos integrados (unión de varias visiones) del proceso de Planificación Colaborativa. Si bien el Modelado de Procesos atiende fundamentalmente a la Visión Funcional, en este caso, por el tipo específico de Proceso que se desea modelar, ligado a la Toma de Decisiones, se utilizará la Visión Decisional como la visión base para modelar el Proceso, estando la Visión Funcional embebida en esta última. La inclusión del resto de Visiones es importante puesto que en la Toma de Decisiones en contextos de Planificación se actúa sobre unos Recursos/Ítems (Visión Física) y según una determinada Organización, en la que las diferentes ¿entidades¿ estarán más o menos integradas (Visión Organizacional). Por otra parte la propia actividad de la RdS/D generará y necesitará cierta Información (Visión Informacional), necesaria para tomar decisiones. Además dicho Marco contempla todo tipo de escenarios decisionales en los que se puede enmarcarse el Proceso de Planificación Colaborativa en una RdS/D, desde los más Centralizados a aquellos que tienen lugar en Entornos Distribuidos/Descentralizados, para lo cual se identifican diferentes Centros de Decisión, tanto en el Nivel Decisional Táctico como en el Operativo, considerando al mismo tiempo tanto su Integración Temporal como su Integración Espacial. Una vez aplicada la primera parte de la Metodología se obtendrá (nivel Macro) un Modelo integrado del Proceso, en el que se conocerá, entre otros aspectos, de qué Actividades Decisionales consta el Proceso, cuál es su orden de ejecución y qué tipo de Información ¿por interdependencias¿ es intercambiada entre las mismas. El modelo del Proceso anterior y todos los aspectos/conceptos analíticos descritos también en el Marco, serán especialmente relevantes para que en una segunda parte de la Metodología (nivel micro) se detalle como realizar el Modelado analítico del Proceso y cómo proceder a su Resolución/Evaluación integrada. Para el Modelado analítico se supondrá que cada uno de los Centros de Decisión (asociados a las Actividades Decisionales del Proceso), tomará las decisiones de planificación táctica/operativa en base a Modelos basados en Programación Matemática (Programación Lineal Entera Mixta). Además se particularizará para escenarios doblemente jerárquicos (desde el punto de vista Temporal y Espacial), de un ciclo Instrucción-Reacción y en contextos organizacionales (de ¿búsqueda de un objetivo conjunto¿) en los que puede existir cualquier ¿status de información¿ (asimetría), pero en la que ésta nunca se podrá utilizar con fines oportunistas. En cuanto a la resolución/evaluación, se irán ejecutando los diferentes Modelos teniendo en cuenta la secuencia e información ¿por interdependencias¿ (propia de escenarios colaborativos) definidas anteriormente en el Modelado del Proceso. Una vez ejecutados todos, se describe cómo evaluar cuantitativamente el ¿desempeño¿ conjunto de la RdS/D (o grado de Planificación Colaborativa actual) a partir de la definición de tres parámetros, denominados ¿Criterio Total¿, ¿Tiempo de Resolución Total¿ y ¿Consistencia Total¿. Además, la propia metodología facilita y guía en la ¿simulación¿ de diferentes escenarios de Planificación Colaborativa (TO-BE) de manera que puedan conocerse ¿a priori¿ los beneficios/costes que ello supone. El análisis de dichos escenarios podrá afectar indistintamente (con mayor o menor profundidad) a cualquiera de las Visiones Física, Organizacional o Decisional, y por ende a la Informacional. Por último, dicha Metodología, aunque aplicable/extrapolable a cualquier Sector Industrial, se ha implementado en una RdS/D concreta perteneciente al Sector de Pavimentos y Revestimientos Cerámicos. En primer lugar a través del Modelado de su Proceso de Planificación Colaborativa y la identificación de las diferentes Actividades Decisionales (Centros de Decisión) que lo conforman, así como su orden de ejecución e información compartida entre las mismas. En segundo lugar a través del Modelado basado en Programación Matemática de cada uno de los anteriores Centros de Decisión, en la que cabe resaltar, también como aportación, la complejidad de los diferente Modelos, interrelacionados entre sí, y que incluyen todas las características intrínsecas a la Planificación táctico/operativa en dicho Sector. En tercer y último lugar a través de la resolución integrada de los anteriores Modelos, lo que ha permitido evaluar cuantitativamente, a través de los parámetros antes mencionados, el grado de Planificación colaborativa actual (AS-IS) de dicha RdS/D. / Pérez Perales, D. (2013). Propuesta de Marco y Metodología para el Modelado del Proceso de Planificación Colaborativa en Redes de Suministro/Distribución basado en Programación Matemática. Aplicación a Empresas del Sector de Pavimientos y Revestimientos Cerámicos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/32665
215

Aplicación de las tecnologias C.A.D al diseño optimo interactivo de estructuras mediante programación matemática no lineal

Company Calleja, Pedro-Pablo 08 February 1989 (has links)
Company Calleja, P. (1989). Aplicación de las tecnologias C.A.D al diseño optimo interactivo de estructuras mediante programación matemática no lineal [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/60770
216

Evaluación de motores de videojuegos: caso Andengine y LibGDX

Cumpa Torres, José Moisés January 2014 (has links)
Publicación a texto completo no autorizada por el autor / Propone una guía que permita a desarrolladores interesados elegir un motor de videojuegos adecuado y en tiempo óptimo. En el desarrollo de videojuegos los cambios a nuevas tecnologías son frecuentes. Actualmente está en auge los juegos móviles y eso implica que existan también varios motores de videojuegos para estas plataformas móviles. Ante la existencia de varios motores de videojuegos tanto open source como propietarios es un reto decidir qué motor se va a utilizar por eso es que en este trabajo se propone una guía que permita resolver esa duda. En esta investigación se incide en la lectura de varios papers que contienen temas de investigación acerca de los motores de videojuegos. Se usan como ejemplo dos motores para plataforma Android y con ellos se presenta un caso práctico que pone en ejecución la propuesta de la guía. / Trabajo de suficiencia profesional
217

Planificación del Almacenamiento de los Productos de la Empresa SQM en el Puerto de Tocopilla, con el Fin de Minimizar los Costos

Ureta Messina, Felipe 15 April 2010 (has links)
SQM es líder mundial en sus tres principales líneas de negocio: Nutrición vegetal de especialidad, Yodo y Litio, superando los 1,800 millones de dólares en ventas y contando con oficinas comerciales en más de 20 países, lo que permite que sus fórmulas de negocio lleguen a clientes en 110 países de Europa, América, Asia, África y Oceanía. El almacenamiento de los productos en el puerto de Tocopilla, es uno de los procesos más relevante para la empresa. Diariamente llegan aproximadamente 4.000 toneladas de productos a dicho puerto, por lo que los costos de almacenamientos es un tema a considerar. Existen 14 canchas y 6 silos que tienen distintos costos, donde se acumulan los productos, por lo que una buena decisión de donde dejar cada producto puede producir ahorros considerables. Este trabajo se centra en planificar el almacenamiento de los productos mediante un modelo de programación lineal, resuelta con el solver CPLEX, que permita optimizar los costos asociados al proceso y poder darle una visión a largo plazo, con la cual no se cuenta hoy en día. Se logró hacer una interfaz amigable y fácil de usar, la que se programó en Visual Basic, del programa Excel. La herramienta logró quitarle el paradigma de que los productos son para una cancha determinada y permitirle al modelo decidir donde almacenar cada producto. Se tuvo problemas de capacidad máxima de memoria en la herramienta, por lo que solo se pudo dar una visión a 3 meses, lo que supera el tiempo promedio de permanencia de los productos en el puerto. No se pudo modelar una restricción, que corresponda al espacio perdido por agregar más de un producto a una misma cancha. Finalmente se pudo analizar de que el puerto sí tiene la capacidad para un aumento de producción por parte de las minas, ya que si se tiene un buen ordenamiento de lo productos, es posible poder producir y vender mayores cantidades. Se estimó que pueden haber ahorros de un 3.1% en los costos anuales de almacenamiento y embarque de los productos de la empresa.
218

Imagen tridimensional. Diseño de aparato cinético para experimentación sobre la relación imagen-tridimensionalidad en medios interactivos

Cornejo Castillo, Cristobal January 2015 (has links)
Memoria para optar al título de Diseñador Gráfico / Imagen tridimensional, es un proyecto experimental de diseño que busca realizar un estudio sobre el fenómeno de la mediación de la tridimensionalidad mediante la construcción de un aparato que actúe como mediador y objetos que serán presentados en este. En este proceso se busca contribuir a la reflexión sobre las nuevas posibilidades y limitantes técnicas de los medios, el fenómeno de representar objetos volumétricos en imágenes y ampliar la discusión sobre aquellas mediaciones que son consideradas tridimensionales y que como diseñadores nos encontramos a menudo encargados de producir. En una primera etapa de este proyecto se busca estudiar y comprender el fenómeno de la percepción de la tridimensionalidad naturalmente y cuando se encuentra mediada, recopilando conceptos claves y comprendiendo procesos que, en una segunda parte, permitirán definir la forma de construcción de un aparato mediador que incentive al observador en reparar sobre el acto perceptual de comprender un objeto como tridimensional a través de la presentación de imágenes. Para esto, se realiza la construcción de un zoótropo inverso, que interviene en la percepción continua de objetos móviles presentados frente a un observador. Objetos volumétricos y físicos que son el resultado de re-interpretaciones de cuadros pertenecientes al movimiento suprematista de 1915 y que son diseñados para representar la tensión entre una imagen bidimensional y su posible realidad volumétrica desconocida. El proyecto concluye con un prototipo funcional que permite a un observador enfrentarse a una experiencia de mediación interactiva diseñada para advertir aquello que es necesario para mediar tridimensionalidad.
219

Aprendizaje basado en ejemplos: desarrollo de aplicaciones empresariales con tecnologías .net

Gesta, Marcos, Vázquez, José M., Fernández-Blanco, Enrique, Rivero, Daniel, Rabuñal, Juan R., Dorado, Julian, Pazos, Alejandro 06 1900 (has links)
For a long time, J2EE has been the dominating framework for the development of business applications. This fact resulted in a rich ecosystem of tools, manuals, tutorials, etc. that explain different implementation alternatives or peculiarities. The incursion of .NET Framework in the business environment has generated a strong demand of application implementation under this architecture. However, the quantity and quality of documents available significantly differs from its main alternative (J2EE). This documentation gap is especially visible and worrying when the objective is to teach the concepts of Framework, from a teacher’s point of view, to the future graduates of the Information Systems Engineering program. This paper describes the teaching approach used in order to achieve the goal of having the students become familiar with this alternative framework and the usual model practices within it. Thus, it is based mainly on a set of basic tutorials that show the foundations of technology and two complete applications (miniportal and minibank) explaining how to apply design patterns when developing a business solution. / El framework J2EE ha sido el gran dominador, durante mucho tiempo, en el desarrollo de aplicaciones empresariales. Esto hecho originó la aparición de un rico ecosistema de herramientas, manuales, tutoriales, etc., que explican las diferentes alternativas o peculiaridades a la hora de su implementación. La irrupción de .NET Framework, en el ámbito empresarial, ha producido una fuerte demanda de implementación de aplicaciones bajo dicha arquitectura. Sin embargo, la cantidad o calidad de la documentación disponible dista considerablemente con respecto a la existente, su principal alternativa (J2EE). Esta laguna de documentación, es especialmente visible y preocupante cuando se establece como objetivo dar a conocer los conceptos del framework, desde un punto de vista docente, a los futuros egresados del Grado en Ingeniería en Informática. Este trabajo describe el enfoque docente seguido, para alcanzar el citado objetivo de familiarizar a los alumnos con este framework alternativo y las prácticas habituales de modelo dentro de éste. Para ello, se basa principalmente de un conjunto de sencillos tutoriales con los que mostrar los fundamentos de la tecnología y dos aplicaciones completas (miniportal y minibank) en las que se muestra cómo aplicar patrones de diseño, a la hora de abordar una aplicación empresarial.
220

Sistema para la generación de horarios académicos en instituciones universitarias usando algoritmo Tabú

Ramos Milla, Frank Roger January 2012 (has links)
Desarrolla un sistema de información que permita solucionar el problema de la elaboración de la carga académica y la generación de horarios por semestre. Utiliza herramientas web y el algoritmo de búsqueda Tabú que permitan a cada docente acceder desde cualquier punto al sistema para registrar la carga académica. De esta forma se generan los horarios automáticamente una vez llenados los formularios por los docentes.

Page generated in 0.1717 seconds