Spelling suggestions: "subject:"programación."" "subject:"programacióon.""
211 |
Desarrollo y aplicación de estrategias de optimización para el diseño óptico de redes metabólicas y procesos biotecnológicosLasry Testa, Romina D. 17 March 2020 (has links)
Las cianobacterias tienen potencial como productoras de biocombustibles y otros
productos químicos, ya que pueden crecer utilizando el CO2 presente en la atmósfera
como fuente de carbono, la luz como fuente de energía y el agua como fuente de
electrones. Esto resulta atractivo en el contexto actual de cambio climático ocasionado
por las elevadas concentraciones de CO2 en la atmósfera. En esta tesis se estudia la
producción de etanol de cuarta generación y polihidroxibutirato (PHB) a partir de la
cianobacteria Synechocystis sp. PCC 6803, con un enfoque de Ingeniería de Sistemas
Metabólicos.
En primer lugar, se cura un modelo estequiométrico de escala genómica (GEM) de dicha
cianobacteria con información bibliográfica específica actualizada, con el objetivo de
mejorar las predicciones in silico. Luego, el GEM es validado frente a datos
experimentales fisiológicos y datos de fluxómica, demostrándose que la curación resulta
efectiva en mejorar las predicciones del modelo. Con el modelo curado y validado, se
formulan problemas de programación binivel para buscar estrategias de acoplamiento,
a través de la supresión de genes, entre el crecimiento y la producción del compuesto
de interés con el objetivo de convertir al metabolito deseado en un subproducto obligado
del crecimiento y que en consecuencia, su producción resulte una parte integral de la
función metabólica del organismo. Matemáticamente, las intervenciones genéticas se
representan por medio de variables binarias asociadas a dichos genes. Estos problemas
son reformulados por medio de la teoría de la dualidad, obteniéndose como resultado
problemas de programación mixta entera lineal (MILP) en un solo nivel que se resuelven
tanto para el caso de etanol como para el de PHB. Existen en bibliografía formulaciones
de este tipo, aunque con variables binarias asociadas a reacciones. El aporte realizado
en esta tesis al incorporar asociación de variables binarias a genes es un avance en el
agregado de información biológica a este tipo de formulaciones.
En el caso del etanol se obtienen dos mutantes factibles que presentan diferentes
estrategias de intervención para acoplar la producción al crecimiento, una relacionada
con la producción de acetato y la otra, con el balance celular de poder reductor, siendo
el segundo caso el más prometedor desde el punto de vista biotecnológico ya que
aumenta en un 235 % la productividad de la cepa con respecto a las productividades
presentadas en bibliografía. Para este producto, también se estudia la posibilidad de
producción con una estrategia en dos etapas. En dicha estrategia, se considera un
primer biorreactor con condiciones que maximicen el crecimiento y un segundo
biorreactor donde un nutriente limita dicho crecimiento y se favorece la producción de
etanol. Esta estrategia mejora aún más los índices de producción.
En el caso de PHB también se obtienen dos mutantes factibles, pero la estrategia de
acoplamiento no varía. La diferencia entre ambos son dos intervenciones más, que
hacen que la tasa de producción de PHB aumente un 25%. La estrategia, en este caso,
también está relacionada con el balance de poder reductor de la red, pero se observan
mayores cambios en los flujos metabólicos internos que para el caso del etanol. La
productividad del mejor mutante se analiza en condiciones de exceso y de limitación de
nutrientes.
Las productividades obtenidas vuelven atractiva la realización de experimentos in vivo
para avanzar en el diseño de cepas de Synechocystis como fábricas celulares de etanol
de cuarta generación y de bioplásticos.
Los modelos desarrollados constituyen herramientas útiles para el diseño de cepas
industriales para la producción fotosintética no solo de biocombustibles y bioplásticos,
sino también de compuestos de interés en una gran variedad de industrias como la
farmacéutica, la nutracéutica, de biofertilizantes, entre otros. / Cyanobacteria are potential candidates for biofuel and chemical product production, due
to their ability to grow autotrophically, on the atmospheric CO2 as carbon source, light as
energy source, and water as electron source. These capacities become attractive in the
current climate change context, caused by the high concentrations of CO2 in the
atmosphere. In this thesis, the production of fourth generation ethanol and
polyhydroxybutyrate (PHB) from the cyanobacteria Synechocystis sp. PCC 6803 is
studied through a Systems Metabolic Engineering approach.
First, a genomic scale stoichiometric model (GEM) of Synechocystis is curated, based
on specialized and actualized bibliography, to improve the in silico predictions. Then, the
GEM is validated against physiological and fluxomic data. After model curation and
validation, bilevel programming problems are formulated, to determine genetic
engineering strategies to couple growth and bioproduct production by gene knock-outs.
The aim of coupling production is turning the biotechnological compound into an obligate
subproduct of growth, so that its production becomes an integral part of the organism’s
metabolic function. Mathematically, knock-outs are represented by binary variables
associated to the corresponding genes. This bilevel programming problems are
reformulated into one level Mixed Integer Linear Programming (MILP) problems by
applying the duality theory, and are solved for both ethanol and PHB cases. Considering
binary variables associated with genes instead of reactions is a novel contribution of this
thesis. and constitutes a step towards the incorporation of biological meaning into in silico
results.
For the case of ethanol, two feasible mutants are obtained, with different intervention
strategies to couple production to growth. One of the strategies is related to acetate
production and the other with the cellular reductive power balance. The latter is the most
promising case from a biotechnological point of view, because it gives a productivity
235%.higher than those reported in bibliography. Also, a two-stage ethanol production
strategy is addressed, where a first bioreactor with growth maximizing conditions and a
second one with nutrient limiting conditions are considered. This strategy further
improves production indexes.
In the case of PHB, two feasible mutants are obtained with similar coupling strategies.
The difference between them are two interventions that improve PHB production rate by
25%. The strategy in this case is also related with the cellular reductive power balance,
but more changes in the internal metabolic fluxes are required, as compared to the
ethanol case. The productivity of the best mutant is analyzed under excess and limiting
nutrient conditions. The results obtained are encouraging to make further in vivo
experiments to move forward in the design of Synechocystis as a microbial cell factory
of fourth generation biofuels and bioplastics.
The models developed in this thesis constitute useful tools for the design of industrial
strains for the photosynthetic production of not only biofuels and bioplastics, but also of
compounds of interest with application in a wide range of industries like pharmaceutical,
nutraceutical and biofertilizers, among others
|
212 |
El método del gradiente espectral proyectado acelerado mediante paralelismo : aplicaciones a ingeniería de procesosArdenghi, Juan Ignacio 20 May 2014 (has links)
En el área de Ingeniería de Procesos abundan los problemas de
optimización no lineales. En busca de formulaciones más realistas ha aumentado la
exigencia de un modelado riguroso. Como complejidades incorporadas, al aumento de
la cantidad de variables continuas y restricciones no lineales se le suman la presencia de
variables binarias. En muchos casos los problemas se resuelven mediante la relajación
de variables y condiciones, así generando subproblemas no lineales cuya resolución se
realiza a través de aproximaciones lineales y cuadráticas. La pregunta formulada en
esta tesis es la siguiente ¿Podemos lograr eficiencia sin tener que relajar el problema?
Es decir ¿podemos conseguir soluciones del modelo original en tiempos razonables? En
esta tesis proponemos explotar el Método del Gradiente Espectral Proyectado (SPG)
mediante su refundación a partir del paradigma paralelo.
El SPG es un método de optimización global no monótono para problemas de
programación no lineal, con características diferentes a las exhibidas por los métodos
clásicos de gradiente proyectado. La no monotonicidad y una elección particular de
la longitud del paso permiten aprovechar situaciones especiales que se presentan en
muchos problemas, acelerando la convergencia con mínimos costos de almacenamiento
de datos. Entre sus características más atractivas aparece su bajo costo en operaciones:
SPG no calcula matrices hessianas ni resuelve sistemas lineales. SPG sólo utiliza
productos matriz vector y una estrategia de búsqueda lineal no monótona para garantizar
convergencia global. Combinado con un esquema de Lagrangiano Aumentado, el método
se muestra como una herramienta muy prometedora para el abordaje de problemas
muy exigentes en cuanto a esfuerzo computacional y eficiencia. Sus puntos débiles se
encuentran en el requerimiento de muchas búsquedas lineales para obtener un nuevo
iterado, y en la necesidad de una buena aproximación del gradiente cuando éste no
está disponible en forma analítica. En problemas de aplicaciones industriales estos dos
aspectos pueden devenir en verdaderos cuellos de botella del algoritmo. En consecuencia,
el bajo costo aritmético por iteración no se ve reflejado en el tiempo total de resolución.
El auge del desarrollo en la programación en paralelo hace que este paradigma
se presente como un recurso que ofrece una gran oportunidad para superar estos
inconvenientes. El objetivo de esta tesis fue el desarrollo y análisis del desempeño de una
versión eficiente del algoritmo SPG programado en paralelo, asumiendo desconocimiento
de expresiones analíticas de la función objetivo o de los gradientes. Este escenario a
menudo se presenta en los problemas de optimización en ingeniería de procesos con gran
cantidad de variables y restricciones no lineales. La nueva versión del algoritmo SPG
genera una sucesión de iterados que es alternativa a la que genera la versión secuencial
lo que lo hace más competitivo, pero manteniendo la robustez de convergencia que posee
el método SPG original.
Se desarrollaron e implementaron dos versiones del algoritmo paralelo: una fue
concebida para ejecutarse eficientemente sobre una arquitectura distribuida mediante
pasaje de mensajes sobre una red de área local estándar, y la otra fue diseñada para
ejecutarse sobre una arquitectura de memoria local compartida. La experimentación
numérica se realizó sobre un cluster de 8 procesadores y en una computadora multicore
de 12 núcleos. Se demostró en forma teórica la eficiencia esperada. Además, hemos
contrastado estos desarrollos teóricos con resultados empíricos obtenidos en algunos
problemas de diseño relacionados a plantas de procesos industriales, ubicando así a este
resolvedor paralelo como una herramienta competitiva frente a los resolvedores clásicos
de paquetes comerciales. / There are many nonlinear optimization problems in the area of Process
Engineering. In the search of more realistic formulations the need of more rigorous
modeling has grown. The presence of binary variables, the increasing amount
of continuous variables and nonlinear constraints count among the incorporated
complexities. In many cases the problems are solved by relaxing variables and conditions,
thus generating nonlinear subproblems whose resolution is carried out through linear and
quadratic approximations. The question posed in this thesis is the following: Can we
achieve efficiency without having to relax the problem? I mean: Can we get the original
model solutions in reasonable time? In this thesis we propose to exploit the Spectral
Projected Gradient method (SPG) by its relaunching from the parallel paradigm.
SPG is a non-monotone global optimization method for nonlinear programming
problems, its features being different from those exhibited by the classical projectedgradient
methods. The non-monotonicity and a particular choice of the step length allow
to exploit special situations that arise in many problems, accelerating the convergence
with minimal data-storage costs. Its low operating cost features among its most
attractive attributes SPG neither calculates Hessian matrices nor solves linear systems.
SPG just performs matrix vector products and a non-monotone line-search strategy in
order to ensure global convergence. When combined with an Augmented Lagrangian
scheme, the method looks like a promising tool for addressing demanding problems in
terms of computational effort and efficiency. Its weaknesses lie in the requirement of too
many line-searches for a new iterate, and in the need for a good approximation of the
gradient when it is not available in analytical form. In industrial application these two
mentioned aspects may become real bottlenecks in the algorithm. In consequence, the
low arithmetic cost per iteration is not reflected in the total elapsed time of resolution.
The boom development in parallel programming presents this paradigm as a resource
that provides a great opportunity to overcome these drawbacks. The goal of this thesis
was the development and analysis of the performance of an efficient version of the SPG
algorithm programmed in parallel, assuming lack of knowledge about the analytical
expressions of the objective function or gradients. This scenario often appears in process
engineering optimization problems with many variables and non-linear constraints. The
new version of the SPG algorithm generates a sequence of iterates that is alternative to
the one generated by the sequential version. In this way, the proposed version becomes
more competitive, while maintaining the robustness of the original method.
Two versions of the parallel algorithm were developed and implemented: one of them
was conceived to run efficiently on a distributed architecture by using message passing
on a standard local area network, and another one was designed to run on a shared
local-memory architecture. The numerical experiments were performed on a cluster of
8 processors and a 12-core multicore computer. We have proved the expected efficiency
theoretically. Besides, we have contrasted these theoretical developments with empirical
results in some design problems related to industrial plants processes. thus placing this
parallel solver as a competitive tool against classical commercial packages.
|
213 |
Reglas y estrategias de transformación para programas lógico-funcionalesMoreno Valverde, Ginés Damián 20 May 2009 (has links)
El problema de la integración d ela programación lógica y funcional estaá considerado como uno de los más importantes en el área de investigación sobre programación declarativa. Para que los lenguajes declarativos sean útiles y puedan utilizarse en aplicaciones reales, es necesario que el grado de eficiencia de su ejecución se aproxime al de los lenguajes imperativos. Para ello, es imprescindible el desarrollo de herramientas potentes para el análisis y transformacón de los programas, capaces de optimizar las implementaciones existentes. Esta tesis se centra en el desarrollo de tales técnicas, adoptándose la aproximación conocida como "reglas + estrategias" para la optimización de programas en un tentexto lógico-funcional unificado. Las reglas básicas que se usan son el plegado y el desplegado que aquí se definen en términos del Narrowing y sus refinamientos. Gracias a la propagación bidireccional de parámetros realizadas por el mecanismo de unificación del narrowing, se obtienen optimizaciones apreciables y es posible explotar la sinergía existente entre la sintaxis funcional (anidamientos funcionales, evaluaciones perezosas, etc.) y el uso de variables lógicas. Esta fisión unificada de ejecución y transformación de programas nos permite explotar los resultados conocidos en ambos campos, funcional y lógico, y desarrollar un esquema simple y potente para mejorar un programa con respecto a su capacidad para computar tanto valores a funciones como respuestas a objetivos. Presentamos algunas aplicaciones de las reglas de plegado y desplegado (semánticas formales pr desplegado y relaciones con las técnicas de evalación parcial). Además, mostramos que su combinación con otras reglas para la introducción y eliminación de difiniciones y reglas de abstracción permite obtener programas eficicientes cuando son dirigidas por estrategias adecuadas como son la composición o la formación de Tuplas. El esquema presentado constituye la primera aproximación correcta y completa .... / Moreno Valverde, GD. (2000). Reglas y estrategias de transformación para programas lógico-funcionales [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/4701
|
214 |
Propuesta de Marco y Metodología para el Modelado del Proceso de Planificación Colaborativa en Redes de Suministro/Distribución basado en Programación Matemática. Aplicación a Empresas del Sector de Pavimientos y Revestimientos CerámicosPérez Perales, David 07 October 2013 (has links)
En la actualidad, cada vez más son necesarias Herramientas de ayuda a la Toma de Decisiones para la Planificación de Operaciones Colaborativa en contextos de Cadenas de Suministro, o más ampliamente, lo que se denomina Redes de Suministro/Distribución (RdS/D). Entre dichas Herramientas son de especial relevancia las de optimización, y entre estas últimas, aquellas basadas en Modelos de Programación Matemática.
Una extensa revisión de la literatura depara que dichos Modelos se han utilizado mayoritariamente considerando una Toma de Decisiones centralizada de la RdS/D. Sin embargo, la realidad muestra como las diferentes ¿Entidades¿ que forman parte de la RdS/D, no siempre comparten los mismos objetivos y en muchas ocasiones, son reáceas a compartir cierto tipo de información. Por esa razón, la situación más común es la toma de Decisiones descentralizada, en la que diferentes ¿Entidades¿ deben coordinarse para obtener un buen rendimiento individual y de la RdS/D en su conjunto.
Por otra parte, los Modelos que sí se han aplicado al caso descentralizado han simplificado enormemente la realidad, sin considerar RdS/D con el suficiente grado de complejidad (productos, recursos¿) u omitiendo algunos aspectos importantes del propio proceso de Planificación Colaborativa, y particularmente la aplicación simultánea de aspectos ligados a la integración espacial (entre diferentes ¿decisores¿ perteneciente a un mismo Nivel Decisional) o la integración vertical (entre diferentes Niveles Decisionales). Además, en muchas de las ocasiones dichos Modelos no son fácilmente extrapolables a otras situaciones y se obvia la manera en que se han elaborado.
Por todo ello, la presente Tesis propone un Marco, y posteriormente una Metodología basada en el mismo, que indique de forma estructurada, en primer lugar, los pasos para el Modelado del proceso de Planificación de Operaciones (Colaborativo) en contextos de RdS/D, y en segundo lugar, para el Modelado Analítico (basado en Programación Matemática) del mismo y su posterior Resolución/Evaluación.
Más concretamente, el Marco propuesto integra cuatro visiones diferentes de modelado, como son las visiones Física, Organizacional, Decisional e Informacional y sus inter-relaciones, lo cual favorece la construcción de modelos integrados (unión de varias visiones) del proceso de Planificación Colaborativa. Si bien el Modelado de Procesos atiende fundamentalmente a la Visión Funcional, en este caso, por el tipo específico de Proceso que se desea modelar, ligado a la Toma de Decisiones, se utilizará la Visión Decisional como la visión base para modelar el Proceso, estando la Visión Funcional embebida en esta última. La inclusión del resto de Visiones es importante puesto que en la Toma de Decisiones en contextos de Planificación se actúa sobre unos Recursos/Ítems (Visión Física) y según una determinada Organización, en la que las diferentes ¿entidades¿ estarán más o menos integradas (Visión Organizacional). Por otra parte la propia actividad de la RdS/D generará y necesitará cierta Información (Visión Informacional), necesaria para tomar decisiones.
Además dicho Marco contempla todo tipo de escenarios decisionales en los que se puede enmarcarse el Proceso de Planificación Colaborativa en una RdS/D, desde los más Centralizados a aquellos que tienen lugar en Entornos Distribuidos/Descentralizados, para lo cual se identifican diferentes Centros de Decisión, tanto en el Nivel Decisional Táctico como en el Operativo, considerando al mismo tiempo tanto su Integración Temporal como su Integración Espacial.
Una vez aplicada la primera parte de la Metodología se obtendrá (nivel Macro) un Modelo integrado del Proceso, en el que se conocerá, entre otros aspectos, de qué Actividades Decisionales consta el Proceso, cuál es su orden de ejecución y qué tipo de Información ¿por interdependencias¿ es intercambiada entre las mismas.
El modelo del Proceso anterior y todos los aspectos/conceptos analíticos descritos también en el Marco, serán especialmente relevantes para que en una segunda parte de la Metodología (nivel micro) se detalle como realizar el Modelado analítico del Proceso y cómo proceder a su Resolución/Evaluación integrada.
Para el Modelado analítico se supondrá que cada uno de los Centros de Decisión (asociados a las Actividades Decisionales del Proceso), tomará las decisiones de planificación táctica/operativa en base a Modelos basados en Programación Matemática (Programación Lineal Entera Mixta). Además se particularizará para escenarios doblemente jerárquicos (desde el punto de vista Temporal y Espacial), de un ciclo Instrucción-Reacción y en contextos organizacionales (de ¿búsqueda de un objetivo conjunto¿) en los que puede existir cualquier ¿status de información¿ (asimetría), pero en la que ésta nunca se podrá utilizar con fines oportunistas.
En cuanto a la resolución/evaluación, se irán ejecutando los diferentes Modelos teniendo en cuenta la secuencia e información ¿por interdependencias¿ (propia de escenarios colaborativos) definidas anteriormente en el Modelado del Proceso. Una vez ejecutados todos, se describe cómo evaluar cuantitativamente el ¿desempeño¿ conjunto de la RdS/D (o grado de Planificación Colaborativa actual) a partir de la definición de tres parámetros, denominados ¿Criterio Total¿, ¿Tiempo de Resolución Total¿ y ¿Consistencia Total¿. Además, la propia metodología facilita y guía en la ¿simulación¿ de diferentes escenarios de Planificación Colaborativa (TO-BE) de manera que puedan conocerse ¿a priori¿ los beneficios/costes que ello supone. El análisis de dichos escenarios podrá afectar indistintamente (con mayor o menor profundidad) a cualquiera de las Visiones Física, Organizacional o Decisional, y por ende a la Informacional.
Por último, dicha Metodología, aunque aplicable/extrapolable a cualquier Sector Industrial, se ha implementado en una RdS/D concreta perteneciente al Sector de Pavimentos y Revestimientos Cerámicos. En primer lugar a través del Modelado de su Proceso de Planificación Colaborativa y la identificación de las diferentes Actividades Decisionales (Centros de Decisión) que lo conforman, así como su orden de ejecución e información compartida entre las mismas. En segundo lugar a través del Modelado basado en Programación Matemática de cada uno de los anteriores Centros de Decisión, en la que cabe resaltar, también como aportación, la complejidad de los diferente Modelos, interrelacionados entre sí, y que incluyen todas las características intrínsecas a la Planificación táctico/operativa en dicho Sector. En tercer y último lugar a través de la resolución integrada de los anteriores Modelos, lo que ha permitido evaluar cuantitativamente, a través de los parámetros antes mencionados, el grado de Planificación colaborativa actual (AS-IS) de dicha RdS/D. / Pérez Perales, D. (2013). Propuesta de Marco y Metodología para el Modelado del Proceso de Planificación Colaborativa en Redes de Suministro/Distribución basado en Programación Matemática. Aplicación a Empresas del Sector de Pavimientos y Revestimientos Cerámicos [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/32665
|
215 |
Aplicación de las tecnologias C.A.D al diseño optimo interactivo de estructuras mediante programación matemática no linealCompany Calleja, Pedro-Pablo 08 February 1989 (has links)
Company Calleja, P. (1989). Aplicación de las tecnologias C.A.D al diseño optimo interactivo de estructuras mediante programación matemática no lineal [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/60770
|
216 |
Evaluación de motores de videojuegos: caso Andengine y LibGDXCumpa Torres, José Moisés January 2014 (has links)
Publicación a texto completo no autorizada por el autor / Propone una guía que permita a desarrolladores interesados elegir un motor de videojuegos adecuado y en tiempo óptimo. En el desarrollo de videojuegos los cambios a nuevas tecnologías son frecuentes. Actualmente está en auge los juegos móviles y eso implica que existan también varios motores de videojuegos para estas plataformas móviles. Ante la existencia de varios motores de videojuegos tanto open source como propietarios es un reto decidir qué motor se va a utilizar por eso es que en este trabajo se propone una guía que permita resolver esa duda. En esta investigación se incide en la lectura de varios papers que contienen temas de investigación acerca de los motores de videojuegos. Se usan como ejemplo dos motores para plataforma Android y con ellos se presenta un caso práctico que pone en ejecución la propuesta de la guía. / Trabajo de suficiencia profesional
|
217 |
Planificación del Almacenamiento de los Productos de la Empresa SQM en el Puerto de Tocopilla, con el Fin de Minimizar los CostosUreta Messina, Felipe 15 April 2010 (has links)
SQM es líder mundial en sus tres principales líneas de negocio: Nutrición vegetal de especialidad, Yodo y Litio, superando los 1,800 millones de dólares en ventas y contando con oficinas comerciales en más de 20 países, lo que permite que sus fórmulas de negocio lleguen a clientes en 110 países de Europa, América, Asia, África y Oceanía.
El almacenamiento de los productos en el puerto de Tocopilla, es uno de los procesos más relevante para la empresa. Diariamente llegan aproximadamente 4.000 toneladas de productos a dicho puerto, por lo que los costos de almacenamientos es un tema a considerar. Existen 14 canchas y 6 silos que tienen distintos costos, donde se acumulan los productos, por lo que una buena decisión de donde dejar cada producto puede producir ahorros considerables.
Este trabajo se centra en planificar el almacenamiento de los productos mediante un modelo de programación lineal, resuelta con el solver CPLEX, que permita optimizar los costos asociados al proceso y poder darle una visión a largo plazo, con la cual no se cuenta hoy en día.
Se logró hacer una interfaz amigable y fácil de usar, la que se programó en Visual Basic, del programa Excel. La herramienta logró quitarle el paradigma de que los productos son para una cancha determinada y permitirle al modelo decidir donde almacenar cada producto.
Se tuvo problemas de capacidad máxima de memoria en la herramienta, por lo que solo se pudo dar una visión a 3 meses, lo que supera el tiempo promedio de permanencia de los productos en el puerto. No se pudo modelar una restricción, que corresponda al espacio perdido por agregar más de un producto a una misma cancha.
Finalmente se pudo analizar de que el puerto sí tiene la capacidad para un aumento de producción por parte de las minas, ya que si se tiene un buen ordenamiento de lo productos, es posible poder producir y vender mayores cantidades.
Se estimó que pueden haber ahorros de un 3.1% en los costos anuales de almacenamiento y embarque de los productos de la empresa.
|
218 |
Imagen tridimensional. Diseño de aparato cinético para experimentación sobre la relación imagen-tridimensionalidad en medios interactivosCornejo Castillo, Cristobal January 2015 (has links)
Memoria para optar al título de Diseñador Gráfico / Imagen tridimensional, es un proyecto experimental de diseño que busca
realizar un estudio sobre el fenómeno de la mediación de la tridimensionalidad
mediante la construcción de un aparato que actúe como mediador y
objetos que serán presentados en este. En este proceso se busca contribuir a la reflexión sobre las nuevas posibilidades y limitantes técnicas de los
medios, el fenómeno de representar objetos volumétricos en imágenes y ampliar la discusión sobre aquellas mediaciones que son consideradas
tridimensionales y que como diseñadores nos encontramos a menudo encargados
de producir.
En una primera etapa de este proyecto se busca estudiar y comprender el
fenómeno de la percepción de la tridimensionalidad naturalmente y cuando se encuentra mediada, recopilando conceptos claves y comprendiendo
procesos que, en una segunda parte, permitirán definir la forma de construcción
de un aparato mediador que incentive al observador en reparar sobre el acto perceptual de comprender un objeto como tridimensional a
través de la presentación de imágenes.
Para esto, se realiza la construcción de un zoótropo inverso, que interviene
en la percepción continua de objetos móviles presentados frente a un
observador. Objetos volumétricos y físicos que son el resultado de re-interpretaciones
de cuadros pertenecientes al movimiento suprematista de
1915 y que son diseñados para representar la tensión entre una imagen
bidimensional y su posible realidad volumétrica desconocida.
El proyecto concluye con un prototipo funcional que permite a un observador
enfrentarse a una experiencia de mediación interactiva diseñada para
advertir aquello que es necesario para mediar tridimensionalidad.
|
219 |
Aprendizaje basado en ejemplos: desarrollo de aplicaciones empresariales con tecnologías .netGesta, Marcos, Vázquez, José M., Fernández-Blanco, Enrique, Rivero, Daniel, Rabuñal, Juan R., Dorado, Julian, Pazos, Alejandro 06 1900 (has links)
For a long time, J2EE has been the dominating framework for the development of business applications. This fact resulted in a rich ecosystem of tools, manuals, tutorials, etc. that explain different implementation alternatives or peculiarities. The incursion of .NET Framework in the business environment has generated a strong demand of application implementation under this architecture. However, the quantity and quality of documents available significantly differs from its main alternative (J2EE). This documentation gap is especially visible and worrying when the objective is to teach the concepts of Framework, from a teacher’s point of view, to the future graduates of the Information Systems Engineering program. This paper describes the teaching approach used in order to achieve the goal of having the students become familiar with this alternative framework and the usual model practices within it. Thus, it is based mainly on a set of basic tutorials that show the foundations of technology and two complete applications (miniportal and minibank) explaining how to apply design patterns when developing a business solution. / El framework J2EE ha sido el gran dominador, durante mucho tiempo, en el desarrollo de aplicaciones empresariales. Esto hecho originó la aparición de un rico ecosistema de herramientas, manuales, tutoriales, etc., que explican las diferentes alternativas o peculiaridades a la hora de su implementación. La irrupción de .NET Framework, en el ámbito empresarial, ha producido una fuerte demanda de implementación de aplicaciones bajo dicha arquitectura. Sin embargo, la cantidad o calidad de la documentación disponible dista considerablemente con respecto a la existente, su principal alternativa (J2EE). Esta laguna de documentación, es especialmente visible y preocupante cuando se establece como objetivo dar a conocer los conceptos del framework, desde un punto de vista docente, a los futuros egresados del Grado en Ingeniería en Informática. Este trabajo describe el enfoque docente seguido, para alcanzar el citado objetivo de familiarizar a los alumnos con este framework alternativo y las prácticas habituales de modelo dentro de éste. Para ello, se basa principalmente de un conjunto de sencillos tutoriales con los que mostrar los fundamentos de la tecnología y dos aplicaciones completas (miniportal y minibank) en las que se muestra cómo aplicar patrones de diseño, a la hora de abordar una aplicación empresarial.
|
220 |
Sistema para la generación de horarios académicos en instituciones universitarias usando algoritmo TabúRamos Milla, Frank Roger January 2012 (has links)
Desarrolla un sistema de información que permita solucionar el problema de la elaboración de la carga académica y la generación de horarios por semestre. Utiliza herramientas web y el algoritmo de búsqueda Tabú que permitan a cada docente acceder desde cualquier punto al sistema para registrar la carga académica. De esta forma se generan los horarios automáticamente una vez llenados los formularios por los docentes.
|
Page generated in 0.0784 seconds