781 |
Preparation of molecular sieves with antimicrobial properties from pillared clays and silver and copper nanoparticlesLucero Lucas, Gisella Liliana 09 March 2017 (has links)
Aluminum pillared clays (Al–PILC) modified with silver and copper nanoparticles were
prepared in order to get a material with antimicrobial properties against Escherichia coli (E.
coli) and Staphylococcus aureus (S. aureus). Al-PILC were characterized by X - ray
diffraction (XRD), Scanning electron microscopy (SEM) with energy – dispersive X - ray
spectroscopy (EDX), the Boehm titration and the nitrogen sorption method. According to
these techniques, the pillaring process increased the interlayer distance in 8.7 Å and it
corresponds approximately to the size of the Keggin´s ion. The surface area of the natural
clay grew from 56 m2/g to 195 m²/g for the Al-PILC after its calcination because new
micropores arise.
Silver and copper nanoparticles were prepared by a chemical reduction method using D –
glucose and ascorbic acid as reductor agents. Silver and copper nanoparticles were analyzed
by UV – Visible spectroscopy and SEM – EDX. In addition, the silver concentration in a
suspension was determined by atomic absorption spectroscopy. Nanoparticles were spherical
and their particle size was between 15 and 33 nm and they were immersed in a starch matrix.
Synthesis conditions (frequency and temperature) had an influence on the particle size which
increased with higher frequency (80 kHz) and temperature (59°C). Copper nanoparticles
were prepared using different volume of ascorbic acid; 1.6 ml produced smaller particles (20
– 86 nm); however, this range of particle size was not reproducible. For that reason, in the
microbiological experiments were used commercial copper nanoparticles with a size
between 27 nm and 34 nm.
Silver al copper nanoparticles were incorporated to Al–PILC by impregnation and the
modified clays were characterized by SEM –EDX. From the microbiological experiments,
the silver and copper suspensions reduce the number of S. aureus and E. coli alive cells in
comparison to the number of alive cells in the sample without modified clay and
nanoparticles. / Tesis
|
782 |
Generación de patrones de interferencia utilizando sonoelastografía cuantitativa bajo el principio de holografíaArroyo Barboza, Johnny Junior 15 February 2018 (has links)
Por lo general, la presencia o aparición de ciertas enfermedades está relacionada a la variación de las propiedades mecánicas (en particular, elásticas) del tejido blando. Entre las técnicas de caracterización de estas propiedades se encuentra la Sonoelastografía Cuantitativa, la cual se ha venido desarrollando en el Laboratorio de Imágenes Médicas de la PUCP, y cuyo funcionamiento está basado en la aplicación de vibraciones mecánicas de baja frecuencia sobre el tejido, con la finalidad de analizar la forma de propagación de la excitación inducida y caracterizar de manera cuantitativa las propiedades mecánicas mostradas.
Inicialmente se emplearon dos técnicas sonoelastográficas: Sonoelastografía de Crawling Waves (CWS) y Holografía de Onda de Corte (SWH), las cuales fueron aplicadas sobre un maniquí homogéneo de 10 % de concentración de gelatina y sobre uno de 15% de concentración de gelatina, estimando la velocidad de onda de corte en ambos maniquíes, así como la desviación estándar.
A continuación se propone la Sonoelastografía por Holografía Digital (DHS), una técnica que presenta un esquema experimental sencillo, con menor instrumentación y por ende con potencial para aplicaciones in vivo, a diferencia de las dos técnicas previamente analizadas. Se diseña un algoritmo para la formación de patrones de interferencia, a partir de los cuales se estimó la velocidad de propagación y la desviación estándar de un maniquí de 10% de concentración de gelatina y otro de 15% de concentración.
Por último, se comparan los resultados obtenidos con las tres técnicas, usando al tiempo de vuelo para poder calcular un valor de velocidad de referencia. Para el caso del maniquí de 10% de concentración, el valor de referencia es de 2.0064 m/s, con CWS se obtuvo 2.0111 ± 0.0383 m/s, con SWH 1.9167 ± 0.0477 m/s y con DHS 2.1067 ± 0.0691 m/s. Por otro lado, para el maniquí de 15% de concentración se obtuvo un valor de referencia de 2.7916 m/s, con CWS se obtuvo 2.8170 ± 0.0565 m/s, con SWH 2.8560 ± 0.1600 m/s y con DHS 2.1449 ± 0.0957 m/s. Para cuantificar la precisión de la estimación se calculó el error relativo entre el resultado obtenido con la técnica propuesta DHS y valor de referencia en cada caso. De esta manera, el error fue de 4.99% en el caso del maniquí de 10% de concentración, mientras que en el maniquí de 15% fue de 23.16%.
En tal sentido, se concluye que la técnica realiza una adecuada estimación de velocidad de corte para maniquíes de baja concentración, pues a medida que la concentración aumenta el error en la estimación también lo hace. / Tesis
|
783 |
Estimación del desalineamiento cambiario y ejercicios de predicción : un análisis para ChileDíaz Caro, Pamela Cecilia, Turén Román, Javier January 2008 (has links)
El siguiente documento tiene por objeto realizar un análisis empírico del comportamiento del tipo de cambio real en Chile para el período 1986-2007. Esto considera tanto la cuantificación de un posible desalineamiento cambiario como la proyección de un tipo de cambio real de equilibrio futuro utilizando el modelo estimado, lo que permite responder, primero, a las especulaciones que actualmente giran en torno al tipo de cambio y, segundo, a la posibilidad de que cambie o mantenga su actual trayectoria. En particular, se verifica que para el tercer trimestre del año 2007 el tipo de cambio real efectivo se encontraba alineado con respecto a su valor de equilibrio y, en consecuencia, consistente con sus fundamentos.
Un segundo capítulo del trabajo abarca el tema de predicción de tipo de cambio real y de su potencial desalineamiento. Dadas las condiciones de exogeneidad de parámetros que deben cumplirse para realizar proyecciones válidas se opta por un ejercicio de predicción el cual permite examinar el comportamiento del tipo de cambio frente a distintos escenarios económicos.
Se concluye que el modelo es capaz de reproducir trayectorias coherentes con la literatura económica, de manera tal que puede ser utilizado para responder preguntas de carácter coyuntural.
|
784 |
Relación de las TIC y los Instrumentos de Fomento MicroempresaSantibañez, Fabián, Hormaechea, Diego January 2008 (has links)
No description available.
|
785 |
Capacidades Dinámicas de Marketing que Impactan Positivamente en el Desempeño de las Firmas Chilenas que Compiten en el Mercado Vitivinícolas InternacionalCastro Rojas, Carolina, Figueroa Contreras, Karla, Vargas Palma, Claudio January 2008 (has links)
La presente investigación plantea un marco conceptual relativamente reciente en el área de la estrategia corporativa, cuya base la sienta Teece et al (1997) al referirse a las capacidades dinámicas, tomando algunos conceptos básicos del análisis del interior de la empresa de la teoría en base de recursos de la firma. No obstante, estas capacidades dinámicas también plantean un acercamiento al entorno en que la firma se desenvuelve, ya que aparecieron como respuesta a cómo algunas organizaciones pueden crear y capturar valor en ambientes de rápido cambio. La proposición de una definición de capacidades dinámicas aquí planteada está en línea con el planteamiento de Eisenhardt y Martin (2000) al referirse a ellas como procesos presentes en las firmas, quitando cierto grado de tautología a la definición de ellas como “habilidades”
|
786 |
Inercia Térmica: Influencia de la masa de Muros en el Comportamiento Térmico de Viviendas SocialesSalaverry Ramírez, Marcial Andrés January 2008 (has links)
El estudio realizado consistió en la evaluación del comportamiento térmico de viviendas,
considerando el concepto de inercia térmica.
Esto se llevó a cabo bajo dos puntos de vista, uno experimental y otro teórico basado en modelos
computacionales 3D.
El trabajo experimental se realizó en una caseta de albañilería de 9 m2
donde se evaluaron tres
indicadores, el FRO o factor de reducción de la onda térmica, que mide el porcentaje de la
amplitud de la onda exterior que se reduce al atravesar la envolvente, el FDT o factor de
disminución de la temperatura, que corresponde a la razón entre la temperatura máxima interior y
la temperatura máxima exterior y el desfase, que se entiende como la diferencia temporal entre
las máximas temperaturas exterior e interior. Estos tres indicadores se compararon considerando
tres parámetros fundamentales: radiación solar, masa interior y ventilación. De este análisis es
importante mencionar que la incorporación de masa al interior de la caseta de prueba contribuye
satisfactoriamente al amortiguamiento y a la reducción de las temperaturas máximas, pero éste
comportamiento mejora aún más cuando se le permite a esta masa enfriarse durante las horas de
baja temperatura y para ello la ventilación nocturna forzada mostró los mejores resultados.
Para el desarrollo teórico, se modelaron distintos tipos de viviendas de prueba, viviendas con
muros de albañilería, prefabricados y mixtos (albañilería aislada, en un caso por la cara interior y
en el otro por la exterior). Los modelos se evaluaron respecto de sus demandas energéticas
anuales en cuatro distintas ciudades de Chile: Antofagasta, Santiago, Concepción y Punta Arenas.
De las cuales el caso crítico se produjo en Santiago, ya que fue en ella donde se registraron las
mayores demandas anuales y la única con demanda de refrigeración para todos los modelos
analizados. Para ésta condición precordillerana, resultó el modelo de masa con aislación exterior
aquel con menor demanda de calefacción y refrigeración. Respecto de los modelos de albañilería
y prefabricado, el primero tuvo un mejor comportamiento durante los meses de verano y el
segundo durante los meses de invierno.
Es importante mencionar, a modo de conclusión, que la mejor forma de distribuir la masa al
interior de la vivienda es contigua al muro perimetral y cubriendo la totalidad de su superficie
interior, y por tanto, considerar un muro de material pesado con aislación exterior, responde
exactamente a esa idea. Este trabajo respalda tal concepto y confirma la importancia de
considerar este efecto de inercia en el diseño de viviendas en zonas de altas oscilaciones térmicas.
Junto con lo anterior, además se evidencia la factibilidad técnica y económica de utilizar de mejor
forma concepto de inercia térmica a posteriori, es decir, en viviendas de material pesado ya
construidas, implementando sistemas de aislación exterior.
|
787 |
Microsimulación de Estrategias Planificadas de Operación para un Corredor de Transporte PúblicoRomero Vásquez, Christian Andrés January 2008 (has links)
Cuando se analiza la demanda en algún sistema de transporte urbano, es
posible notar que ésta no es necesariamente igual o de magnitudes semejantes
en ambos sentidos de un tramo en particular. Por el lado de la oferta, la
operación más común es fijar la frecuencia de acuerdo a la satisfacción de la
demanda en el tramo más cargado y entregar la misma oferta en los tramos
restantes del recorrido. Pero con esto se producen dos fenómenos que alejan la
operación de un eventual óptimo: el primero tiene que ver con la sobreoferta
existente en las zonas menos cargadas y el segundo corresponde a la
imposibilidad de mejorar la calidad de servicio en el sentido prioritario pues la
flota es fija en el corto plazo.
Dentro de la literatura existen numerosos esfuerzos por determinar
expresiones analíticas que permitan optimizar el uso de la flota, tanto desde el
punto de vista de los operadores como del de los usuarios. Ejemplo de ello es
el sistema de bucles (short turning) que consiste en crear servicios cortos
dentro del recorrido principal, y deadheading, en la que se impone que algunos
vehículos, al llegar al terminal del sentido de mayor afluencia de pasajeros,
regresen sin realizar servicio hasta el inicio del recorrido. Sin embargo, existen
limitaciones al momento de estimar los beneficios de la aplicación de las
estrategias, debido a restricciones de capacidad en vehículos, modelación de
los tiempos de llegada de pasajeros y buses a los paraderos y operaciones
detalladas de transferencia.
El presente trabajo busca evaluar la aplicación de las estrategias bucle y
deadheading sobre un corredor de buses apoyándose en el uso de
herramientas de microsimulación de tráfico, en situaciones difíciles de ser
abordadas por una formulación puramente analítica. Se utilizará para tal efecto
la aplicación MISTRANSIT descrita en Fernández et al (2007), y el
microsimulador comercial PARAMICS. Se cuenta con una red calibrada del
corredor segregado de Avenida Pajaritos en la ciudad de Santiago de Chile
sobre la cual se realizará la simulación de los distintos escenarios.
El aporte de este trabajo consiste en incorporar a la aplicación MISTRANSIT
funcionalidades que aumentan el nivel de análisis de operación de transporte
público, en particular para la evaluación de estrategias de asignación de flota.
Por otro lado, a partir de los resultados obtenidos se aprecia que a la hora de
estimar beneficios existen variables no incluidas en la modelación analítica que
son significativas, como por ejemplo la espera extra provocada por buses
circulando a capacidad.
|
788 |
Nuevos Métodos de Calibración de Problemas de EntropíaRoco Castillo, Víctor Antonio January 2008 (has links)
El objetivo general del presente trabajo, es estudiar el rendimiento computacional de dos
nuevos métodos de calibración de modelos de entropía en casos reales de gran tamaño, y
compararlos con métodos clásicos de calibración. Todos ellos fueron evaluados en distintas
situaciones, las cuales varían según el número de restricciones y parámetros del problema
y el grado de convergencia de los métodos.
Los modelos de máxima entropía postulan una determinada distribución de una
variable frente a condiciones de información limitada. Por otra parte, su equivalencia con
los modelos logit multinomiales permite la calibración de estos últimos mediante las mismas
técnicas diseñadas para modelos de máxima entropía. La calibración de estos modelos en
problemas de gran tamaño, es una tarea que requiere de un gran tiempo computacional.
Ambos modelos, logit y entropía, se usan en problemas de transporte como la distribución
espacial de viajes y la asignación de viajes a la red, y en problemas de uso de suelo, como
la localización de hogares y firmas. También estos modelos se utilizan en otras áreas, como
la radio astronomía, tomografía y reconstitución de imágenes.
Se implementaron seis métodos de calibración clásicos correspondientes a
aplicaciones del método de Newton, Bregman, MART y Hyman, en conjunto con dos
nuevos, basados en la generación de un punto fijo (Pivote) y en el acotamiento del espacio
de solución mediante un cambio de variables (Búsqueda Acotada). Estos métodos se
aplicaron al modelo de distribución de viajes con múltiples categorías de usuarios en
distintas pruebas sobre datos simulados y a una matriz de viajes predicha por el modelo
ESTRAUS para la ciudad de Santiago de Chile. Con ambas bases de datos se evaluaron
los métodos de calibración.
Como resultado se obtuvo que, en los distintos escenarios simulados, los tres métodos
más rápidos son: Hyman, Búsqueda Acotada y Pivote, en ese orden de eficiencia
computacional, destacándose que estos dos últimos corresponden a los métodos nuevos.
Se comprobó que este orden se mantiene también para el caso de la matriz de viajes real.
No obstante el método de Hyman es superior al más rápido de los métodos nuevos,
este no garantiza convergencia; en particular cuando los coeficientes de las restricciones
tienen una varianza muy alta. Dado que esto no se observó en la aplicación del método de
Búsqueda Acotada, se recomienda su utilización especialmente en este caso.
|
789 |
Diseño de una Estrategia de Procesos para el Área Productiva y Comercial, Enfocada en el Mejoramiento de los Tiempos de Respuesta de una Empresa MetalmecánicaSarquis Abumohor, Mario Javier January 2008 (has links)
En el presente trabajo se pretende diseñar una estrategia integral para una empresa
metalmecánica dónde el foco se centrará en reducir los actuales tiempos de respuesta y
lograr además darle sustentabilidad al negocio en el mediano y largo plazo.
En la planta se procesan aproximadamente 30.000 diferentes tipos de productos, esta gran
diversidad se explica a que se trabaja a pedido y se intenta satisfacer todos los
requerimientos de los clientes, es decir, la filosofía de producción que se aplica en este
caso es la denominada "make to order", por lo que cada producto es y será prácticamente
único. La gama de sus productos es tan amplia y variada como sus clientes: van desde el
dimensionado de una plancha de acero, hasta la realización de partes y piezas, que en su
conjunto se usan para la fabricación de embarcaciones, tolvas, galpones, herramientas
para la maquinaria forestal, entre otros.
Esta empresa productiva compite en dos mercados disímiles, uno orientado a proyectos
de envergadura, los cuales requieren un uso intensivo de recursos, tanto humanos como
técnicos y un segundo mercado que responde a requerimientos más cercanos a lo
transaccional, de menor valor agregado. Las necesidades de los clientes de estos dos
segmentos son totalmente diferentes, por un lado se requiere calidad, confiabilidad,
experiencia y cumplimiento, mientras que por otro lado es fundamental la velocidad de
respuesta y el precio.
Como supuesto fundamental del trabajo se consideró que la empresa participa en ambos
conceptos de negocio, siendo cada uno relevante en el resultado final de la compañía, por
lo que no resultaría conveniente abandonar ninguno de los dos nichos mencionados.
Luego del análisis de la situación actual, se propuso una estrategia productiva que
permitiera la convivencia de ambos tipos de realidades comerciales, con el propósito de
responder a las necesidades de los clientes de la compañía en su conjunto. La estrategia
propuesta consiste en segregar los recursos productivos disponibles, creando una línea
exclusiva de máquinas "Fast Track" para atender aquellos pedidos que caigan en la
definición de "Simple". Esta línea con dedicación exclusiva permitirá asegurar un flujo
expedito enfocado en los pedidos que requieren de esta característica y permitirá además
descongestionar la otra línea productiva que se dedicará únicamente a los productos con
mayor valor agregado "Complejos".
Luego de implementar las medidas propuestas, se obtuvo una reducción en un 70% de los
tiempos de respuesta para los pedidos simples y un 50% para los pedidos complejos.
Por otro lado se rediseñó el proceso de cotización y se establecieron indicadores de
gestión, con lo cual se le pretende dar mayor consistencia a las medidas propuestas para
la parte netamente productiva.
|
790 |
Propuesta de una Segmentación de Clientes en una Industria de Servicios B2B: Caso Telefónica EmpresasPridal Hernández, Tomás Jaromir January 2008 (has links)
En un mercado tan competitivo como en el de las telecomunicaciones, es necesario el
conocimiento de los clientes. De manera tal de no sólo saber quién es el cliente, sino de entender
cuáles son necesidades reales.
Así nace esta investigación cuyo objetivo es conocer a los clientes de telefónica empresas. En
particular entender qué es lo que buscan al momento de decidir por una empresa que les de
servicios de voz y datos. Esto en 4 sectores industriales más importantes en función de los aportes
que le generan a Telefónica Empresas: Administración Pública, Retail, Banca y Minería &
Petróleo.
Tras aplicar encuestas en formato CBC, a los sectores de interés. Se clasifican a los
clientes en base a sus respuestas, donde se agrupan por interés en los atributos de la encuesta:
preventa, calidad de servicio, precio, experiencia en el mercado e imagen. Esto con apoyo de la
herramienta análisis jerárquico de SPSS.
Para extrapolar los resultados de los grupos encontrados en base a la segmentación por
valor, a los demás clientes de los sectores a estudiar, se crea una matriz de interacción de
segmentaciones además de utilizar las herramientas de clasificación de SPSS. En base a estos
análisis, se concluye que los datos no son extrapolables, para el nivel de muestra obtenido. Con
un tamaño de muestra mayor, los datos podrían haber sido extrapolados o concluir que no existe
correlación entre lo que buscan las empresas, versus características demográficas.
La finalidad del estudio de clientes es lograr crear nuevas oportunidades de negocios. Para
esto, en cada segmento se analizan los productos y servicios que consumen. De manera tal de
definir cuáles tienen mayores expectativas de crecimiento, siendo los servicios de datos donde se
espera el salto, posicionando en cada uno de los sectores las redes de telefonía IP, principal
servicio en aportes a la empresa. Además de conservar su posicionamiento en los servicios de
telefonía básica.
Para apoyar las negociaciones, se analizan los estudios de satisfacción y fidelidad del
cliente, de manera de tener una temperatura del estado del cliente para la negociación. Como esta
encuesta no se aplica a todos los clientes. Se correlaciona los índices con a información aportada
por el servicio 800 de la empresa. Encontrando que el número de llamados no afecta al índice,
salvo que quien llame es la persona que toma las decisiones. Los decidores de Santiago tienen
menor tolerancia a las fallas.
Teniendo en cuenta todos estos factores, se puede llegar a aprovechar las oportunidades
de negocios. Dejando la tarea pendiente de la correcta fijación del precio, para cerrar contratos.
|
Page generated in 0.0749 seconds