• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 1438
  • 91
  • 31
  • 11
  • 3
  • 3
  • 2
  • 1
  • 1
  • Tagged with
  • 1581
  • 512
  • 483
  • 361
  • 351
  • 351
  • 351
  • 351
  • 329
  • 296
  • 290
  • 223
  • 210
  • 194
  • 188
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
181

Calibración, evaluación y validación de un método sinérgico óptico-microondas pasivas para la estimación de humedad en superficie a partir de datos remotos / Calibration, evaluation and validation of a synergic optical-passive microwave method for the estimation of soil moisture from remote sensing data

Santamaría Artigas, Andrés Eduardo January 2015 (has links)
Memoria para optar al Título Profesional de: Ingeniero en Recursos Naturales Renovables / La humedad de suelo es una de las variables climáticas esenciales en la biósfera, pues se encuentra fuertemente relacionada a los procesos de intercambio de calor y de distribución de los flujos de energía en la interface superficie-atmósfera. Sin embargo, su determinación de manera periódica y a escala regional es difícil por medio de estimaciones puntuales. Frente a esto las técnicas de teledetección, y en particular las basadas en observaciones de microondas en banda L (1.4 Ghz), se presentan como una herramienta importante para su estimación periódica a escala regional. Lo métodos utilizados para estimar la humedad a partir de las observaciones de microondas de banda L, no suelen consideran los efectos de la cubierta vegetal sobre la señal recibida por un sensor remoto. Es por esto que se han desarrollado métodos semi-empíricos que buscan corregir los efectos de la cubierta vegetal en la estimación de humedad a partir de la información de un índice de vegetación. Para esta memoria se utilizaron los datos de temperatura de brillo bi-polarizada en banda L de la misión SMOS; el índice de vegetación de diferencia normalizada (NDVI) del sensor MODIS; la humedad y temperatura de los primeros 7 cm de suelo provenientes del “reanalysis” ERA-Interim, y 13 clases de cobertura de superficie obtenidas de la base de datos ECOCLIMAP. Los datos abarcan el periodo comprendido entre Enero de 2010 y Diciembre de 2012, y corresponden a la zona central de Chile. Con los datos se generó una base de 3 años de datos para cada pixel del área de estudio, con la cual se calibró, evaluó y validó un método de estimación de humedad de superficie tanto considerando el NDVI de MODIS, como no considerando un indicador de vegetación. Los resultados se analizaron según las clases de coberturas presentes en el área de estudio y en función del coeficiente de determinación (r2 ), de los coeficientes obtenidos en las regresiones y del “Unbiased Root Mean Square Difference” (ubRMSD). Los resultados mostraron aumentos en el r2 promedio para todas las clases de cobertura analizadas cuando se incorporó el NDVI de MODIS en la calibración del método. Los aumentos en el r2 variaron entre un 3% correspondiente a la clase de Cultivos y un 49% correspondiente a la clase de Matorral Cerrado. El ubRMSD presentó disminuciones de hasta un 1% de m3 /m3 en las clases de Bosque, Matorral Abierto y Matorral Leñoso, y disminuciones de hasta un 2% de m3 /m3 en la clase de Matorral Cerrado. El análisis de los resultados sugiere que la incorporación del NDVI de MODIS en el método semi-empírico es capaz de mejorar las estimaciones de humedad de superficie para algunas coberturas. / Soil moisture is one of the biosphere’s essential climatic variables, as it drives the processes of heat exchange and energy fluxes distribution between Earth’s surface and the atmosphere. However, it periodical monitoring at regional scales using in-situ measurements is complicated. In this context, remote-sensing techniques, and in particular those based in L-band microwaves observations, appear as an important tool for the periodical estimation of soil moisture at regional scales. The approaches used to estimate soil moisture from L-band microwaves observations usually do not take into account the effects of the vegetation cover in the signal received by a remote sensor. Because of this, several semi-empirical approaches have been developed in order to correct the effects of the vegetation cover in the soil moisture estimation by using the information from a vegetation index. For this work, several datasets were used: Bi-polarized brightness temperature from the SMOS mission, the normalized difference vegetation index (NDVI) from MODIS, the temperature and water content from the first 7 cm of soil depth from the ERA-Interim reanalysis, and 13 land cover classes obtained from the ECOCLIMAP data base. The data period included years 2010, 2011 and 2012, and the method was applied over the central area of Chile. Using the data, a 3-year database was compiled for every pixel of the study area, which was used to calibrate, evaluate and validate a semi-empirical approach to estimate soil moisture, both using the NDVI from MODIS, and not including any vegetation index in the approach. Results were analyzed for every land cover class using the determination coefficient (r2 ), the coefficients obtained from the regressions and the unbiased root mean square difference (ubRMSD). Results showed an increase in the average r2 for all land cover classes when a vegetation index was used in the calibration of the approach. These increases in r2 ranged from a 3% for the Crop class, to a 49% for the Closed Shrubland class. The ubRMSD presented a decrease in its value up to 1% m3 /m3 for the Woodlands, Open Shrublands and Woody Shrublands classes and up to 2% m3 /m3 for the Closed Shrubland class. The analysis of the results suggests that the use of MODIS’s NDVI in the semi-empirical approach is able to improve the soil moisture estimation for some of the land cover classes.
182

Propuestas de mejora para el área de control de gestión de una empresa de retail en tres filiales de latinoamérica

Riveros Rebuffo, Fernando Javier January 2018 (has links)
Ingeniero Civil Industrial / 04/05/2023
183

Algoritmo de mapeo de texturas geológicas en testigos de sondajes utilizando clasificador secuencial en cadena basado en técnicas de transformada de señales

Marulanda Cardona, Lina Yesenia January 2016 (has links)
Magíster en Minería / La caracterización de la textura geológica presente en los testigos de sondajes de exploración es utilizada por las diferentes compañías mineras como un paso determinante a la hora de definir las características litológicas y de mineralización presentes en un proyecto, influyendo de forma directa en los procesos mineros y metalúrgicos relacionados con el negocio. Normalmente esta interpretación es realizada de forma visual por parte de profesionales del área, geólogos, quienes determinan la presencia de una textura o característica textural predominante en determinada longitud de sondaje, basándose en sus conocimientos previos y en su juicio experto. Desarrollos previos han demostrado que esta es una tarea factible de realizar utilizando un clasificador secuencial en cadena basado en técnicas estadísticas de procesamiento de señales. Después de haber establecido la utilidad de este desarrollo en laboratorio bajo condiciones ideales se hace necesario acercarlo a la realidad, es así que este estudio plantea la experimentación a escala piloto sobre una longitud de testigos de sondaje de un proceso exploratorio real, a fin de determinar el algoritmo de trabajo que genere el mayor porcentaje de acierto en la determinación de textura geológica sobre tamaños de soporte mayores a los ya utilizados en la librería de imágenes de entrenamiento. Finalmente se ha obtenido el porcentaje de acierto en la interpretación de texturas geológica sobre una base de datos de fotografías y se mapeó por parte de un especialista con el fin de establecer valores de acierto a partir de la comparación de resultados; al aplicar los procedimientos de interpretación automáticos propuestos se obtuvo un 84.8% de clasificación correcta sobre imágenes individuales. Paso seguido se determinó el aporte de la interpretación de cada muestra en la determinación de la textura presente sobre un soporte definido de longitud 5m obteniendo un máximo porcentaje de acierto de 76.7%, además se describen los procedimientos y mediciones llevados a cabo para lograr el mejor resultado. La importancia de la presente investigación radica en que es la finalización del primer paso en el proceso de modelamiento espacial de atributos geometalurgicos, teniendo como dominio la asignación automatizada de textura en muestras de un depósito mineral. Tal propuesta también se describe en el presente documento.
184

Reingeniería del Sistema de Registro de Publicaciones Científicas del DCC

Sepúlveda Guzmán, Paulina Andrea January 2008 (has links)
La estructura y el funcionamiento de las organizaciones educacionales se han visto afectadas por la constante búsqueda de la excelencia académica. Una reestructuración del personal, cambios en el organigrama, nuevas mallas curriculares, incorporación de herramientas de apoyo son medidas adoptadas con el fin de lograr el objetivo de la excelencia académica. Últimamente se ha venido desarrollando un nuevo y cada vez más importante factor competitivo: generar, difundir y poner a disposición de todo el conocimiento en una organización. El conocimiento ya no es un recurso más de la organización, sino que, con motivo de la evolución de la sociedad industrial a la sociedad de la información o sociedad del conocimiento, se ha convertido en uno de los principales factores de producción. Es por esto la creciente necesidad de generar herramientas tecnológicas que permitan administrar y gestionar de la mejor manera este conocimiento, el Departamento de la Ciencias de la Computación de la Facultad de Ciencias Físicas y Matemáticas de la Universidad de Chile, no esta ajeno a esta necesidad de administrar la información y conocimiento. En particular la información y conocimiento que requiere administrar el Departamento, es la de la producción investigativa de los académicos y el uso de fondos de incentivos a esta producción. Para lograr este objetivo esta memoria tiene como objetivo principal la de generar una herramienta Web que permita automatizar la gestión de las publicaciones del Departamento y la administración de los fondos de incentivo asociados, esta actividad involucra tanto a los académicos como a personal administrativo del Departamento, como área de investigación, contabilidad y dirección. Esta herramienta tiene como finalidad entregar una visión completa del estado de las publicaciones, para cada uno de los involucrados: Académicos, publicación aceptadas y acreditadas en el Departamento, estado de fondos de incentivos y puntaje Coordinador de Investigación, vista completa de la producción investigativa de los académicos, y administración de los fondos de incentivo. Contabilidad, gestión del uso de los fondos de incentivos Dirección, visión completa y global de la producción investigativa de los académicos y gestión de los fondos de incentivo.
185

A Computational Study of Algebraic Chemistry

Veloz González, Tomás Igor January 2010 (has links)
La Química Algebraica es un modelo abstracto para la bioquímica. Una Química Algebraica se compone de una red de reacciones moleculares, prescindiendo de una dinámica que permita estudiar su evolución, pues el modelo se enfoca en como las moléculas pueden ser producidas o consumidas por las reacciones. Se ha probado que en una Química Algebraica, un tipo especial de subredes llamadas organizaciones, son las únicas subredes que pueden tener estabilidad dinámica. Este hecho permite simplificar la comprensión de la dinámica de los sistemas bioquímicos, dado que permite explicar la evolución del sistema como movimientos entre organizaciones en el espacio de fase. De aquí que el cómputo del conjunto de organizaciones de una Química Algebraica es una tarea central en la teoría. Al momento no han hay suficientemente buenos algoritmos para computar organizaciones, ni hay una comprensión de la estructura que subyace en la definición de organización (tal vez es esto es la razón de lo anterior). Esta tesis es un intento por formalizar el trabajo algorítmico en Químicas Algebraicas. Dicha formalización busca una fertilización cruzada entre modelos de Ciencias de la computación y Químicas Algebraicas. Es posible enmarcar las Químicas Algebraicas en algunos conocidos formalismos de la Ciencia de la computación como Sistemas de Adición de Vectores y Redes de Petri. Se investiga la equivalencia entre los formalismos mencionados y las Químicas Algebraicas. Luego algunos conocidos problemas de los Sistemas de Adición de Vectores y Redes de Petri tales como alcance (reachability), vida (liveness), etc., son estudiados desde la perspectiva de las Químicas Algebraicas, enfocando el análisis a la relación de dichos problemas con el problema de computar organizaciones. De las ideas que surgen del anterior análisis, se hace posible el desarrollo de varios resultados sobre el cómputo de organizaciones, así como sobre la estructura del conjunto total de organizaciones de una Química Algebraica. Un teorema para descomponer una organización, en subsistemas más simples, y sus implicaciones son derivados como los resultados más importantes de esta tesis. Los resultados de este trabajo hacen posible además el desarrollo de nuevos y más eficientes algoritmos para el cómputo de organizaciones y permite separar diferentes clases de Químicas Algebraicas en términos de la dificultad de computar su conjunto de organizaciones.
186

Mejoramiento de la clasificación funcional de enzimas usando aprendizaje de máquinas

Gómez Padilla, David Ignacio January 2017 (has links)
Ingeniero Civil Eléctrico / Los avances tecnológicos han permitido secuenciar el ADN de un organismo de manera mucho más accesible que en el pasado. Esto ha generado grandes volúmenes de información; en particular, de los principales productos génicos, las proteínas. Sin embargo, solo se ha logrado asignar funcionalidad a una centésima parte de las proteínas disponibles, ya que ello se realiza de forma experimental, lo cual es muy laborioso y lento. Es por ello que se han desarrollado un gran número de métodos computacionales que buscan predecir la funcionalidad de las proteínas. Dentro de ellos, BLAST (Basic Local Alignment Search Tool) ha sido el más usado, el cual asigna funcionalidad basándose en la noción de homología: proteínas con secuencias aminoacídicas similares tendrían funciones similares. Sin embargo se ha visto que proteínas con secuencias muy distintas pueden tener la misma funcionalidad, y variaciones en la secuencia de una proteína pueden tener grandes impactos en su función. Debido a las limitaciones de la inferencia de funcionalidad basado en homología, numerosos acercamientos basados en aprendizaje de máquinas han sido propuestos como alternativas. CAFA (Critical Assesment of Functional Annotation) es una competencia que busca evaluar las distintas alternativas que han surgido. Este desafío ha arrojado que no existe un método que sobrepase claramente a los demás, además de probar que si bien las alternativas propuestas sobrepasan el rendimiento de BLAST, este último aún sigue teniendo efectividad. En el presente trabajo se propone BLAST-KNN: un algoritmo que ensambla técnicas de aprendizaje de máquinas junto a BLAST para mejorar el proceso de clasificación funcional en enzimas, un subconjunto de las proteínas, utilizando la nomenclatura de los números EC (Enzyme Commission) como etiquetas. De esta manera se aprovecha la efectividad de BLAST y se intentan corregir aquellas clases en que este no tiene un rendimiento perfecto. Se incorpora el uso del programa InterProScan como extractor de características para representar las proteínas, lo que entrega la ventaja de tener información basada no solo en homología. Se seleccionan las características más relevantes usando técnicas de teoría de la información. Usando los datos disponible en SwissProt que cuentan con sus cuatro dígitos EC asignados, se logran mejorar 835 clases en términos del puntaje F1 obtenido solo por BLAST, lo que representa el 55.48% de las clases en que BLAST no tiene un rendimiento perfecto. Además, se muestra un predominio de BLAST-KNN frente a BLAST al evaluar clases con más de un número EC asignado, mejorando el 60.3% de los casos. Por otro lado, se valida PANTHER, CDD y los descriptores propios de InterPro (IPR) como fuente importante de información al momento de predecir números EC a nuevas enzimas. Las limitantes del algoritmo propuesto están en la poca información por clase disponible, teniendo una distribución no uniforme en el número de muestras por etiquetas, lo que fuerza a utilizar algoritmos simples para clasificar. Se propone mejorar la representación de las enzimas incorporando nuevas características, así como extender el clasificador a uno que considere enzimas que no tengan los cuatro dígitos EC asignados. / Este trabajo ha sido parcialmente financiado por Conicyt 11150107
187

Aplicación de la metodología de Amón y Jiménez para asegurar la calidad de los datos en la construcción del ETL durante la implementación de un datamart para la Empresa MC Express de la ciudad de Chiclayo

Castillo Montalvan, Luis Felipe Raul January 2011 (has links)
En la empresa MC Express existen múltiples base de datos para cada proceso, la información que se muestra muchas veces no es la correcta, dando como resultado informes erróneos que afectan directamente en las decisiones de la alta dirección. Es así que se optó por asegurar la calidad de los datos cuando se extraigan, transformen y carguen de las bases de datos de compras y ventas, ayudados por la guía metodológica de Amón y Jiménez al momento de elegir la mejor técnica de depuración de datos durante el proceso ETL. Finalmente, se pudo reducir el alto índice de error en los datos, cometidos por la extracción de datos de múltiples fuentes, que al no ser analizadas como corresponde, produce consultas con errores en la información, contribuyendo así en la malas decisiones por parte de la alta dirección, y que conllevan a la pérdida de tiempo, dinero, oportunidades de nuevos negocios, y hasta la banca rota de las empresas. / Tesis
188

Aplicación de bases de datos semánticas como herramienta de transferencia de conocimiento en la clasificación de cuerpos de agua de Chile

Silva Urrutia, Katherinne January 2012 (has links)
Memoria para optar al Título Profesional de Ingeniero en Recursos Naturales Renovables / La calidad y el tiempo invertido en el proceso de toma de decisiones depende de la recopilación de antecedentes, información existente y la accesibilidad y entendimiento por parte de los tomadores de decisiones de ésta. Se plantea que estos procesos se ven facilitados con la utilización de sistemas de apoyo a la toma de decisiones. En este contexto se evaluó la aplicabilidad de un soporte de información y conocimiento, las bases de datos semánticas (BDS), como herramienta de transferencia de conocimiento científico y/o experto para la toma de decisiones en el sector público. En este estudio se construyó una base de datos semántica de la clasificación de cuerpos de agua de Chile. El proceso de construcción consideró la conceptualización del área de estudio o dominio de conocimiento, la explicitación de conceptos y la construcción de la ontología. Posteriormente, se realizó una evaluación de esta base de datos como herramienta de transferencia de conocimiento, para lo cual se realizaron dos evaluaciones. La primera evaluó el desempeño de profesionales en la solución de problemas relacionados con el conocimiento almacenado en la BDS, en comparación con el desempeño con soportes tradicionales para este mismo tipo de conocimiento. La segunda evaluó la percepción de la aplicabilidad de la herramienta en el sector público con profesionales del Ministerio del Medio Ambiente (MMA). La evaluación evidenció que las BDS presentan similares tiempos de acceso a la información que los soportes tradicionales, en dominios de conocimiento afines a los profesionales evaluados. El número de errores en el grupo evaluado con la BDS (10% de errores) es menor que el grupo evaluado con soportes tradicionales (35% de errores), lo cual sugiere que el uso de esta herramienta tiene potencialidad en procesos de comprensión de la información y toma de decisiones. Por otro lado, la herramienta fue evaluada positivamente por los profesionales del MMA considerando que la herramienta es útil y adecuada para el soporte de información y conocimiento en su quehacer en la toma de decisiones. Finalmente, se concluye que la herramienta mejora la gestión de las temáticas abordadas en la institucionalidad ambiental, disminuyendo las brechas entre el sector público y el científico y/o experto mediante la explicitación de conceptos y la interconexión de éstos, facilitando el entendimiento entre profesionales semánticamente distantes. / Quality and time invested in the process of decision making depends on the gathering of background information as well as the access and understanding that decision makers have on this. It's been argued that this processes are facilitated by the use of decision-making support systems. In this context, the applicability of an information and knowledge support, the semantic databases (SDB), as a tool for scientific and/or expert knowledge transfer has been evaluated, for the decision making processes in the public sector. In this study, a semantic database of the Chilean water bodies classification was built. The process of building considers the conceptualization regarding the study area or knowledge domain, the explicit statement of concepts and the construction of the ontology. Later, this database was evaluated as a tool for knowledge transfer, for which two assessments were carried out. The first one evaluated the performance of the professionals in the solution of problems related with the knowledge stored in the SDB, in comparison with the performance of traditional support for this same kind of knowledge. The second one evaluated the perception of the applicability of the tool in the public sector with professionals from the Environment Ministry. The assessment made evident that the SDB present similar times of information access than traditional supports, in similar knowledge domains as the evaluated professionals. The number of errors in the evaluated group with the SDB is lower than the group evaluated with traditional supports, which suggests that the use of this tool has a potentiality for information understanding and decision making processes. On the other side, the tool was positively evaluated by the professionals of the ministry, considering it as a useful and adequate tool for the information and knowledge support for their decision making work. Finally, it's concluded that the tool improves the management of the addressed themes in the environmental institutions, diminishing the gaps between the public sector and the scientist and/or expert, through the explicit statement of concepts and the interconnection between them, facilitating the understanding among semantically distant professionals.
189

Internet y el desafío del periodismo digital

Donoso Astete, Fernando January 2000 (has links)
Memoria para optar al título de Periodista / El autor no autoriza el acceso a texto completo de su documento / Hubo un momento hace unos 30 años en que todo quedó listo en Estados Unidos para mantener al país comunicado cuando golpearan los misiles soviéticos. La administración Kennedy creía que si atacaba a Cuba para destruir sus instalaciones de cohetes apuntando hacia el Norte los rusos responderían; y ello podría ocurrir en cualquier circunstancia en el futuro. Arpanet conectó a los grandes computadores de los centros militares y políticos entre la costa Este y la Oeste. La instalación sería la base de lo que se conoce como Internet y que hoy ofrece posibilidades muy diferentes aunque siempre en el ámbito de la comunicación: enviar correo, charlar en tiempo real, realizar transacciones comerciales; dar a conocer aficiones, fantasías y hobbies; informar, intercambiar archivos de sonidos e imágenes, fastidiar, estafar, seducir, desinformar, investigar, etcétera. La historia de la Red es la perfecta combinación inicial de inversión pública y visión de futuro y la posterior adhesión de inversión privada con fines de lucro, todo mezclado con el espíritu libertario y lúdico de miles de programadores y aficionados que han aportado a su desarrollo en tres décadas. Diez años después de la masificación de la interconexión de los computadores y sólo cinco años desde que la Red se transformó en la mayor empresa de servicio público del mundo -gracias a la combinación de computadores más potentes y más baratos, una infraestructura de telecomunicaciones que facilitó la interconexión mundial y un programa para explorar el ciberespacio fácil de usar- hemos asistido al nacimiento de lo que algunos llaman un nuevo Estado, de carácter virtual, formado por 270 millones de habitantes, que crece a un ritmo mayor que ninguno de los países de la Tierra: el World Wide Web (o WWW o 3w). A poco de comenzar el siglo XXI constatamos que la masividad que ha alcanzado el uso de los computadores como medio de procesamiento y difusión de información, impulsada por el aumento sín límites de las capacidades tecnológicas informáticas, está modificando el modelo de comunicación de masas. Las audiencias reciben, consumen, producen y comunican información. ¿El nuevo Estado virtual y su nuevo modelo de comunicación eran imprevisibles? Al parecer sí, si empresarios exitosos y visionarios paradigmáticos como Bill Gates (el más rico del mundo de la mano de Windows) sostenían hace unos siete años que Internet no tenía futuro (en ese momento Microsoft carecía de navegador y posteriormente le compró a la compañía Spyglass el motor de su Mosaic, la base del Explorer) y que la supercarretera de la información “será otra”. Así una iniciativa estadounidense para lograr un medio alternativo de comunicación de radio de acción nacional -que combinó el espíritu libertario de los sesenta con su mundialmente reconocido militarismo y la pujanza científica de sus universidades, todo macizamente respaldado por el Estado- cristalizó en el club mundial de usuarios del computador, transformando un planeta multifragmentado en una avenida transitable. Hace unos pocos años las redes de transmisión de datos eran el elemento vertebrador de la nueva industria de la información y del conocimiento. Pero hace menos de un lustro la Red fue más allá y se transformó en motor de lo que hoy se conoce como “Nueva economía”: los individuos, las empresas, las organizaciones, los grupos de interés, las asociaciones con los más diversos fines se incorporan a Internet para comunicar, informarse, entretenerse y realizar transacciones comerciales y financieras de todo tipo. Entre las preocupaciones de todos los días de los equipos directivos de una compañía hay un fundamental: cómo convertirse en una firma de Internet, antes o mejor que la competencia. La revolución digital es mucho más que un conjunto de nuevas herramientas para comunicarnos, trabajar, informarnos, divertirnos, expresarnos y hacer negocios. “No hay nada que esta tecnología no afecte”, ha sostenido el director del Centro de Política de la Comunicación de la Universidad de California (1), que inició en 1999 un estudio de 10 años sobre el impacto de Internet en la sociedad mundial, desde los comportamientos familiares y afectivos hasta los económicos. Su función política también es clave: los partidos usan el Web para promocionarse y recaudar fondos, y las organizaciones rebeldes, clandestinas o vetadas por el establishment -exiliados, guerrilleros, paramilitares- encontraron un poderoso e insustituible aliado en la Red para organizarse y comunicarse. El Comité Interministerial de Modernización de la Gestión Pública de Chile está colocando al Estado en el ciberespacio, y desde octubre de 1999 las compras y adquisiciones públicas se realizan exclusivamente por el Web (2). En su primera cuenta al país el Presidente de la República dijo en mayo del 2000 que durante su mandato se creará una “Ventanilla electrónica única” y una “Red de enlace cultural con información sobre arte, cultura y recreación: el Estado de Chile se pondrá a la vanguardia mundial en conectividad”
190

Democratización de la impresión 3D con fotopolímeros

Calderón Avendaño, Ariel Alejandro January 2012 (has links)
Ingeniero Civil Mecánico / Las impresoras 3D son máquinas que permiten producir objetos tridimensionales físicos a partir de un modelo virtual o sólido, diseñado desde algún programa CAD. Un movimiento de crear impresoras 3D de tipo Open (libres de ser reproducidas o modificadas), ha permitido un desarrollo de parte de comunidades que han visto cómo la tecnología mejora, esto también ha atraído a empresas a tener su propia oferta de impresoras 3D, como resultado se ha visto una baja en el precio considerable además de un menor tamaño, que ha permitido crear el concepto de impresora de escritorio para el hogar. En esta memoria se diseña y construye a BeamMaker, una impresora 3D que utiliza fotopolímeros para la creación de piezas, junto con ella se desarrolla un software para utilizar con la misma. Se requiere que la máquina sea de carácter Open con el objetivo de su fácil masificación y modificación, además de un precio bajo (menos de 500 dólares), ya que el objetivo es llevar esta tecnología a los hogares. La tecnología de polimerización utiliza una fuente de luz, que va curando capa a capa el objeto a crear, se utiliza un fotopolímero que es sensible a una longitud de onda de luz visible, para así utilizar un proyector como fuente de luz, esto permite bajar los costos considerablemente. Durante el diseño de la impresora se observan una serie de problemas que se han de solucionar para así lograr imprimir de manera correcta, entre estos problemas se encuentra la adherencia del objeto a la bandeja móvil de polimerización y a la piscina de polímero, además de problemas por la viscosidad del material para refrescar una capa nueva. Con el objetivo de conocer las mejoras que tiene BeamMaker con respecto a las impresoras actuales, se hace una comparación imprimiendo la misma pieza, para 2 tipos de impresora y BeamMaker, los resultados muestran mejoras tanto a simple vista como en las medidas del objeto, la figura impresa con BeamMaker tuvo un error medio en las medidas de 0.03 mm, mientras que las otras impresoras tuvieron errores de 0.4 y 0.3 mm, mostrando que efectivamente BeamMaker es un aporte respecto al desarrollo de esta tecnología.

Page generated in 0.1009 seconds