• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 429
  • 12
  • 3
  • Tagged with
  • 444
  • 444
  • 175
  • 136
  • 113
  • 113
  • 113
  • 113
  • 113
  • 110
  • 105
  • 103
  • 94
  • 64
  • 59
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
381

Ontologías de dominio para dar soporte al proceso de creación de diccionarios monolingües

Rebaza Valdivia, Carlos Alberto 17 October 2024 (has links)
Los diccionarios han sido, durante siglos, fundamentales para el entendimiento y la preservación de las lenguas. Fueron también la última palabra para resolver muchas discusiones, actuando como autoridades definitivas en cuestiones de significado y uso correcto de las palabras. La importancia de los diccionarios radica en su capacidad para proporcionar a los lectores una referencia confiable y precisa que facilita la comunicación efectiva y el aprendizaje. Sin embargo, la creación de un diccionario es una tarea ardua y meticulosa que puede llevar décadas en completarse. Este proceso implica la recopilación exhaustiva de datos léxicos, el análisis detallado de palabras y sus múltiples significados, y la verificación de su uso en diferentes contextos. Cada nueva edición de un diccionario requiere un esfuerzo considerable para incorporar cambios en el lenguaje, incluyendo la adición de nuevas palabras, la modificación de definiciones existentes y la eliminación de términos obsoletos. Esta labor intensa asegura que los diccionarios continúen siendo recursos valiosos y relevantes en un mundo en constante evolución. La lexicografía, la disciplina dedicada a la elaboración y estudio de diccionarios, enfrenta numerosos desafíos en su práctica. Más allá del diseño de la estructura del diccionario, el lexicógrafo debe lidiar con la complejidad de la lengua, donde uno de los mayores retos es la polisemia. Las palabras con múltiples significados requieren un tratamiento cuidadoso para asegurar que las definiciones sean precisas y relevantes para el contexto en el que se utilizarán. Este proceso implica no solo identificar todos los posibles significados de una palabra, sino también determinar cuál de estos es más adecuado para el lector objetivo del diccionario. Además, el lexicógrafo debe asegurarse de que las definiciones sean claras y comprensibles, evitando ambigüedades y proporcionando ejemplos de uso que ilustren adecuadamente cada significado. Este desafío se amplifica en un entorno lingüístico dinámico donde el lenguaje evoluciona constantemente, haciendo imprescindible la utilización de herramientas avanzadas que apoyen en la toma de decisiones y en la estructuración eficiente de las entradas del diccionario. Actualmente, tecnologías como TLex y Microsoft Word brindan herramientas que se enfocan en la edición y presentación de las entradas del diccionario, orientadas a detallar las definiciones seleccionadas y mejorar la calidad de su presentación. Sin embargo, el lenguaje es dinámico y evoluciona constantemente, comportándose como un ente vivo en constante evolución que refleja cambios sociales, culturales y tecnológicos. Palabras nuevas emergen, otras caen en desuso y los significados pueden transformarse con el tiempo. Este comportamiento evolutivo del lenguaje presenta un desafío significativo para la lexicografía tradicional. La propuesta de esta tesis es tratar el corpus lexicográfico como un ente orgánico que evoluciona, integrando ontologías y folksonomías para gestionar y adaptar este dinamismo. Las ontologías proporcionan una estructura jerárquica y organizada del conocimiento, permitiendo representar de manera precisa las relaciones entre los términos. Por otro lado, las folksonomías, que son sistemas de clasificación colaborativa, permiten analizar el uso real del lenguaje de manera más flexible y adaptativa. Al apoyarse en grafos de conocimiento, es posible realizar análisis detallados y visualizaciones que ayudan a identificar tendencias, relaciones y cambios en el uso del lenguaje. Este enfoque no solo facilita la actualización y mejora continua de los diccionarios, sino que también permite ofrecer definiciones más precisas y relevantes. Herramientas como las nubes de palabras (wordclouds) pueden proporcionar al lexicógrafo valiosa información sobre las definiciones y su composición léxica. Estas herramientas visualizan la frecuencia de uso de las palabras, sugiriendo qué términos son más comunes y, por ende, más fácilmente comprendidos por los lectores. Esto permite al lexicógrafo identificar rápidamente cuáles definiciones están compuestas por palabras de uso más frecuente, facilitando la creación de entradas más accesibles y relevantes. De igual manera, si algunas palabras dentro de las definiciones pudieran estar sujetas a algún tipo de censura, esta información puede ser comunicada al lexicógrafo, permitiéndole tomar decisiones informadas sobre qué definiciones incluir en el diccionario, acorde al público objetivo. Al integrar estas herramientas en el proceso lexicográfico, se mejora la precisión y relevancia de las definiciones, asegurando que el diccionario cumpla con las expectativas y necesidades de sus lectores. / Dictionaries have been fundamental for the understanding and preservation of languages for centuries. They have also been the final authority to resolve many discussions, acting as definitive authorities on questions of meaning and correct use of words. The importance of dictionaries lies in their ability to provide readers with a reliable and precise reference that facilitates effective communication and learning. However, creating a dictionary is an arduous and meticulous task that can take decades to complete. This process involves the exhaustive collection of lexical data, detailed analysis of words and their multiple meanings, and verification of their use in different contexts. Each new edition of a dictionary requires considerable effort to incorporate changes in language, including the addition of new words, modification of existing definitions, and elimination of obsolete terms. This intense labor ensures that dictionaries remain valuable and relevant resources in a constantly evolving world. Lexicography, the discipline dedicated to the creation and study of dictionaries, faces numerous challenges in its practice. Beyond designing the structure of the dictionary, the lexicographer must deal with the complexity of language, where one of the greatest challenges is polysemy. Words with multiple meanings require careful treatment to ensure that definitions are precise and relevant to the context in which they will be used. This process involves not only identifying all possible meanings of a word but also determining which of these is most appropriate for the target reader of the dictionary. Additionally, the lexicographer must ensure that definitions are clear and understandable, avoiding ambiguities and providing usage examples that adequately illustrate each meaning. This challenge is amplified in a dynamic linguistic environment where language constantly evolves, making it essential to use advanced tools that support decisionmaking and efficient structuring of dictionary entries. Currently, technologies like TLex and Microsoft Word provide tools that focus on the editing and presentation of dictionary entries, aimed at detailing selected definitions and improving the quality of their presentation. However, language is dynamic and evolves constantly, behaving like a living entity that reflects social, cultural, and technological changes. New words emerge, others fall into disuse, and meanings can change over time. This evolutionary behavior of language presents a significant challenge for traditional lexicography. The proposal of this thesis is to treat the lexicographic corpus as an evolving organic entity, integrating ontologies and folksonomies to manage and adapt to this dynamism. Ontologies provide a hierarchical and organized structure of knowledge, allowing precise representation of relationships between terms. On the other hand, folksonomies, which are collaborative classification systems, allow for more flexible and adaptive analysis of the actual use of language. By leveraging knowledge graphs, it is possible to perform detailed analyses and visualizations that help identify trends, relationships, and changes in language use. This approach not only facilitates the continuous updating and improvement of dictionaries but also enables the provision of more precise and relevant definitions. Tools like word clouds can provide lexicographers with valuable information about definitions and their lexical composition. These tools visualize the frequency of word usage, suggesting which terms are more common and therefore more easily understood by readers. This allows lexicographers to quickly identify which definitions are composed of more frequently used words, facilitating the creation of more accessible and relevant entries. Similarly, if some words within definitions could be subject to some form of censorship, this information can be communicated to the lexicographer, allowing them to make informed decisions about which definitions to include in the dictionary, according to the target audience. By integrating these tools into the lexicographic process, the precision and relevance of definitions are improved, ensuring that the dictionary meets the expectations and needs of its readers.
382

Gestión de coordinación de docentes e informes de fin de ciclo

Burgos Ortiz, Luis Miguel, Miranda Alva, Luis Eduardo 2014 June 1930 (has links)
The UPC’s programs of Information Systems Engineer and Software Engineer have the ABET (Accreditation Board for Engineering and Technology) accreditation. This gives great prestige to the programs and the university, which is why it’s an objective of the UPC Computing and Systems College to always keep such degree. To achieve this accreditation is necessary to collect direct and indirect evidence that are displayed throughout the academic year. These evidences are related to the constituent, which can be students, teachers, committee members, employers and graduates. Teachers throughout the academic year conducted a series of coordination meetings and reporting cycle ending where the evidence to be observed throughout the regular cycle and propose solutions to the problems encountered is collected. Given of meetings of coordination meeting minutes where agreements and tasks set then a meeting will get evidence. In the case of the cycle end reports, reports which contain the problems encountered during the dictation of the cycle and proposals to solve these will get. The project aims to deliver a web solution to the school in order to automate the entry of information from documents generated in the coordination meetings and reports to cycle, so that in this way updated and useful information is obtained to determine areas for improvement. This system is aimed at teachers and members of the accreditation committee that will be responsible for filling out the information and generate the respective reports. / Las carreras de Ingeniería de Software y de Ingeniería de Sistemas de Información de la UPC cuentan con la acreditación ABET (Accreditation Board for Engineering and Technology). Lo cual da un gran prestigio a la carrera y a la universidad, por lo que es un objetivo de la Escuela de Ingeniería de Sistemas y Computación de la UPC mantener dicha acreditación. Para lograrlo es necesario el poder recolectar evidencias directas e indirectas que se visualizan a lo largo del ciclo académico. Estas evidencias están relacionadas con los constituyentes, los cuales pueden ser alumnos, docentes, miembros del comité, empleadores, graduandos. Los docentes a lo largo del ciclo académico realizan una serie de reuniones de coordinación e informes de fin de ciclo donde se recolecta las evidencias que se van observando a lo largo del ciclo regular y proponen soluciones a los problemas encontrados. De las reuniones de coordinación realizadas se obtienen actas de reunión donde se evidencias los acuerdos y tareas que se establecen durante la reunión. Para el caso de los informes de fin de ciclo se obtienen documentos, los cuales contienen problemas encontrados durante el dictado de un determinado curso en un ciclo y tambíen contienen propuestas de solución para estos problemas. El objetivo del proyecto es entregar una solución web a la escuela con el fin de automatizar el ingreso de la información de los documentos generados en las reuniones de coordinación y los informes de fin de ciclo, para que de esta manera se obtenga información actualizada y útili para determinar puntos de mejora. Este sistema está dirigido a los docentes y miembros del comité de acreditación que serán los encargados de llenar la información y generar los reportes respectivos.
383

DSpace aplicado al repositorio institucional RedLIEDS (Red Latinoamericana sobre Industrias Extractivas y Desarrollo Sostenible)

Muñante Arzapalo, Denisse Yessica January 2010 (has links)
Actualmente están ocurriendo algunos eventos y reflexiones en la comunidad internacional respecto al derecho y a la necesidad de acceso libre al conocimiento. Como modelo de publicación, difusión y preservación de contenidos académicos, tomamos a los Repositorios Institucionales, que facilitan el acceso a la posesión y uso de los derechos de publicación por parte de los autores y editoriales comerciales. Con miras a contribuir a alcanzar las metas planteadas para América Latina y el Caribe, relacionadas a la construcción de los Medios para preservar el Patrimonio Intelectual Académico sobre Industrias Extractivas y Desarrollo Sostenible, se propone la creación de una Red Latinoamericana basada en los Repositorios Institucionales, el cual será una comunidad digital interconectada cuyas actividades se relacionan con la temática del desarrollo sostenible y las industrias extractivas, con énfasis especial, en las actividades mineras, concentrado en unir y potenciar la participación de las instituciones académicas de la región de América Latina y el Caribe (LAC), en esa línea se estableció un Convenio de Cooperación con la Universidad Nacional Mayor de San Marcos del Perú para que en colaboración con la UNCTAD (Conferencia de las Naciones sobre el Comercio y Desarrollo) se ponga en marcha una red regional interactiva sobre las industrias extractivas y desarrollo sostenible. Se concibe como un proyecto de alcance regional, de carácter cooperativo que se ha desarrollado en dos fases. La primera fase estableció RedLIEDS en el Taller Internacional organizado por UNCTAD en Lima en Abril del 2003, se creó el Sitio Web que es considerado como uno de los principales medios a través del cual se difunde información en torno a la temática minera y desarrollo sostenible. Para la segunda fase incluye la utilización de los repositorios institucionales como fuente para la preservación del patrimonio intelectual de los miembros de la Red. En el futuro se espera motivar y poder contar con la cooperación de más instituciones educativas y otras entidades de la sociedad civil para nutrir esta iniciativa con la mayor información posible y que abarque a los principales países mineros de la región, así como generar espacios de participación ciudadana informada vía la interconexión que las Tecnologías de la Comunicación e Información facilitan. -- Palabras Claves: Repositorios Institucionales, DSpace, RedLIEDS, OAI, Dublin Core / -- Now, some events and reflections in the international community occur in favour of the right and the necessity to have the free access to knowledge. The Institutional Repositories, which be taken like a model of the publishing, dissemination and preservation of the academic contents, facilitate to access to the possession and the use of the publishing rights for authors and commercial publishers. In raison the achieving the proposed goals in Latin America and the Caribe, which are related to built the ways to preserve Academic Intellectual Patrimony about Extractive Industries and Sustainable Development, we propose to create a Latin American Net on the Institutional Repositories, which will be a interconnected digital community whose activities are related to the extractive industries, sustainable development and specially mining activities, which join and maximize the participation of academic institutions in Latin America and the Caribe (LAC); in this way, a Convention of Cooperation was created with the collaboration of the University Mayor de San Marcos from Peru and the UNCTAD (Conference of Nations about the Commerce and the Development), which put a interactive regional net about extractive industries and sustainable development. This project, which is considered like a regional project with a cooperative character, was developed en two phases. The first phase established RedLIEDS in the International Workshop which was organised by UNCTAD in Lima in April 2003, where was created the Web Site which is considered like a principal way to disseminate information about mining thematic and sustainable development. The second phase includes the utilisation of the institutional repositories like source to preserve the intellectual patrimony of net’s members. In the future, we hope to motivate and to increase the cooperation of educative institutions and others entities of the civil society in order to increase this initiative to have more information and to include to the principal mining countries of the region, as well as generating spaces of citizen participation informed via the interconnection that the Information Technology provide. -- Key Words: Institutional Repositories, DSpace, RedLIEDS, OAI, Dublin Core
384

Solución business intelligence como soporte a la toma de decisiones aplicada a una empresa de retail

Rosales Alberca, Luis Miguel January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Describe la implementación de una solución de business intelligence como soporte a la toma de decisiones aplicada a una empresa de retail, se tomó como caso de estudio la empresa, Cencosud Retail Perú S.A. El problema que se identificó en la empresa Cencosud Retail Perú S.A. en el año 2015, fue la necesidad de una solución que brinde información clave de forma rápida, confiable, sólida y única que soporte a la toma de decisiones. Para la implementación se utilizó una metodología descrita en fases: análisis, diseño, construcción e implantación. Además, se utilizaron herramientas como SQL Server 2008, SQL Server Integration Services, microstrategy. Ante esa situación, básicamente el objetivo que se planteó y alcanzó fue implementar una solución business intelligence que apoye a la toma de decisiones. Para ello se planteó un primer alcance la de brindar información relevante enfocada a la venta. Los resultados que se obtuvieron después de la implementación fueron el negocio consultaba una sola plataforma de información mediante la unificación de fuentes de información, la respuesta rápida de información permitió que el negocio tomara decisiones inmediatas ante cualquier situación; y por último se implementó una sólida arquitectura para abarcar información de otras áreas tales como promociones, inventarios, clientes, recursos humanos, entre otros. / Trabajo de suficiencia profesional
385

Implementación de un dashboard para un repositorio de metadatos: caso de estudio REPOX

Cuba Samaniego, Lizbeth Mónica January 2016 (has links)
Publicación a texto completo no autorizada por el autor / Estudia a los dashboards desde el punto de vista académico y también teniendo en cuenta las tecnologías de Inteligencia de Negocio (BI) disponible en código abierto (open-source). La motivación de este trabajo es proponer una interfaz de un dashboard operativo para REPOX, que es una herramienta existente para gestionar los procesos de transferencia de datos de las bibliotecas digitales, también se dan las bases para el diseño, implementación y validación de un dashboard operativo para REPOX. / Tesis
386

Funciones ortogonales empíricas y su aplicación a datos de temperatura superficial del mar

Alburqueque Salazar, Edward Steve January 2019 (has links)
Aplica el análisis FOE que es reducir un conjunto de datos originales que contiene varias variables a un segundo conjunto de datos que contenga un número mucho menor de variables, con la condición de que estas nuevas variables contengan la máxima fracción posible de la información contenida en el primer conjunto de datos. Este segundo conjunto datos se obtiene luego de determinar los autovalores y autovectores de la matriz covarianza (Wilks, 1995). El método se ha aplicado a un conjunto de datos de Temperatura de la Superficie del Mar (TSM), estimando primero sus anomalías y construyendo la matriz covarianza, que será utilizada en el método DVS (Descomposición en Valores Singulares) para encontrar los patrones espaciales y temporales (componentes principales). Se han utilizado datos de nivel Level 4, es decir datos sobre los que se ha realizado un procesamiento adicional tal como el llenado de pixeles faltantes mediante técnicas de interpolación o la combinación de datos de diversos sensores. El área de estudio es el Océano Pacífico Ecuatorial (Latitud: 30ºN-30ºS, Longitud: 140ºE-70ºO). El objetivo es identificar los patrones (también denominados modos) más importantes de la variabilidad de la TSM en el Pacífico Ecuatorial, asociar estos modos con fenómenos como El Niño – Oscilación Sur (ENSO), y posteriormente utilizar las primeras componentes principales para encontrar los índices de variabilidad correspondientes al Pacífico Central (ENSO-CP) y al Pacífico Este (ENSO-EP). Finalmente para validar los índices estimados, se los compara con aquellos obtenidos por instituciones nacionales e internacionales. / Tesis
387

Generación de nuevos modelos de negocios para el servicio de telefonía móvil 3G en ambientes interiores

Espinoza Olivas, Tito January 2013 (has links)
Publicación a texto completo no autorizada por el autor / Manifiesta que actualmente en el Perú, las redes móviles se encuentran en etapa de transición, pasando de segunda hacia la tercera y dentro de poco tiempo a la cuarta generación, así mismo, los usuarios ya no sólo utilizan el servicio de voz sino también la transmisión de datos a alta velocidad ocasionando un crecimiento rápido del tráfico y recursos en la red. Por otro lado, las redes celulares nacieron como una solución de comunicación de exteriores, sin embargo se considera que un gran porcentaje de usuarios se encuentran en interiores de oficinas, tiendas, hoteles, restaurantes, aeropuertos, edificios, etc., donde las señales son atenuadas por las paredes que penetran, donde los usuarios no pueden hacer buen uso del servicio, generando así una gran demanda insatisfecha. La experiencia como usuario del servicio de red 3G, me permite afirmar que las características técnicas de ésta tecnología plantea que, para aprovechar las mejoras considerables en la velocidad de descarga es necesario que el aparato del usuario, esté lo más cerca posible a la Estación Base. Esto implica que la densidad de los Nodos B en la red 3G debe aumentar, lo que obliga a instalar más infraestructura externa en la densa zona urbana, lo cual actualmente es difícil para el operador por problemas de índole social y permisos municipales. En base al problema identificado, se realiza el presente proyecto de investigación con el fin de analizar la insatisfacción del servicio en interiores para clientes del segmento empresarial y en base a ello generar “Nuevos Modelos de Negocios”, que los operadores pueden implementar para brindar soluciones puntuales con el uso de tecnológicas emergente como femtoceldas, Wi-Fi offloading y sistema de antenas distribuidas (DAS), de modo que sean económicamente factibles para ellos y sus clientes. / Tesis
388

Diseño e implementación de un sistema de gestión de sesiones Web conferencing para la comunidad PUCP

Barturén Larrea, José Luis 06 September 2012 (has links)
En la presente tesis se realiza el diseño e implementación de un sistema que apoya la metodológica de los cursos a distancia y semipresenciales en la Pontificia Universidad Católica del Perú, a través de herramientas web conferencing para la interacción síncrona entre docentes y alumnos. Para ello se plantea un sistema de gestión de sesiones web conferencing, el cual involucra la autenticación y asignación de roles a los usuarios, así como la creación, actualización y monitoreo de salas. Esta tesis está estructurada de la siguiente manera: En el capítulo 1 se detalla la situación actual del sistema web conferencing ofrecido por la PUCP, se define el problema y los objetivos del proyecto. En el segundo capítulo, se muestra el marco teórico de los sistemas web conferencing, se compara las principales herramientas comerciales y de código abierto, y se elige aquella que soluciona los problemas del actual servicio y ofrece un apoyo metodológico para los cursos a distancia y semipresenciales. En el capítulo 3 se presenta el diseño de la propuesta para el nuevo sistema, a través de diagramas de casos de uso, clases y despliegue. Finalmente, en el cuarto capítulo se muestran los prototipos implementados y los resultados de la validación del sistema. Se detallan aspectos importantes de la implementación así como las pruebas de integridad y estrés al servidor. / Tesis
389

Implementación del centro de producción para la FISI - UNMSM

De La Cruz Vélez de Villa, Percy Edwin January 2017 (has links)
Publicación a texto completo no autorizada por el autor / Implementa el centro de producción de bienes y prestación de servicios, denominada “Excelencia en Tecnología de Información a tu Servicio (ETIS)”, para la Facultad de Ingeniería de Sistemas e Informática (FISI) de la Universidad Nacional Mayor de San Marcos (UNMSM) siguiendo la normatividad vigente sobre el Centro de Producción, el Estatuto Universitario y la ley Universitaria 23733 de aquellas fechas. Este gran proyecto después de su implementación posibilita obtener ingresos por los diferentes servicios ofrecidos, inicialmente en soluciones en TI, con servicios especializados en: desarrollo de Software a medida, servicios de testing y calidad de software, consultoría, asesoría y capacitaciones, tanto a nivel interno como externo. Permitiendo la integración y socialización de alumnos y docentes en un entorno laboral. / Trabajo de suficiencia profesional
390

Modelo “Cebaco” aplicado al control de procesos en el circuito de Molienda-Clasificación en una planta concentradora de minerales mediante el software LabVIEW

Basurto Contreras, César Marino, Basurto Contreras, César Marino January 2011 (has links)
El control de procesos en una planta concentradora se presenta como un problema desde el mismo momento que el mineral bruto cae a las trompas del molino, el proceso es continuo y solo cesa esta continuidad cuando el producto finalmente emerge para descansar en las canchas de almacenamiento de los concentrados y las canchas de relave de las colas. El material en proceso no puede ser pesado sin interrumpir tal continuidad; consecuentemente, el control de la planta dependerá mucho del muestreo adecuado del material tratado que se encuentra en forma de pulpa. De estas muestras se obtendrá la información esencial y útil por medio del análisis, en cuanto al contenido del metal, distribución del tamaño de partículas y contenido de agua u otros ingredientes en la pulpa del mineral. Con tal información a mano, se cálcula la eficiencia y por ende la efectividad del trabajo que se efectúa mediante el uso de fórmulas y tabulaciones. Pero por lo tedioso que es el trabajo de obtener información de los datos, más que todo por la demora de las pruebas en laboratorio, y por lo tanto no se pueden tomar decisiones al instante para mejorar el proceso de producción. En el presente trabajo se propone una metodología de control de procesos llamado “Cebaco”que consiste básicamente de tres partes pricipales, primero, el diseño de el método de control del proceso que se propone, el control de las variables operativas en el circuito de molienda-clasificación en una planta concentradora que se fundamenta en un mallaje en húmedo en el mismo sitio de muestreo, para la cual solamente se necesitan 2 mallas, éstas pueden ser las No.60 y 200 que son los más recomendables y también contar con un densímetro (balanza MARCY) con su respectivo nomograma, un pesapulpa de 1 litro de capacidad, conociendo la gravedad específica del mineral, la densidad de la pulpa con estos datos se puede calcular al instante el porcentaje de sólidos en cada flujo del clasificador, y con lo cual se cálcula los porcentajes acumulados negativos y positivos de las mallas mencionadas, con dichos datos obtenidos utilizando los modelos matemáticos de Gaudín-Schuhmann[64] y de Rosín-Rammler[61], los más usados en procesamiento de minerales, con los cuales se obtienen los perfiles granulométricos casi al instante, el segundo aporte es la elaboración y propuesta del modelo matemático que se basa en función de las densidades de la pulpa tomadas estas en cada flujo del clasificador y de las densidades obtenidas al hacer el mallaje en húmedo respectivamenter en las mallas ya mencionadas y el tercero es la implementación de el software Goliat 0.2 en el lenguaje de programación LabVIEW con los modelos matemáticos que se propone donde se puede visualizar en el ordenador los resultados obtenidos al instante. Las pruebas de aplicación y comprobación se realizarón, en las plantas concentradoras de “Austria Duvaz” en Morococha, “Corona” de Chumpe en Yauricocha, Yauyos y “Huari” ubicada en La Oroya perteneciente a la UNCP. Cuyos resultados fueron muy halagadores, coincidiendo casi en forma total con la hipótesis planteada. Como demostración de que la metodología funciona óptimamente, tanto en el control de procesos como en la simulación , se puede verificar con los siguientes resultados obtenidos, el tamaño de corte (d50) calculado[51]; con los datos tomados del libro del Ms.Cs. Juan Rivera Zevallos[58] en las páginas 307-324, es de 77.31 micrones y la eficiencia de clasificación es de 42.32% y haciendo los cálculos con la métodologia propuesta el d50 es de 77.32 micrones y la eficiencia de clasificación da un valor de 42.71 %, se puede notar claramente que casi no hay diferencia, en el segundo caso en la comparación de los resultados de los datos obtenidos en la planta concentradora de “Chumpe” Yauricocha, al hacer el control de procesos y los cálculos respectivos por la metodología tradicional, como se realiza en la mayoría de las plantas, da un valor del d50 de 81.31 micrones y la eficiencia de clasificación da un valor de 57.93% y al hacer el control y sus respectivos cálculos con la métodología“Cebaco” da como resultado el d50 de 83.56 micrones y la eficiencia de clasificación de 53.18% se puede también notar sobre todo en esta última que la diferencia no es significativa, siendo el nivel de significancia de 0,08 y con una confidencia de 92%, en el tercer caso también al evaluar otra prueba de los datos tomados de la planta concentradora mencionada al hacer los cálculos con el método tradicional da una eficiencia de clasificación de 48.49% y con la métodología“Cebaco” la eficiencia de clasificación resulta de 48.02 % que en la práctica casi son similares, en el cuarto caso al hacer la evaluación de los resultados obtenidos en la planta concentradora “Austria Duvaz” ubicada en Morococha, el d50 calculado por la metodología tradicional da un valor de 88.3061 y el d50 calculado con la metodología “Cebaco” da un valor de 85.2559 existiendo una diferencia de tan solamente 3.45% y el valor de la eficiencia de clasificación por la metodología tradicional da un valor de 51.8102 y el calculado con la metodología “Cebaco” da un valor de 51.6255 existiendo una diferencia de 0.36% y la razón de carga circulante calculada por la metodología tradicional da un valor de 1.903 y la calculada con la metodología “Cebaco” da un valor de 1.887 cuya diferencia es de tan solamente 0.84% . Y la demostración más importante , donde se comprueba que el método“Cebaco” es una propuesta adecuada, se da con el incremento de las ganancias para la planta concentradora y ésto se obtuvo de las valorizaciones de los concentrados en ambos casos , uno con el balance metalúrgico obtenido con el método tradicional y el otro con el balance metalúrgico obtenido de los trabajos realizados con el método propuesto y ésto se fundamenta en el tiempo de control, ya que el tiempo con el método tradicional en el mejor de los casos es de 4 horas y con el método propuesto es de tan solamente 5 minutos esto implica que las correcciones se hacen casi al instante por lo tanto trae como consecuencia la mejora de las leyes y de las recuperaciones de los concentrados y por ende de la productividad, por los cálculos hecho se determino una ganancia de 11.53 dólares americanos más por tonelada de mineral tratado al realizar el control con el método propuesto. / -- The process control in a concentrating plant appears like a problem of imponderable from the moment that the gross mineral falls to the tubes of the mill, the process is continuous and this continuity only stops when the product finally emerges to rest in the fields of storage of the concentrates and the fields of re-wash of the tails. The material in process cannot be weighed without interrupting such continuity; consequently, the control of the plant will depend much on the suitable sampling of the treated material that is like pulp. From these samples the essential and useful information of the analysis will be obtained, as far as the content of the metal, distribution as large as particles and water Content or other ingredients of the mineral pulp. With such information by hand, we can calculate the efficiency and the effectiveness of the work that takes place by means of the use of formulas and tabulations. But by the tedious that is the work to obtain information of the fact, more than everything by delay of the tests in laboratory, so, decisions cannot be taken right away to improve the production process. in the present work a methodology of process control, sets out called “cebaco” that consists basically of three parts main, first, the control method that set out, these are the operative variables in the circuit of milling-classification in a concentrating plant that is based on a humid malla in the same site of sampling, for which 2 are only needed, these can be No.60 and 200 that are the most recommendable and also to have a Densimeter (balance MARCY) with their respective monogram, we can weight pulp of 1litro of Capacity, knowing the mineral specific gravity, the pulp density with these data the solids percentage can be calculated in an instant in each flow of the filing cabinet, and with this data it calculates the negative accumulated percentage and positive of you enmesh mentioned, with these data collected using the mathematical models Gaudin-Schuhmann[64] and Rosin-Rammler [61], but used in mineral processing, with which the grain sized profiles are obtained almost right away and in an instant, the second contribution is the proposal of the mathematical model that is based on the density of the pulp taken these on each flow from the filing cabinet and of the density obtained when doing the humid mallaje respectively in you enmesh already mentioned; and the third party is I elaboration of software Goliat 0,2 in the programming language LabVIEW with the mathematical models that sets out where the obtained results is possible to be visualized in a computer. The tests of application and verification were realized, in Plants Concentrating of “Austria Duvaz” in Morococha, “Crown” of Chumpe in Yauricocha, Yauyos and “Huari” located in UNCP. Whish results were very flattering, agreeing almost in total with the proposition hypothesis. Like demonstration of which the methodology works optimally, as much in the process control like in the simulation, we can verify with the following obtained results, the size of cuts (d50) calculated [51]; with the data taken from the book of Juan Rivera Zevallos[58] in pages 307-324, is 77,31 microns and the classification efficiency is of 42,32 and making the calculations with the methodology, it gives that d50 is 77,32 microns and the classification efficiency gives a value of 42,71, is possible to be clearly noticed that almost there is no difference, In the second case in the comparison of the results of the data collected in the concentrating plant of “Chumpe” Yauricocha, when doing the process control and the respective calculations by the traditional methodology, as it is realized in the majority of the plants, it gives a value of d50 of 81,31 microns and the classification efficiency gives a value of 57,93% and when doing the control and its respective calculations with the methodology “Cebaco” give as result d50 of 83,56 microns and the efficiency of classification of 53,18% can also be noticed mainly in this completes that the difference is not significant, being the level of significance of 0.08 and with a approximation of 92%, in the third case also when evaluating another test of the data taken from the concentrating plant mentioned when doing the calculations with the traditional method, it gives an efficiency of classification of 48,49% and with the methodology “Cebaco” the classification efficiency is about 48,02%, also almost are similar, in the fourth case when doing the evaluation of the results obtained in the concentrating plant “Austria located Duvaz” in Morococha, the d50 calculated by the traditional methodology gives a value of 88,3061 and d50 calculated with the methodology “Cebaco” gives a value of 85,2559 existing a difference of so only 3,45 and the value of the efficiency of classification by the traditional methodology gives a value of 51,8102 and the calculated with the methodology “Cebaco” gives a value of 51,6255 existing an insignificant difference of 0,36 and the reason of circulating load calculated by the traditional methodology gives a value of 1.903 and the calculated one with the methodology “Cebaco” gives a value of 1,887 whose difference is of so only 0.84. So, the demonstration more important, where it is verified that the method “Cebaco” is an suitable proposal, occurs with the increase of the utility for the concentrating plant and this was obtained from valuations of the concentrates in both cases, first with the obtained metallurgical balance with the traditional method and the other with the metallurgical balance obtained of the works carried out with the proposed method, this is based on a better time of control, as for the time with the traditional method in the best cases is of 4 hours and with the proposed method is of so only 5 minutes, this implies that the corrections are made right away and in an instant, so it brings consequently theimprovement of the recoveries laws of the concentrates and therefore increase of the productivity. By the calculations done I determine a utility of 11. 53 dollars American more by ton of mineral treated, when realizing the control with the proposed method. / Tesis

Page generated in 0.109 seconds