• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 343
  • 113
  • 42
  • 8
  • 4
  • 3
  • 3
  • 3
  • 3
  • 1
  • 1
  • Tagged with
  • 511
  • 175
  • 142
  • 67
  • 47
  • 43
  • 38
  • 38
  • 37
  • 36
  • 36
  • 34
  • 34
  • 33
  • 33
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
271

Diseño de un prototipo de un sistema de trazabilidad de ganado usando RFID

Loyola Cabanillas, Alfredo Raúl 13 June 2011 (has links)
El presente trabajo de tesis se centra en el desarrollo del diseño de un prototipo de un sistema de trazabilidad de ganado vacuno, proporcionando una herramienta que contribuya a la industria ganadera del país como requerimiento para ostentar certificados de salubridad internacional que abran las puertas a la exportación de los productos derivados. Bajo este criterio, el objetivo principal se enfoca en la obtención del diseño final del prototipo del sistema, con el fin de aportar a la solución del problema principal causante de lo anteriormente mencionado: la imposibilidad de las comunidades ganaderas de entregar y garantizar un producto final de calidad debido a la falta de un sistema de trazabilidad adecuado y eficiente. Con el fin de conseguir ello es que se realiza la investigación del marco teórico referido a las implicancias, beneficios y contingencias que contempla la implantación del procedimiento de trazabilidad individual de ganado mediante la ejecución y utilización del prototipo del sistema. Asimismo, se analizan los componentes del diseño del prototipo tomando en cuenta los requerimientos y necesidades de los agentes participantes en la sociedad ganadera y fututos participantes del sistema, acorde a un análisis del estado actual de la industria ganadera peruana, poniendo como ejemplo específico y para desprender un alcance en función de ella, a la ciudad de Madre de Dios. Se detalla el desarrollo tecnológico del diseño del prototipo del sistema, mediante el diseño de un subsistema de identificación por radiofrecuencia y la implementación de un subsistema de información de seguimiento de datos. Finalmente, se establecen las políticas y el accionar adecuado para la utilización del prototipo diseñado en la aplicación del procedimiento de trazabilidad individual de ganado en el país. Los pasos anteriormente mencionados, permitieron la obtención final y exitosa del diseño final del prototipo del sistema de trazabilidad, en ambas etapas.
272

Diseño de un sistema de adquisición de datos utilizando el protocolo usb en un microcontrolador AVR

Nole Calle, Richard Armando 11 June 2014 (has links)
Existen diversas tecnologías de comunicación con una computadora para la adquisición de datos, entre los más comunes se encuentran: PCI, USB, Ethernet, Firewire, puerto serial, etc. Dentro de ellos, el USB destaca por su configuración automática, bajo costo y facilidad de uso. A pesar de existir varios sistemas de adquisición de datos en el mercado, su uso se ve restringido debido a sus altos costos y por poder usarlo sólo con las aplicaciones y drivers del proveedor. En el presente trabajo se diseña un sistema de adquisición de datos con interface USB utilizando un microcontrolador Atmel de la familia AVR XMEGA, buscando en todo momento obtener la máxima tasa de transferencia posible. Para ello se desarrolla una aplicación en el microcontrolador que permita leer datos adquiridos de cuatro canales del ADC del microcontrolador. Asimismo, se desarrolla una clase USB propietaria que define cómo se van a trasferir los datos, qué tipo de transferencias USB se van a usar y cuál va a ser su máxima tasa de transferencia posible. En el lado de la computadora, se desarrolla una aplicación en lenguaje C que permita a la computadora poder comunicarse con el microcontrolador a través del bus USB. Para el desarrollo del firmware del microcontrolador se tomó como base el framework USB que provee Atmel (ASF 3.1.3, Atmel Software Framework), y posteriormente fue implementado en la tarjeta de evaluación XMEGA – A3BU XPLAINED con una frecuencia de CPU de 32MHz. Se obtuvo que en promedio se puede transmitir datos a 8.46Mbps usando un alto nivel de optimización del compilador. Se concluye que si se quiere obtener mejores tasas de transferencia se debe mejorar una serie de factores como: MIPS del microcontrolador y optimización del framework USB de Atmel. Finalmente, se recomienda portar este trabajo a microcontroladores que soporten el modo “Alta Velocidad” (del inglés High Speed) del USB 2.0, cuya velocidad por bit es de 480Mbps, así como desarrollar las etapas de preprocesamiento de las señales: amplificación, filtrado, e aislamiento de las señales que se quieran enviar por la interfaz USB.
273

Diseño de una máquina prensadora automatizada de ladrillos ecológicos con interlocking

Ramirez Ocaña, Harry Eros 10 May 2024 (has links)
Los ladrillos ecológicos son utilizados hoy en día como una alternativa a los ladrillos convencionales, la diferencia es que estos son fabricados mediante presión en vez de cocción, por ello reciben el nombre de ecológicos. Los ladrillos son creados con una combinación de tierra, cemento y agua, la cual es luego prensada en una cámara la cual le da forma que la propiedad del interlocking (o forma tipo ‘lego’), para una fijación más sencilla; además, poseen mejor resistencia térmica que los ladrillos convencionales. El presente trabajo tiene como objetivo diseñar una máquina prensadora automatizada de ladrillos ecológicos con interlocking para productores pequeños o medianos en el país, que no puedan costear el importar las costosas máquinas disponibles solo en el extranjero. Para la elaboración del proyecto se hará uso de la metodología basada en la normal VDI 2221 “Proceso generalizado de desarrollo y diseño de sistemas mecatrónicos”.
274

Aprendizaje de transductores estocásticos de estados finitos y su aplicación en traducción automática

González Mollá, Jorge 22 October 2009 (has links)
Traducción automática es un área de lingüística computacional que investiga el uso de software para traducir texto o voz en lenguaje natural hacia su representación en un idioma destino, también mediante lenguaje natural. En las últimas décadas ha habido un fuerte impulso sobre la utilización de técnicas estadísticas para el desarrollo de sistemas de traducción automática. Para la aplicación de estos métodos sobre un par de lenguas en concreto, se requiere la disponibilidad de un corpus paralelo para dicho par de idiomas. El atractivo de estas técnicas radica en que el desarrollo de un sistema se realiza sin necesidad de trabajo experto por parte de especialistas en lingüística. Los modelos de estados finitos llevan bastante tiempo empleándose con éxito en múltiples y variadas disciplinas dentro de la investigación científica aplicada al lenguaje natural, incluyendo su uso en traducción automática. Los modelos de estados finitos presentan una serie de ventajas con respecto a otros modelos estadísticos, como su sencilla integración en entornos de reconocimiento de voz, su aplicación en sistemas de traducción asistida, o su capacidad para procesar la información sin necesidad de que esté completa, por medio de una arquitectura basada en las populares cadenas de montaje. El objetivo de la investigación consiste en el estudio y la explotación de las técnicas de traducción automática basadas en modelos de estados finitos. El trabajo presentado en esta tesis es un análisis detallado de la metodología GIATI para el aprendizaje de transductores estocásticos de estados finitos para su aplicación eficaz y eficiente como modelos en traducción automática, permitiendo su uso sobre tareas de traducción con un gran volumen de datos. / González Mollá, J. (2009). Aprendizaje de transductores estocásticos de estados finitos y su aplicación en traducción automática [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/6289
275

Advances in Fully-Automatic and Interactive Phrase-Based Statistical Machine Translation

Ortiz Martínez, Daniel 14 October 2011 (has links)
This thesis presents different contributions in the fields of fully-automatic statistical machine translation and interactive statistical machine translation. In the field of statistical machine translation there are three problems that are to be addressed, namely, the modelling problem, the training problem and the search problem. In this thesis we present contributions regarding these three problems. Regarding the modelling problem, an alternative derivation of phrase-based statistical translation models is proposed. Such derivation introduces a set of statistical submodels governing different aspects of the translation process. In addition to this, the resulting submodels can be introduced as components of a log-linear model. Regarding the training problem, an alternative estimation technique for phrase-based models that tries to reduce the strong heuristic component of the standard estimation technique is proposed. The proposed estimation technique considers the phrase pairs that compose the phrase model as part of complete bisegmentations of the source and target sentences. We theoretically and empirically demonstrate that the proposed estimation technique can be efficiently executed. Experimental results obtained with the open-source THOT toolkit also presented in this thesis, show that the alternative estimation technique obtains phrase models with lower perplexity than those obtained by means of the standard estimation technique. However, the reduction in the perplexity of the model did not allow us to obtain improvements in the translation quality. To deal with the search problem, we propose a search algorithm which is based on the branch-and-bound search paradigm. The proposed algorithm generalises different search strategies that can be accessed bymodifying the input parameters. We carried out experiments to evaluate the performance of the proposed search algorithm. / Ortiz Martínez, D. (2011). Advances in Fully-Automatic and Interactive Phrase-Based Statistical Machine Translation [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/12127
276

Building task-oriented machine translation systems

Sanchis Trilles, Germán 20 September 2012 (has links)
La principal meta de esta tesis es desarrollar sistemas de traduccion interactiva que presenten mayor sinergia con sus usuarios potenciales. Por ello, el objetivo es hacer los sistemas estado del arte mas ergonomicos, intuitivos y eficientes, con el fin de que el experto humano se sienta mas comodo al utilizarlos. Con este fin se presentan diferentes t�ecnicas enfocadas a mejorar la adaptabilidad y el tiempo de respuesta de los sistemas de traduccion automatica subyacentes, as�ÿ como tambien se presenta una estrategia cuya finalidad es mejorar la interaccion hombre-m�aquina. Todo ello con el proposito ultimo de rellenar el hueco existente entre el estado del arte en traduccion automatica y las herramientas que los traductores humanos tienen a su disposici�on. En lo que respecta al tiempo de respuesta de los sistemas de traducci�on autom�atica, en esta tesis se presenta una t�ecnica de poda de los par�ametros de los modelos de traducci�on actuales, cuya intuici�on est�a basada en el concepto de segmentaci�on biling¤ue, pero que termina por evolucionar hacia una estrategia de re-estimaci�on de dichos par�ametros. Utilizando esta estrategia se obtienen resultados experimentales que demuestran que es posible podar la tabla de segmentos hasta en un 97%, sin mermar por ello la calidad de las traducciones obtenidas. Adem�as, estos resultados son coherentes en diferentes pares de lenguas, lo cual evidencia que la t�ecnica que se presenta aqu�ÿ es efectiva en un entorno de traducci�on autom�atica tradicional, y por lo tanto podr�ÿa ser utilizada directamente en un escenario de post-edici�on. Sin embargo, los experimentos llevados a cabo en traducci�on interactiva son ligeramente menos convincentes, pues implican la necesidad de llegar a un compromiso entre el tiempo de respuesta y la calidad de los sufijos producidos. Por otra parte, se presentan dos t�ecnicas de adaptaci�on, con el prop�osito de mejorar la adaptabilidad de los sistemas de traducci�on autom�atica. La primera / Sanchis Trilles, G. (2012). Building task-oriented machine translation systems [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/17174
277

Surface Registration Techniques Applied to Archaeological Fragment Reconstruction

Sánchez Belenguer, Carlos 19 October 2015 (has links)
[EN] Reconstruction of broken archaeological artifacts from fragments is a very time-consuming task that requires a big effort if performed manually. In fact, due to budgetary limitations, this is not even attempted in countless sites around the world, leaving vast quantities of material unstudied and stored indefinitely. This Thesis dissertation faces the application of surface registration techniques to the automatic re-assembly of broken archaeological artifacts from fragments. To efficiently do so, the reconstruction problem has been divided into two groups: 3 degrees of freedom and 6 degrees of freedom problems. This distinction is motivated for two major reasons: archaeological interest of the application and computational complexity of the solution. First kind of problems (3 degrees of freedom) deal with 2D objects or with flat 3D objects, like ripped-up documents or frescoes, respectively. In both cases, the mural paintings and engravings on the fragments' surface are of huge importance in the field of Cultural Heritage Recovery. In this sense, archaeologically speaking, the value of the reconstruction is not the final model itself, but the information stored in the upper surface. In terms of computation complexity, the reduced solution space allows using exhaustive techniques to ensure the quality of the results, while keeping execution times low. A fast hierarchical technique is introduced to face this kind of problems. Starting from an exhaustive search strategy, the technique progressively incorporates new features that lead to a hierarchical search strategy. Convergence and correction of the resulting technique are ensured using an optimistic cost function. Internal search calculations are optimized so the only operations performed are additions, subtractions and comparisons over aligned data. All heavy geometric operations are carried out by the GPU on a pre-processing stage that only happens once per fragment. Second kind of problems (6 degrees of freedom) deal with more general situations, where no special constraints are considered. Typical examples are broken sculptures, friezes, columns... In this case, computational complexity increases considerably with the extra 3 degrees of freedom, making exhaustive approaches prohibitive. To face this problems, an efficient sparse technique is introduced that uses a pre-processing stage to reduce the size of the problem: singular key-points in the original point cloud are selected based on a multi-scale feature extraction process driven by the saliency of each point. By computing a modified version of the PFH descriptor, the local neighborhood of each key- point is described in a compact histogram. Using exclusively the selected key-points and their associated descriptors, a very fast one-to-one search algorithm is executed for each possible pair of fragments. This process uses a three-level hierarchical search strategy driven by the local similarity between key-points, and applying a set of geometric consistence tests for intermediate results. Finally, a graph-based global registration algorithm uses all the individual matches to provide the final reconstruction of the artifact by creating clusters of matching fragments, appending new potential matches and joining individual clusters into bigger structures. / [ES] La reconstrucción de objetos arqueológicos fracturados a partir de fragmentos es una actividad que, si se realiza manualmente, supone un gran coste temporal. De hecho, debido a restricciones presupuestarias, esta tarea no llega a abordarse en incontables yacimientos arqueológicos, dejando grandes cantidades de material sin ser estudiado y almacenado indefinidamente. La presente propuesta de tesis aborda la aplicación de técnicas de registro de superficies a el re-ensamblado automático de objetos arqueológicos fracturados a partir de fragmentos. Por motivos de eficiencia, el problema de la reconstrucción se ha dividido en dos grupos: problemas de 3 grados de libertad y problemas de 6 grados de libertad. Esta distinción está motivada por dos razones: (1) el interés arqueológico de la aplicación final de las técnicas desarrolladas y (2) la complejidad computacional de la solución propuesta. El primer tipo de problemas (3 grados de libertad) se enfrenta a objetos bidimensionales o tridimensionales planos como documentos fragmentados y frescos, respectivamente. En ambos casos, los murales y grabados sobre la superficie de los fragmentos son de gran importancia en el ámbito de la conservación del patrimonio cultural. En este sentido, desde el punto de vista arqueológico, el valor de la reconstrucción final no radica en el modelo en sí, sino en la información almacenada sobre su superficie. En términos de complejidad computacional, el reducido espacio de soluciones permite emplear técnicas de búsqueda exhaustivas que garantizan la corrección de los resultados obtenidos con tiempos de ejecución acotados. La técnica propuesta para abordar este tipo de problemas parte de una estrategia exhaustiva y, progresivamente, incorpora nuevas optimizaciones que culminan con una técnica íntegramente jerárquica. La convergencia y corrección de la solución propuesta están garantizadas gracias a una función de coste optimista. Los cálculos internos durante las búsquedas han sido optimizados de modo que sólo son necesarias operaciones de adición/substracción y comparaciones sobre datos alineados en memoria. Todas las operaciones complejas asociadas a la manipulación de datos geométricos son realizadas por la GPU durante una etapa de pre-procesamiento que se ejecuta una sola vez por fragmento. El segundo tipo de problemas (6 grados de libertad) se enfrenta a situaciones más generales, en las que ninguna restricción especifica puede ser asumida. Ejemplos típicos son esculturas fragmentadas, frisos, columnas... En este caso, la complejidad computacional incrementa considerablemente debido a los 3 grados de libertad adicionales por lo que el coste temporal de las estrategias exhaustivas resulta prohibitivo. Para abordar este tipo de problemas, se propone una técnica dispersa eficiente apoyada en una fase de pre-procesamiento cuyo objetivo consiste en reducir la talla de los datos de entrada: a partir de las nubes de puntos originales, puntos clave singulares son identificados gracias a un proceso de extracción de características multi-escala apoyado en el valor de saliencia de cada punto. Mediante el cálculo de una versión modificada del descriptor PFH (Persistent Feature Histograms), el vecindario local de cada punto clave es descrito en un histograma compacto. Empleando únicamente estos puntos y sus descriptores asociados, un algoritmo de búsqueda uno-a-uno muy rápido se ejecuta sobre cada par de fragmentos. Dicho proceso emplea una estrategia de búsqueda jerárquica de tres niveles, dirigida por la similitud entre puntos clave y que aplica un conjunto de tests de consistencia geométrica sobre los resultados intermedios. Finalmente, un algoritmo de registro global toma como datos de entrada todas las correspondencias individuales para generar la reconstrucción final del objeto. / [CA] La reconstrucció d'objectes arqueològics fracturats a partir de fragments és una activitat que, si es realitza manualment, suposa un gran cost temporal. De fet, a causa de restriccions pressupostàries, esta tasca no arriba a abordar-se en incomptables jaciments arqueològics, deixant grans quantitats de material sense ser estudiat i emmagatzemat indefinidament. La present proposta de tesi aborda l'aplicació de tècniques de registre de superfícies a l're-enssamblatge automàtic d'objectes arqueològics fracturats a partir de fragments. Per motius d'eficiència, el problema de la reconstrucció s'ha dividit en dos grups: problemes de 3 graus de llibertat i problemes de 6 graus de llibertat. Esta distinció està motivada per dues raons: (1) l'interès arqueològic de l'aplicació final de les tècniques desenvolupades i (2) la complexitat computacional de la solució proposada. El primer tipus de problemes (3 graus de llibertat) s'enfronta a objectes bidimensionals o tridimensionals plans com documents fragmentats i frescos, respectivament. En tots dos casos, els murals i gravats sobre la superfície dels fragments són de gran importància en l'àmbit de la conservació del patrimoni cultural. En este sentit, des del punt de vista arqueològic, el valor de la reconstrucció final no es basa en el model en si, sinó en la informació emmagatzemada sobre la seva superfície. En termes de complexitat computacional, el reduït espai de solucions permet emprar tècniques de recerca exhaustives que garanteixen la correcció dels resultats obtinguts amb temps d'execució acotats. La tècnica proposada per abordar aquest tipus de problemes part d'una estratègia exhaustiva i, progressivament, incorpora noves optimitzacions que culminen amb una tècnica íntegrament jeràrquica. La convergència i correcció de la solució proposada estan garantides gràcies a una funció de cost optimista. Els càlculs interns durant les recerques s'han optimitzat de manera que només són necessàries operacions d'addició / substracció i comparacions sobre dades alineats en memòria. Totes les operacions complexes associades a la manipulació de dades geomètriques són realitzades per la GPU durant una etapa de pre-processament que s'executa una única vegada per fragment. El segon tipus de problemes (6 graus de llibertat) s'enfronta a situacions més generals, en què cap restricció especifica pot ser assumida. Exemples típics són escultures fragmentades, frisos, columnes ... En este cas, la complexitat computacional s'incrementa considerablement a causa dels 3 graus de llibertat addicionals pel que el cost temporal de les estratègies exhaustives resulta prohibitiu. Per abordar este tipus de problemes, es proposa una tècnica dispersa eficient recolzada en una fase de pre-processament l'objectiu del qual consisteix a reduir la talla de les dades d'entrada: a partir dels núvols de punts originals, s'identifiquen punts clau singulars gràcies a un procés d'extracció de característiques multi-escala recolzat en el valor de saliència de cada punt. Mitjançant el càlcul d'una versió modificada del descriptor PFH (Persistent Feature Histograms), els veins locals de cada punt clau és descriuen en un histograma compacte. Emprant únicament estos punts i els seus descriptors associats, un algoritme de cerca un-a-un molt ràpid s'executa sobre cada parell de fragments. Aquest procés fa servir una estratègia de cerca jeràrquica de tres nivells, dirigida per la similitud entre punts clau i que aplica un conjunt de tests de consistència geomètrica sobre els resultats intermedis. Finalment, un algoritme de registre global pren com a dades d'entrada totes les correspondències individuals per generar la reconstrucció final de l'objecte. / Sánchez Belenguer, C. (2015). Surface Registration Techniques Applied to Archaeological Fragment Reconstruction [Tesis doctoral]. Universitat Politècnica de València. https://doi.org/10.4995/Thesis/10251/56152
278

Herramienta integrada para la curación de proteínas repetidas

Bezerra Brandao Corrales, Manuel Alberto 05 February 2024 (has links)
A finales de los años 1990, se identificó un conjunto de proteínas caracterizadas por tener patrones repetidos en su secuencia, lo que produce una estructura tridimensional repetitiva (Marcotte et al., 1999). Se han clasificado al menos 14% de proteínas encontradas en la naturaleza como repetidas, y presentan un rol crítico en procesos biológicos como la comunicación celular y el reconocimiento molecular (Brunette et al., 2015; Marcotte et al., 1999). Existe un creciente interés en el estudio de las proteínas repetidas debido a sus pliegues estructurales estables, una alta conversación evolutiva y un amplio repertorio de funciones biológicas (Chakrabarty & Parekh, 2022). Además, se estima que una de cada tres proteínas humanas son consideradas repetidas (Jorda & Kajava, 2010). La identificación, clasificación y curación de regiones de repetición en proteínas es un proceso complejo que requiere del procesamiento manual de expertos, gran capacidad computacional y tiempo. Existen diversos avances recientes y relevantes que aplican modelos de aprendizaje automático para la predicción de estructura tridimensional de proteínas y la predicción de clasificación de proteínas repetidas. Este tipo de aplicaciones resultan útiles para este proceso de curación. No obstante, a pesar de que este tipo de software son de libre acceso y de código abierto, no se cuenta con un servicio integrado que contemple las herramientas y bases de datos que soporten la investigación en proteínas repetidas. Por estos motivos, en este proyecto de investigación de plantea, diseña y desarrolla un servicio web integrado para la curación de proteínas repetidas. Con este objetivo, se ha considerado la integración con la base de datos de estructuras terciarias del Protein Data Bank (PDB) y la base de datos de predicciones de estructuras tridimensionales AlphaFold. Asimismo, se ha utilizado un modelo de redes neuronales que permite predecir la probabilidad de clasificación en cada clase de proteína repetida. Finalmente, con esta predicción, se implementó una mejora al algoritmo ReUPred para volver más eficiente el proceso de identificación de regiones y unidades de repetición. Este servicio ha sido desplegado utilizando computación en la nube en la página bioinformática.org de la cual es parte el laboratorio de investigación en Bioinformática de la Pontificia Universidad Católica del Perú. Este servicio permite que los investigadores no requieran contar con alta capacidad de procesamiento computacional para el proceso de curación de proteínas repetidas e integra los resultados totales obtenidos.
279

Identificación y clasificación automática de repeticiones en estructuras de proteínas repetidas

Muroya Tokushima, Luis Fernando 26 January 2022 (has links)
Las proteínas repetidas son proteínas no globulares caracterizadas por la presencia de repeticiones a nivel de secuencia y estructura. Pueden ser de 5 clases, cada una con un número variable de subclases. Estas proteínas son relevantes porque están relacionadas con una diversidad de enfermedades. Su correcta clasificación es parte fundamental para su estudio; sin embargo, la anotación manual de todas las estructuras de proteínas conocidas es una tarea que es logísticamente imposible completar. Por ello, la automatización de esta tarea es muy importante. En el presente trabajo, se desarrolló una herramienta para la identificación y clasificación de repeticiones de clase IV. Esta herramienta fue construida por el acoplamiento de dos módulos: uno de filtro y otro de clasificación. El primero fue construido reutilizando una red neuronal convolucional entrenada para la detección de simetrías rotacionales en la estructura de una proteína. Su uso estuvo fundamentado en el hecho que las repeticiones clase IV son de estructura cerrada, por lo que la presencia de simetrías rotacionales era altamente probable. Para el módulo de clasificación se transformó la información estructural en imágenes, por medio del cálculo y superposición de tres matrices. Estas imágenes fueron usadas para aplicar una técnica de transferencia de aprendizaje a una red Densenet, seleccionada luego de un análisis cualitativo y cuantitativo. Como resultado, el clasificador obtenido logró una exactitud de 89.8% sobre una muestra de 658 cadenas de proteínas. Los anteriores módulos fueron integrados en un servicio web construido sobre Flask. Se construyó una aplicación de una página (SPA) para hacer disponible dicho servicio en una forma amigable con el usuario. Dicha aplicación fue desplegada en la nube para su acceso.
280

Entorno virtual para el aprendizaje y la evaluación automática en bases de datos

Soler i Masó, Josep 04 November 2010 (has links)
La enseñanza y evaluación automática a través de un sistema Computer Based Assessment (CBA) requiere de software especializado que se adapte a la tipología de actividades a tratar y evaluar. En esta tesis se ha desarrollado un entorno CBA que facilita el aprendizaje y evaluación de los principales temas de una asignatura de bases de datos. Para ello se han analizado las herramientas existentes en cada uno de estos temas (Diagramas Entidad/Relación, diagramas de clases, esquemas de bases de datos relacionales, normalización, consultas en álgebra relacional y lenguaje SQL) y para cada uno de ellos se ha analizado, diseñado e implementado un módulo de corrección y evaluación automática que aporta mejoras respecto a los existentes. Estos módulos se han integrado en un mismo entorno al que hemos llamado ACME-DB. / Teaching and automatic evaluation through Computer Based Assessment (CBA) requires of specialized software tools capable to correct different type of activities. In this work, we have analyzed the main topics of a database course (entity/ relationship diagrams, class diagrams, relational database schemas, normalization, relational algebra and SQL) and for each one of them we have reported the state of art on CBA tools. Afterwards, we have proposed a new CBA environment for teaching and learning database. This environment, denoted ACME-DB, is composed of different modules capable to automatically correct and evaluate exercises of main topics of a database course providing improvements over existing tools.

Page generated in 0.0567 seconds