• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 305
  • 65
  • 26
  • Tagged with
  • 396
  • 288
  • 190
  • 75
  • 75
  • 59
  • 58
  • 45
  • 37
  • 34
  • 34
  • 32
  • 31
  • 28
  • 23
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
331

Una herramienta CASE para diseño de hipermedia basada en modelos

Hermo, Federico Damián, Blotto, Andrés Leandro January 1996 (has links)
No description available.
332

Ambiente multimedial para la enseñanza del curso de ingreso

Cappelletti, Claudia Marcela, Luccioni, Luisa Cecilia January 1997 (has links)
No description available.
333

Aplicación de técnicas evolutivas para el problema de plegado de proteínas

Pelta, David Alejandro, Oña, Pablo Daniel January 1998 (has links)
No description available.
334

Una herramienta CASE basada en un repositorio con interfaz hipermedial

Fabini, Darío, Sobota, Gustavo January 1998 (has links)
No description available.
335

Implementación y análisis de CBTv2 en el medioambiente Ns

Rigotti, Guillermo January 1998 (has links)
Desde la definición del modelo de servicio multicast en IP, el uso de estas facilidades ha ido adquiriendo cada vez mayor importancia en el ámbito de la Internet. El número de aplicaciones que demandan transmisión multicast, tales como conferencias de audio y video, simulación interactiva distribuida, descubrimiento de recursos, etc, ha aumentado en forma continua, viéndose reflejado en el crecimiento experimentado por el MBONE, experimental en sus inicios en 1992 y actualmente considerado indispensable para decenas de miles de usuarios. Los protocolos de ruteo multicast son los encargados de construir y mantener los árboles de distribución por los que fluye la información multicast. Estos protocolos deben ofrecer una performance adecuada a los requerimientos de una diversidad de aplicaciones (demora máxima acotada, diferencia entre demoras acotada, etc.), y a su vez realizar un uso eficiente de los recursos de la red. Es además de suma importancia su escalabilidad, ya sea en cuanto a la cantidad de grupos, número de emisores por grupo, dispersidad de los grupos y extensión de la red sobre la cual operan. Mientras que los primeros protocolos fueron concebidos para grupos densos y áreas reducidas (DVMRP, MOSPF), basándose en el paradigma source-group trees y en mecanismos de integración a los grupos por defecto y podas explícitas, otros como SM-PIM y fundamentalmente CBT versión 2, han sido diseñados para lograr escalabilidad, basándose en el paradigma shared trees para la construcción del árbol de distribución y en la solicitud explícita de integración a un grupo por parte de los routers interesados. Para poder estudiar las características de estos protocolos, es necesario recurrir a la simulación, debido a que en algunas ocasiones un modelo analítico resulta en demasiadas simplificaciones que lo alejan de la realidad. Por otra parte, en la mayoría de los casos es imposible disponer de redes reales de las dimensiones necesarias para llevar a cabo la experimentación. En este trabajo se presenta una implementación del protocolo CBT versión 2 en el medioambiente de simulación provisto por Ns, y un análisis de los costos de recuperación (PDUs transmitidas) y demoras que insume la reconstrucción de subárboles de distribución que quedan aislados como consecuencia de fallas en los vínculos de transmisión.
336

Evolución del diseño de soluciones paralelas sobre clústers de multicore a fin de maximizar la performance

Leibovich, Fabiana 20 November 2013 (has links)
En este trabajo se realiza un análisis comparativo de las técnicas de programación paralela, en el que puede observarse cómo la evolución en el diseño de la solución a un mismo problema permite maximizar la performance de algoritmos paralelos en arquitecturas clúster de multicore. Este análisis se realiza utilizando un caso de estudio ampliamente estudiado en el área como lo es la multiplicación de matrices. Para ello, se implementaron diferentes soluciones para resolver el problema, partiendo de soluciones de alto nivel y bajo acoplamiento con la arquitectura, hasta llegar a soluciones de bajo nivel, dependientes de la arquitectura de prueba subyacente y que aprovechan las características de la misma, como por ejemplo la jerarquía de memoria. Las soluciones implementadas son una solución utilizando pasaje de mensajes, y tres soluciones híbridas teniendo en cuenta diferentes librerías de programación paralela (OpenMPI, Pthreads y OpenMP), y diferentes esquemas de descomposición de los datos. Asimismo, las pruebas de los algoritmos implementados se analizan desde distintos puntos de vista. Por un lado, escalando el tamaño del problema a resolver y por otro, escalando la cantidad de núcleos de procesamiento utilizados.
337

Aula extendida en la educación superior en Ingeniería

Bacino, Gustavo 05 May 2015 (has links)
El objetivo principal del trabajo de investigación presentado en esta tesis consiste en describir una propuesta de aula extendida, desarrollada a través de un entorno virtual de enseñanza y aprendizaje (EVEA) y orientada a disciplinas tecnológicas básicas en ingeniería, en particular la Electrotecnia. La implementación incluye el trabajo colaborativo en línea de los estudiantes organizados en pequeños grupos, empleando como estrategia didáctica el aprendizaje basado en problemas (ABP), que los enfrenta a un método de aprendizaje fundamentado en el principio de utilizar problemas como punto de partida para la adquisición e integración de nuevos conocimientos. Con el fin de evaluar las actividades, se diseñó una matriz de valoración que permitió valorar el proceso de resolución de los problemas y se definieron indicadores que permitieron reconocer y caracterizar las situaciones surgidas del aprendizaje colaborativo virtual, manifestadas a través del discurso escrito en los foros grupales, identificando los mecanismos interpsicológicos del aprendizaje colaborativo. Se presenta el trabajo experimental, mostrándose los resultados obtenidos y la opinión de los estudiantes expresada a través de un cuestionario de satisfacción elaborado al efecto. / The main objective of the research presented in this thesis is to describe a proposal of extended learning, developed through a virtual learning environment (VLE) and oriented to basic engineering technology disciplines, including electrical engineering. Implementation includes online collaborative work of students organized in small groups and the use of problem-based learning (PBL) as teaching strategy, a learning method based on the principle of using problems as a starting point for acquisition and integration of new knowledge. In order to evaluate the activities, two instruments were designed: a rubric that allowed for the assessment of the solving-problem process and indicators to identify that were useful to recognize and characterize emerging virtual-collaborative learning situations, which we expressed in writing in the group forums. The experience is presented here, together with the results obtained and student opinion expressed through a satisfaction questionnaire prepared for this purpose.
338

La representación de recursos usando la metodología del Desarrollo Dirigido por Modelos en un repositorio institucional

Texier, José January 2015 (has links)
En el 2003, nace el Servicio de Difusión de la Creación Intelectual (SEDICI) como el Repositorio Institucional (RI) de la Universidad Nacional de La Plata (UNLP), soportado por un desarrollo de software propio llamado CelsiusDL. A finales del 2011 se realizó un estudio para migrar a otro software más actualizado y seleccionaron DSpace, plataforma de software de RI más usada en el mundo. El proceso de migración de CelsiusDL a DSpace finalizó en el 2012. DSpace permitió contar con nuevas funcionalidades, logró una flexibilidad en los cambios estratégicos por parte de la gerencia del repositorio, permitió modificaciones en la imagen institucional sin afectar la lógica del repositorio y amplió la gestión de las tipologías de los recursos aceptados. DSpace, al igual que otras plataformas, presenta limitaciones en relación con la representación de los recursos –que consiste en el proceso de registrar en forma persistente un conjunto de datos como síntesis y reemplazo del objeto "real" para poder identificarlo, recuperarlo y distribuirlo–, tal situación fue uno de los principales problemas presentados en la transición de CelsiusDL a DSpace. Esta investigación se centró en describir el problema de la representación de recursos dentro del repositorio institucional SEDICI y en exponer una posible solución, todo bajo el enfoque Model-Driven. El objeto de estudio –La Representación de Recursos– es un problema recurrente que ha sido estudiado por algunos autores en otros ámbitos geográficos: Malizia (2010), Paganelli (2005), Gonçalves (2004), Fox (2004), Candela (2007), entre otros. No obstante, los trabajos revisados abordan el tema en forma general, no se toma en cuenta el recurso como el eje central. Se planteó el desarrollo de un marco de referencia que permita el desarrollo de funcionalidades a partir del diseño de un modelo flexible de acuerdo con la representación de recursos, bajo el contexto de SEDICI, pero replicable a otros repositorios. Dicho planteamiento se relaciona con los elementos de un repositorio: recursos, esquemas de metadatos, almacenamiento y catalogación, y con los siguientes procesos funcionales de acuerdo con el material depositado y la norma ISO 14721: carga (ingest), almacenamiento (storage), catalogación (cataloging), indización (indexing), búsqueda (search engine) y navegación (browsing). Para lograrlo, se hizo un relevamiento bibliográfico del tema, se seleccionó el paradigma de construcción de software Model-Driven para la implementación de la solución y se analizaron diferentes modelos conceptuales y modelos de datos para construir un marco de referencia que soporte el modelo propuesto y que esté relacionada con la norma ISO 14721. El enfoque de Desarrollo de Software Dirigido por Modelos (en inglés Model-Driven Development, MDD) es un paradigma de construcción de software que asigna a los modelos un rol central con modelos que van desde los más abstractos a los más concretos. Este paradigma, además, proporciona un ambiente que permite a los interesados compartir sus puntos de vista y manipular las representaciones de las entidades del dominio. Por ello en la propuesta de esta investigación, el marco de referencia se estructuró en 5 módulos o fases a partir del enfoque Model-Driven: DSL para el desarrollo del modelo flexible, transformación del modelo a un modelo relacional, transformación del modelo relacional a un script SQL para la creación de la base de datos, mapping de los recursos de DSpace-SEDICI a la base de datos creada, y, desarrollo de una aplicación en WebRatio para la visualización y exportación de los recursos. Esta investigación dió respuesta al objetivo planteado y vinculó premisas devenidas de tres disciplinas: Ciencias de la Información, Ciencias Documentales y Ciencias de la Computación (LIS). Entretejer tales áreas en una propuesta relacionada con repositorios institucionales representó un aporte en un área de vacancia en la literatura.
339

Software para arquitecturas basadas en procesadores de múltiples núcleos

Frati, Fernando Emmanuel January 2015 (has links)
Todos los procesadores disponibles en el mercado (incluso los procesadores utilizados en dispositivos móviles) poseen una arquitectura típica multicore. En consecuencia, el modelo de programación en memoria compartida se impuso sobre el modelo de programación secuencial como modelo por excelencia para obtener el máximo desempeño de estas arquitecturas. En este modelo de programación las suposiciones de orden de ejecución entre instrucciones y atomicidad en el acceso a las variables heredadas del modelo de programación secuencial ya no son válidas. El no determinismo implícito en la ejecución de los programas concurrentes, obliga al programador a utilizar algún mecanismo de sincronización para asegurar esas propiedades. Frecuentemente el programador se equivoca al sincronizar los procesos, dando lugar a nuevos errores de programación como son los deadlocks, condiciones de carrera, violaciones de orden, violaciones de atomicidad simple y violaciones de atomicidad multivariable. Los métodos tradicionales de depuración de programas no son aplicables en el contexto de los programas concurrentes, por lo que es necesario disponer de herramientas de depuración que puedan ayudar al programador a detectar esta clase de errores. De estos errores, los deadlocks y las condiciones de carrera han gozado de mayor popularidad en la comunidad científica. Sin embargo, solo el 29,5 % de los errores son deadlocks: del 70,5 % restante, las violaciones de atomicidad representan más del 65 % de los errores, el 96 % ocurren entre dos threads y el 66 % involucran una sola variable. Por eso las violaciones de atomicidad simple se han definido en los últimos años como el caso más general de error de concurrencia y han recibido gran atención por numerosos grupos de investigación. En 2005 aparecen las primeras propuestas que utilizan métodos de instrumentación dinámicos para la detección de violaciones de atomicidad, mejorando notablemente la capacidad de detección sobre las propuestas anteriores. De estas propuestas, AVIO(Lu, Tucek, Qin, y Zhou, 2006) se destaca como la propuesta con mejor rendimiento y capacidad de detección. Para detectar una violación de atomicidad, el método de AVIO consiste en monitorizar los accesos a memoria por parte de los procesos concurrentes durante la ejecución, registrando qué procesos acceden a cada variable, en búsqueda de interleavings no serializables. Pese a que AVIO es superior a las propuestas previas, el overhead que introduce (en promedio 25×) es demasiado elevado para ser utilizado en entornos en producción. Muchas propuestas proponen reducir el overhead de los algoritmos de detección implementándolos directamente en el hardware a través de extensiones (cambios en el procesador, memoria cache, etc.), consiguiendo excelentes resultados. Sin embargo, este enfoque requiere que los fabricantes de procesadores decidieran incorporar esas modificaciones en sus diseños (cosa que no ha sucedido por el momento), por lo que es de esperar que tardarán en llegar al mercado y más aún en reemplazar las plataformas que actualmente están en producción. Por otro lado, las implementaciones en software aplican métodos de instrumentación de programas. Debido a que requieren agregar llamadas a una rutina de análisis a cada instrucción que accede a la memoria, los métodos de detección de errores utilizan instrumentación a nivel de instrucción. Lamentablemente, este granularidad de instrumentación es lenta, penalizando el tiempo de la ejecución con más de un orden de magnitud. Sin embargo, la posibilidad de error solamente existe si al menos dos threads acceden simultáneamente a datos compartidos. Esto significa que, si de la totalidad de la aplicación que está siendo monitorizada sólo un pequeño porcentaje de las operaciones acceden a datos compartidos, gran parte del tiempo invertido en instrumentar todos los accesos a memoria está siendo desperdiciado. Para reducir el overhead de la instrumentación a nivel de instrucción restringiéndolo sólo a los accesos a memoria compartida, es necesario detectar el momento preciso en que esos accesos ocurren. La mejor opción para detectar este momento es cuando ocurre algún cambio en la memoria cache compartida entre los núcleos que ejecutan los procesos. Una herramienta muy útil para esta tarea son los contadores hardware, un conjunto de registros especiales disponibles en todos los procesadores actuales. Esos registros pueden ser programados para contar el número de veces que un evento ocurre dentro del procesador durante la ejecución de una aplicación. Los eventos proveen información sobre diferentes aspectos de la ejecución de un programa (por ejemplo el número de instrucciones ejecutadas, el número de fallos en cache L1 o el número de operaciones en punto flotante ejecutadas). Se plantea como estrategia encontrar un evento que detecte la ocurrencia de interleavings no serializables y en función de ello activar/desactivar AVIO. Lamentablemente, no existe un evento capaz de indicar la ocurrencia de casos de interleavings. Sin embargo, si es posible representar los casos a través de patrones de acceso a memoria. La búsqueda de eventos asociados a los cambios de estado en el protocolo de coherencia cache reveló que para la arquitectura de pruebas existe un evento, cuya descripción indica que ocurre con uno de los patrones de acceso presentes en los casos de interleavings. El patrón asociado al evento está presente en tres de los cuatro casos de interleavings no serializables que AVIO debe detectar. La experimentación realizada para validar el evento demostró que efectivamente ocurre con precisión con el patrón de acceso, y en consecuencia puede detectar la ocurrencia interleavings no serializables. Luego de determinar la viabilidad del evento seleccionado, se experimentó con los contadores en un modo de operación llamado muestreo, el cual permite configurar los contadores para generar señales dirigidas a un proceso ante la ocurrencia de eventos. En este modo el programador especifica la cantidad de eventos que deben ocurrir antes de que la señal sea generada, permitiendo ajustar esta prestación de acuerdo a los requerimientos de la aplicación. Este modo de operación fue utilizado para decidir cuándo activar la rutina de análisis de las herramientas de detección y en consecuencia reducir la instrumentación del código. Por otro lado, el desactivado puede ser un poco más complejo. Debido a que no es posible configurar un contador para enviar una señal ante la no ocurrencia de eventos, se propone configurar un timer para verificar a intervalos regulares de tiempo si es seguro desactivar la rutina de análisis (por ejemplo porque en el último intervalo no se detectaron violaciones de atomicidad). El modelo propuesto se utilizó para implementar una nueva versión llamada AVIO-SA, la cual inicia la ejecución de las aplicaciones monitorizadas con la rutina de análisis desactivada. En el momento en que detecta un evento la rutina es activada, funcionando por un tiempo como la versión original de AVIO. Eventualmente AVIO deja de detectar interleavings y la rutina de análisis es desactivada. Debido a que no es posible estimar el valor óptimo para el tiempo del intervalo de muestreo analíticamente, se desarrollaron experimentos para encontrar este valor empíricamente. Se encontró que un intervalo de 5ms permite a AVIO-SA detectar aproximadamente la misma cantidad de interleavings que AVIO, pero con un tiempo de ejecución significativamente menor. Para completar las pruebas de rendimiento se completaron los experimentos con HELGRIND, una herramienta libre de detección de condiciones de carrera y se estimó el overhead de cada herramienta con respecto a cada aplicación. En promedio, HELGRIND demostró un overhead de 223×, AVIO un overhead de 32× y AVIO-SA de 9×. Aparte del rendimiento, se evaluó la capacidad de detección de errores de AVIO-SA. Para ello se hicieron 3 experimentos: - Prueba de detección con kernels de bugs conocidos. - Prueba de detección en aplicaciones reales (Apache). - Comparación de bugs informados entre AVIO y AVIO-SA (a partir de SPLASH-2). Afortunadamente AVIO-SA pasó las 3 pruebas satisfactoriamente. Los resultados obtenidos demuestran que el modelo propuesto no afecta negativamente la capacidad de detección de la herramienta, empleando en el proceso menos del 30 % del tiempo requerido por AVIO. Debido a que AVIO-SA altera menos la historia de ejecución de la aplicación monitorizada, es una mejor opción para ser utilizada en entornos de producción.
340

Implementación de procesos de negocio a través de servicios aplicando metamodelos, software distribuido y aspectos sociales

Bazán, Patricia January 2015 (has links)
El enfoque orientado a procesos de negocio es un aspecto ampliamente relevante para las organizaciones, que en los últimos años ha recibido importante atención de la comunidad científica internacional. Asimismo, los avances en cuanto a la provisión de herramientas de soporte para automatizar la gestión los procesos de negocio también ha adquirido gran relevancia. Sin embargo, la brecha existente entre el área de negocio y el área de tecnología, representadas por analistas de negocios y expertos en informática, respectivamente, sigue constituyendo un escollo a la hora de aplicar una metodología de gestión por procesos de negocio dentro de las organizaciones. Por otra parte, los pocos avances tecnológicos respecto a la incorporación de nuevos modelos computacionales distribuidos y de aspectos sociales en la ejecución de los proceso de negocio y de las herramientas que la soportan, contribuyen a aumentar dicha brecha. Por estos motivos, resultan relevantes las investigaciones en metodologías, marcos de trabajo y herramientas que incluyan estos nuevos paradigmas en la administración de procesos de negocio. En esta tesis se plantea mejorar y actualizar la Metodología Integradora de Servicios y Procesos (MISP), propuesta por la autora en su tesis de Maestría en Redes de Datos, proveyendo una nueva visión de los procesos y los servicios a la luz los avances tecnológicos y buscando reducir la brecha entre el negocio y la tecnología. Específicamente, el trabajo se enfoca en dos principales problemas: 1) la mejora al modelado de procesos y servicios mediante la definición e integración de metamodelos, aplicados a las fases de diseño de procesos dentro del ciclo de vida de los procesos de negocio, y 2) en revisar aspectos tecnológicos modernos – como por ejemplo, la distribución de las actividades de los procesos y la inclusión de aspectos sociales relacionados con la ejecución de los mismos, que su aplicación resulta de interés en las etapas de despliegue, ejecución y monitoreo de los procesos de negocio. . Atendiendo los problemas descriptos, esta tesis tiene dos contribuciones importantes. Por un lado, la mejora a la interacción entre procesos y servicios mediante la provisión de un lenguaje para describir servicios que integra las actividades del proceso con las componentes de software que lo implementan. Por otro lado, la propuesta de prototipos de herramientas que permiten incorporar aspectos de distribución que enriquecen los rastros de ejecución de los procesos, y características sociales a la gestión de procesos. Esta ultima contribución permite optimizar la fase de monitoreo del ciclo de vida de los procesos y acelerar la mejora continua de los mismos.

Page generated in 0.0627 seconds