Spelling suggestions: "subject:"ciencias informáticas"" "subject:"ciencias informática""
101 |
Ethernet industrialPrado, José Carlos January 2010 (has links)
Ethernet Industrial es similar a la Ethernet convencional, pero está rediseñada para ser utilizada en plantas tanto de procesos continuos como de manufactura. La misma utiliza componentes y medios Ethernet estándar para reemplazar a los protocolos especializados tradicionalmente de las redes industriales y para satisfacer los requerimientos, incorpora características de robustez, redundancia y durabilidad, que permiten a los diferentes dispositivos seguir conectados a pesar de las diversas condiciones agresivas que se trabajan en planta.
|
102 |
Elaboración de un paquete educativo virtual de laboratorio de químicaCadile, María Silvia January 2008 (has links)
Sumario:
1. Introducción
2. Objetivos
3. Estructura formal de la obra
4. Prueba de aplicación del laboratorio virtual con estudiantes universitarios
5. Conclusiones
6. Referencias bibliográficas
7. Anexos
|
103 |
Contribuciones al establecimiento de una red global de sensores inalámbricos interconectadosSosa, Eduardo Omar January 2011 (has links) (PDF)
Se ha considerado a este trabajo como un aporte al establecimiento de una red global de sensores donde los humanos (agentes inteligentes), y computadoras potentes interactúan con redes piloto de sensores inalámbricos, distinguiendo en la red global 3 subdominios:
• Una red superior existente, donde los distintos nodos ejecutan las aplicaciones en potentes computadoras que pueden interconectarse vía Internet u otras redes globales.
• Los dispositivos sensores que forman una red piloto y se comunican entre sí por medio inalámbrico.
• Un portal de servidores, formado por nodos que controlan las redes piloto, y permiten la interacción entre los nodos de la red superior y los dispositivos de la WSN.
Los temas a desarrollar en esta tesis son:
•Modelado y simulación: La simulación es utilizada para evaluar sistemas desarrollados y a implementar en redes reales. La utilidad de los datos obtenidos depende puramente del realismo y la precisión de los modelos a implementar.
Fundamentalmente se avanzan con simulaciones que simplifican la instalación de las WSNs.
•Entorno de desarrollo de aplicaciones: Necesario para la corrida de las simulaciones como también desarrollo de las aplicaciones a ser instaladas en los nodos físicos existentes.
•Alternativa de soporte de las WSN: la preexistencia de situaciones donde la prestación de servicios de transmisión de datos es sumamente ineficiente y provisto por una empresa de manera monopólica. Ciertas veces el servicio es inexistente en la locación del proyecto. Por ello se avanzó en la búsqueda de
un soporte a la red de WSN no basada en la Red Digital Soporte de la prestadora en la región de desarrollo del trabajo.
|
104 |
Perfiles de testing aplicados a modelos de softwarePalacios, Luis Fernando January 2010 (has links)
Actualmente, la complejidad de los sistemas de software se ha incrementado. El software sufre cambios y evoluciona durante todo el ciclo de vida del desarrollo, por lo tanto es fundamental contar con un proceso de pruebas que detecte errores y fallas en la implementación en todas las etapas garantizando además la calidad del producto final. Las técnicas de validación y verificación también se pueden aplicar a los modelos de pruebas de software permitiendo automatizar la creación y ejecución de los casos de pruebas, aumentando la productividad y reduciendo los costos.
El Desarrollo de software Dirigido por Modelos (en inglés Model Driven software Development, MDD) propone un nuevo mecanismo de construcción de software a través de un proceso guiado por modelos que van desde los más abstractos (en inglés Platform Independent Model, PIM) a los más concretos (en inglés Platform Specific Model, PSM) realizando transformaciones y/o refinamientos sucesivos que permitan llegar al código aplicando una última transformación. Dentro del contexto de MDD, las Pruebas de software Dirigidas por Modelos (en inglés Model-Driven Testing, MDT) son una forma de prueba de caja negra [Bei 95] que utiliza modelos estructurales y de comportamiento para automatizar el proceso de generación de casos de prueba.
Para ello, MDT utiliza un lenguaje definido con mecanismos de perfiles basado en el Perfil de Pruebas UML [U2TP 04] (en inglés UML 2.0 Testing Profile, U2TP). Este lenguaje permite diseñar los artefactos de los sistemas de pruebas e identificar los conceptos esenciales del dominio en cuestión adaptados a plataformas tecnológicas y a dominios específicos. La especificación del Perfil de Pruebas UML proporciona además un marco formal para la definición de un modelo de prueba bajo la propuesta de caja negra que incluye las reglas que se deben aplicar para transformar dicho modelo a código ejecutable.
Actualmente existen herramientas basadas en técnicas de validación y verificación formal de programas y de chequeo de modelos que se enfocan principalmente en cómo expresar las transformaciones. Sin embargo, la validación y verificación en forma automática a través de una alternativa práctica como es el testing dirigido por modelos lo hacen en menor medida. El testing consiste en el proceso de ejercitar un producto para verificar que satisface los requerimientos e identificar diferencias entre el comportamiento real y el comportamiento esperado (IEEE Standard for Software Test Documentation, 1983), lo cual es más simple y no requiere tener experiencia en métodos formales comparadas con las técnicas mencionadas anteriormente.
Tanto UML y sus extensiones, como el Perfil de Pruebas UML, están definidos a través de una especificación de tecnología estandarizada por OMG (en inglés Object Management Group) denominada MOF [MOF] (en inglés Meta-Object Facility).
MOF es un meta-metamodelo utilizado para crear metamodelos que pueden ser transformados a texto a través de herramientas que soporten la definición MOF. MOFScript [Oldevik 06] es un lenguaje textual basado en QVT [QVT] (en inglés "Queries, Views and Transformations") que puede ser utilizado para realizar transformaciones de metamodelos MOF a texto.
El objetivo de esta tesis es desarrollar una herramienta que permita realizar las transformaciones en forma automática de los modelos de pruebas estructurales y de comportamiento a código JUnit [JUnit]. Para lograr dicho objetivo, definimos el lenguaje para modelar dominios de pruebas utilizando el Perfil de Pruebas UML y las reglas formales de transformación de modelos U2TP a código de testing JUnit basadas en el lenguaje MOFScript.
Esta tesis está organizada de la siguiente manera. En el capítulo 2 se introducen los conceptos del desarrollo de software dirigido por modelos. En el capítulo 3 se describen las pruebas de software dirigidas por modelos. En el capítulo 4 se definen las reglas de transformación de modelos de prueba a código JUnit. En el capítulo 5 se describe la implementación de la herramienta que permite transformar en forma automática modelos definidos con el Perfil de Pruebas UML a código JUnit, además de describir la arquitectura utilizada en el proyecto. El capitulo 6 muestra un caso de estudio del trabajo realizado desde la perspectiva del usuario final. En el capítulo 7 se detallan los trabajos relacionados. En el capítulo 8 se exponen las conclusiones finales y se citan futuros trabajos.
|
105 |
El material digital y el uso de un sistema algebraico computacional en un curso de Cálculo IntegralVacchino, Maria Cristina January 2008 (has links)
Este trabajo tiene como objetivo relatar el papel que juega el uso de un Sistema de Álgebra Computacional (CAS) en el marco de la experiencia de innovación en un curso de integración en una y varias variables, Matemática B, destinado a alumnos del segundo semestre de primer año de las carreras de Ingeniería. El material de trabajo conformado por una parte impresa y otra digital constituye uno de los ejes centrales de la innovación. El material digital presentado en CD acompaña al impreso y está constituido por talleres que suponen la utilización del "sistema de álgebra computacional", Maple. Se describen las causas que motivaron la modificación de las materias de Matemática tanto en contenidos como en metodología de la enseñanza y que fueron incorporadas en la reforma de los planes de estudio de las carreras de Ingeniería. Se dan los fundamentos para la construcción del material de trabajo, detallándose con más detalle el material digital. Se presentan algunas conclusiones y la comparación del rendimiento académico de los alumnos de Matemática B del año 2006 (plan nuevo) con los de Análisis Matemático III del 2003 (plan anterior). Se dejan planteadas algunas alternativas para continuar con el análisis de la experiencia.
|
106 |
Metodologías de diseño usadas en ingeniería web, su vinculación con las NTICsValle Rodriguez, Ana Nieves del January 2009 (has links) (PDF)
Este trabajo está organizado en cuatro capítulos que se resumen a continuación:
Capítulo 1: Muestra cómo la web se ha ido incorporando en todas las actividades cotidianas. Contempla definiciones como tecnología, ciencia e ingeniería, particularmente la ingeniería de software que da pie al nacimiento de esta nueva disciplina: la Ingeniería Web. Ofrece un panorama general de su inserción, de la obtención de su propio espacio y la necesidad del uso de métodos y técnicas en el desarrollo de WebApp.
Capítulo 2: Revisa el estado del arte de los Métodos usados en Ingeniería Web. Aplica algunos métodos a un ejemplo simple y por último se construye una tabla comparativa de los métodos vistos en este capítulo.
Capítulo 3: Hace un análisis de las áreas involucradas en el diseño de aplicaciones Web teniendo en cuenta las consideraciones de diferentes autores.
Capítulo 4: Trata temas relacionados con el Diseño Instruccional, el aprendizaje significativo y cómo las aplicaciones hipermedia se van insertando, casi en silencio, en el mundo educativo. Se presenta el contexto relacionado a la interacción entre la Ingeniería Web y los aspectos del Diseño Instruccional. Se analizan los beneficios que aporta, se presenta y analiza el método EISE.
Capítulo 5: Conclusiones, presentación de una aplicación.
|
107 |
Performance y escalabilidad del kernel Linux aplicado a redes de alta velocidadZabaljáuregui, Matías January 2007 (has links) (PDF)
En la evolución de los sistemas operativos, desde el antiguo diseño de kernel monolítico (pasando por microkernels, exokernels o kernels verticales, y otras variantes) se ha llegado a lo que se denominó como kernel activo. Este nuevo diseño, presentado por Steve J. Muir en el año 2001, plantea un kernel especializado en procesamiento de red, motivado principalmente por la poca eficiencia con que los sistemas operativos de propósito general realizan este tipo de tareas en máquinas SMP. Su trabajo propone dedicar, de manera exclusiva, uno o más procesadores a tareas específicas del kernel, permitiendo que las aplicaciones de usuario se ejecuten, con la menor cantidad de intrusión por parte del sistema operativo, en el resto de los procesadores. De esta forma, el kernel deja de ser un proveedor pasivo de servicios para convertirse en un proceso activo del sistema, y la separación física de procesos de usuario con respecto a threads del kernel evita incurrir en el overhead necesario para implementar el modelo usuario/kernel.
Esta tesis pretende continuar en esta línea de investigación, estudiando la forma de adaptar el kernel Linux a los altos requerimientos de procesamiento de red a los que estarán expuestos los servidores, dispositivos de red y estaciones de trabajo en un futuro cercano. Para lograr este objetivo, se estudia en profundidad el codiseño hardware/software del subsistema de red en un servidor con placas de red gigabit Ethernet, arquitectura SMP y el kernel Linux 2.6. También se hacen pruebas de performance y profiling del modelo actual de procesamiento de paquetes para compararlo con el prototipo propuesto más adelante.
Complementando este trabajo, se analizan los problemas mencionados anteriormente y algunas soluciones propuestas por diversos grupos académicos y del ámbito industrial. En éste último entorno, el caso que destaca del resto es la nueva tecnología que está siendo desarrollada por Intel, denominada I/O Acceleration Technology, que utiliza varios de los conceptos mencionados en los trabajos citados anteriormente.
Finalmente, se propone una modificación al subsistema de red del kernel Linux 2.6 sobre máquinas SMP, basándose en las ideas más recientes relacionadas con la evolución de los kernels. De esta forma, se logra evaluar el efecto de hacer un uso asimétrico de los procesadores en una máquina SMP, asignando un procesador, o un subconjunto de ellos, de manera exclusiva al procesamiento de red.
|
108 |
Visión de proceso de estrategias integradas de medición y evaluación de calidadBecker, Pablo 26 November 2014 (has links)
En la actualidad, las áreas de Medición, Evaluación y Análisis son pilares de la Ingeniería de Software ya que brindan información para, principalmente, tomar decisiones sobre cuestiones relacionadas a la calidad de productos, procesos, etc. En estas áreas, como en otras, es deseable garantizar repetibilidad para lograr consistencia en los resultados. Para ello, las organizaciones deben contar con estrategias de Medición y Evaluación (M&E) que integren tres capacidades: i) una especificación de las vistas del proceso de M&E en la cual se documenten, entre otros aspectos, las principales actividades que deben ser planificadas y ejecutadas, ii) un marco conceptual de M&E que permita disponer de un vocabulario común, y iii) métodos y herramientas específicos para llevar a cabo las actividades. En este sentido, hemos desarrollado una estrategia llamada GOCAME (Goal-Oriented Context-Aware Measurement and Evaluation), que integra estas tres capacidades.
La presente tesis doctoral se centra en la primera capacidad mencionada, es decir: la especificación de las vistas del proceso de M&E para la estrategia GOCAME. Contar con la especificación del proceso desde diferentes perspectivas permite tener una guía clara y repetible de las actividades que deben llevarse a cabo, como así también detectar puntos de control, identificar los productos de trabajo insumidos y producidos, y escoger adecuadamente los agentes que ocuparán los roles involucrados en la realización de las actividades, entre otros aspectos. Para especificar las diferentes vistas del proceso se utilizarán lenguajes estándares apropiados, permitiendo que exista un entendimiento compartido dentro y fuera de la organización que lo aplique, de modo que cualquier usuario interesado pueda comprender el proceso, hacer uso del mismo y/o plantear mejoras a éste.
Si bien existe literatura, e incluso estándares, que describen el proceso de M&E, lo hacen como si fueran dos procesos disjuntos, de hecho muchos ni hablan de Evaluación. Sin embargo, estos procesos están muy relacionados. Además, en la literatura revisada se observa que los procesos de M&E no se especifican desde sus diferentes vistas. Incluso se ha detectado que no existe un consenso respecto de la terminología de proceso utilizada, motivo por el cual aquí se propone una ontología de proceso (genérica). Esta ontología también se utiliza para enriquecer el marco conceptual de M&E (segunda capacidad mencionada).
La hipótesis principal de este trabajo es que sin una clara definición de las vistas del proceso, los programas y proyectos de M&E, suelen ser menos repetibles, reproducibles y controlables. Además, poseer un (modelo de) proceso basado en un marco conceptual de M&E no sólo permite contar con programas y proyectos con dichas características, sino que también favorece la robustez y confiabilidad de la información obtenida (datos y metadatos), la cual es utilizada en procesos de toma de decisión. También, un modelo de procesos facilita la definición de métodos y herramientas que permitan llevar a cabo las actividades, ya sea de forma total o parcialmente automatizada.
Por otra parte, cabe mencionar que GOCAME es una estrategia de M&E de propósito múltiple, la cual puede ser personalizada para desarrollar estrategias para propósitos específicos. Particularmente, a partir de GOCAME se ha derivado la estrategia SIQinU (Strategy to Improve Quality in Use), la cual se enfoca en mejorar sistemáticamente la Calidad en Uso de las aplicaciones evaluadas. Esta estrategia también cuenta con las tres capacidades de GOCAME, y en este trabajo se abordará la especificación de las vistas del proceso que subyace en SIQinU.
|
109 |
Una metodología de detección de fallos transitorios en aplicaciones paralelas sobre cluster de multicoresMontezanti, Diego Miguel January 2014 (has links)
El aumento en la escala de integración, con el objetivo de mejorar las prestaciones en los procesadores actuales, sumado al crecimiento de los sistemas de cómputo, han producido que la fiabilidad se haya vuelto un aspecto relevante. En particular, la creciente vulnerabilidad a los fallos transitorios se ha vuelto crítica, a causa de la capacidad de estos fallos de corromper los resultados de las aplicaciones.
Históricamente, los fallos transitorios han sido una preocupación en el diseño de sistemas críticos, como sistemas de vuelo o servidores de alta disponibilidad, en los que las consecuencias del fallo pueden resultar desastrosas. Pese a ser fallos temporarios, tienen la capacidad de alterar el comportamiento del sistema de cómputo. A partir del año 2000 se han vuelto más frecuentes los reportes de desperfectos significativos en distintas supercomputadoras, debidos a los fallos transitorios.
El impacto de los fallos transitorios se vuelve más relevante en el contexto del Cómputo de Altas Prestaciones (HPC). Aun cuando el tiempo medio entre fallos (MTBF) es del orden de 2 años para un procesador comercial, en el caso de una supercomputadora con cientos o miles de procesadores que cooperan para resolver una tarea, el MTBF disminuye cuanto mayor es la cantidad de procesadores. Esta situación se agrava con el advenimiento de los procesadores multicore y las arquitecturas de cluster de multicores, que incorporan un alto grado de paralelismo a nivel de hardware. La incidencia de los fallos transitorios es aún mayor en el caso de aplicaciones de gran duración, que manejan elevados volúmenes de datos, dado el alto costo (en términos de tiempo y utilización de recursos) que implica volver a lanzar la ejecución desde el comienzo, en caso de obtener resulta-dos incorrectos debido a la ocurrencia del fallo.
Estos factores justifican la necesidad de desarrollar estrategias específicas para mejorar la con-fiabilidad en sistemas de HPC; en este sentido, es crucial poder detectar los fallos llamados silenciosos, que alteran los resultados de las aplicaciones pero que no son interceptados por el sistema operativo ni ninguna otra capa de software del sistema, por lo que no causan la finalización abrupta de la ejecución.
En este contexto, el trabajo analizará una metodología distribuida basada en software, diseñada para aplicaciones paralelas científicas que utilizan paso de mensajes, capaz de detectar fallos transitorios mediante la validación de contenidos de los mensajes que se van a enviar a otro proceso de la aplicación. Esta metodología, previamente publicada, intenta abordar un problema no cubierto por las propuestas existentes, detectando los fallos transitorios que permiten la continuidad de la ejecución pero que son capaces de corromper los resultados finales, mejorando la confiabilidad del sistema y disminuyendo el tiempo luego del cual se puede relanzar la aplicación, lo cual es especialmente útil en ejecuciones prolongadas.
|
110 |
El uso de estrategias colaborativas mediadas por tecnologíaLovos, Edith 16 July 2014 (has links)
Esta investigación presenta, el diseño, la implementación y los resultados alcanzados al aplicar una estrategia de enseñanza y aprendizaje basada en el trabajo colaborativo y su aplicación mediada por recursos TIC en el desarrollo de las actividades de laboratorio de un curso introductorio de programación de nivel superior. De esta forma, se introduce en el aula, una estrategia de trabajo colaborativo, que es supervisada y evaluada en cada una de sus instancias y cuyos resultados se presentan como conclusiones de la investigación.
La tesis esta organizada de la siguiente forma: el capítulo I donde se presenta el problema de investigación, el Capítulo II, donde se presenta una revisión teórica respecto a las estrategias y herramientas utilizadas en la enseñanza y aprendizaje de la programación. A continuación en el Capítulo III, se reflexiona sobre las implicancias del uso de estrategias de trabajo colaborativo mediadas por TIC en la enseñanza y aprendizaje de la programación, en el ámbito educativo de nivel universitario. En el capítulo IV se plantea el marco metodológico que se utilizo para llevar adelante la investigación. A continuación en el capítulo V, se presenta el diseño de la propuesta de enseñanza y aprendizaje para un curso de Programación del primer año de la Lic. en Sistemas de la UNRN, Sede Atlántica, basada en actividades prácticas entregables (APE) cuya resolución se propone que se realice combinando el trabajo colaborativo y las herramientas TIC compatibles con el entorno virtual de enseñanza y aprendizaje, que utiliza en la Lic. en Sistemas, como soporte a las clases presenciales.
En el capítulo VI se presentan los resultados de la implementación de la propuesta. En el capítulo VII, se exponen las conclusiones y las nuevas inquietudes que surgen del mismo. Finalmente se incluye la bibliografía consultada y los anexos del trabajo.
|
Page generated in 0.0805 seconds