Spelling suggestions: "subject:"ciencia dde lla computacional"" "subject:"ciencia dde lla computacionais""
131 |
El lenguaje de aspectos amistoso CasperCampusano Araya, Miguel Enrique January 2013 (has links)
Ingeniero Civil en Computación / Mientras los programas se vuelven más complejos, nacen nuevos problemas. Uno de ellos es la poca modularidad que se tiene con las llamadas funcionalidades transversales. Estas funcionalidades están dispersas por toda la aplicación y no pueden separarse mediante el paradigma de la programación orientada a objetos. Para solucionar este problema nace el paradigma de la programación orientada a aspectos.
En la programación orientada a aspectos se modularizan las funcionalidades trans- versales en una entidad llamada aspecto. El aspecto se ejecuta donde corresponde gracias a que, conceptualmente, el programa se está monitoreando por el aspecto en toda su ejecución, decidiendo cuando se debe ejecutar una acción provista por el aspecto. La- mentablemente, el monitoreo de la aplicación conlleva a un sobrecosto que, muchas veces, los desarrolladores no están dispuestos a pagar.
En este trabajo se presenta Casper, un lenguaje orientado a aspectos construido sobre Pharo Smalltalk. Las características más importantes buscadas por Casper son la simplicidad de uso, la explicitud de lo que sucede con los aspectos y bajar el sobrecosto de la ejecución de los programas que utilicen Casper.
Casper basa sus funcionalidades en PHANtom. PHANtom es un lenguaje de aspectos construidos sobre Pharo Smalltalk. Ambos lenguajes tienen sintaxis similares, pero las implementaciones son muy diferentes. Casper busca mejorar los sobrecostos generados al usar PHANtom. Para ello Casper propone compilar las funcionalidades dadas por los aspectos junto con los métodos originales. Gracias a la compilación, Casper expone las funcionalidades al desarrollador, en cambio, PHANtom esconde las funcionalidades y nunca muestra de forma explícita donde se ejecuta una funcionalidad transversal.
Se comprobó el uso de Casper refactorizando SPY. SPY es un framework para el aná- lisis dinámico de programas. SPY instrumentaliza los métodos que se quieren analizar. Casper provee la instrumentalización de SPY con aspectos. Se realizaron pruebas sobre SPY versus SPY con Casper versus SPY con PHANtom. Se tomaron los tiempos sobre la preparación de la aplicación misma y lo que demora en ejecutar. Estos resultados comprueban un sobrecosto del uso de aspectos en la aplicación. Sin embargo, también demuestra que la ejecución de la refactorización de SPY con Casper es mucho menos costosa que la refactorización de SPY usando PHANtom.
|
132 |
Paralelización de algoritmo numérico para resolución de problemas en mecánica de sólidosTorres Verdugo, Rubén Darío January 2016 (has links)
Ingeniero Civil Mecánico / Dentro de los métodos de simulación numérica para resolución de ecuaciones diferenciales parciales (EDP's), los métodos sin malla han sido desarrollados desde hace aproximadamente veinte años. A diferencia del método de elementos finitos, los métodos sin malla no necesitan una malla definida para la construcción de sus funciones de base, las que se crean únicamente por la distribución de los nodos en el dominio. Esta característica hace a este método más atractivo en problemas donde exista distorsión de la malla, sin embargo, requieren un tiempo extra en su cálculo y un esfuerzo mayor en su programación.
El presente trabajo tiene por objetivo realizar un algoritmo numérico eficiente mediante programación en paralelo, para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano con funciones de base de máxima entropía. La motivación de este trabajo es suplir uno de los principales defectos de los métodos sin malla, ser computacionalmente costosos.
Son abordados los antecedentes del método sin malla, elasticidad lineal y la programación en paralelo. Se utiliza el método sin malla Galerkiano basado en la forma débil, con funciones de base de máxima entropía.
Se trabaja con el software computacional MATLAB y la librería Parallel Computing Toolbox en la implementación de la programación en paralelo para tres problemas específicos y se analiza el error numérico, convergencia, tiempo de cómputo, e indicadores de desempeño para la programación en paralelo, como lo son Speedup y Eficiencia paralela.
Se obtienen errores numéricos aceptables, entregados por las normas relativas L^2 y H^1, obteniendo convergencia en los tres problemas. Los tiempos de cómputo se reducen al implementar la programación paralela en todos los casos. La convergencia del problema es independiente del número de procesadores utilizados. Se obtienen los mejores resultados de Speedup y Eficiencia paralela para problemas por sobre los 5000 grados de libertad. Se recomienda trabajar problemas por sobre esta cifra en la implementación de la programación en paralelo para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano.
Se cumple objetivo principal, logrando realizar algoritmo numérico mediante programación en paralelo, para la resolución de problemas en la mecánica de sólidos mediante el método sin malla Galerkiano con funciones de base de máxima entropía.
|
133 |
Diseño de un nuevo sistema de vigilancia de dominios de InternetZumaeta Morales, Rodrigo Andrés January 2007 (has links)
Memoria para optar al título de Ingeniero Civil Electricista / El objetivo general de esta memoria es presentar una solución para detectar intentos de plagio de dominios de internet, mejorando los resultados entregados por un sistema pre existente.
El trabajo fue realizado para una empresa que se encarga de registrar y proteger dominios de internet para firmas comerciales, con el problema de que el sistema utilizado en la protección entregaba cantidades excesivas de falsas alarmas.
Este sistema resulta poco práctico en términos económicos, debido al costo que representa el descarte manual de este gran número de falsas alarmas.
Se presentó una solución basada en el modelamiento del problema y aplicación de algoritmos clasificadores en trenables.
El trabajo incluyó fases de modelamiento o traducción del problema, diseño, implementación, construcción de set de datos para entrenar y validar los algoritmos, y pruebas con datos reales para comparar los resultados de la solución propuesta con el sistema que se pretendía superar.
El resultado es una solución que reduce la cantidad de alarmas reportadas diariamente a cerca de un tercio (y las falsas alarmas al 15%) de las obtenidas con el sistema antiguo y que no incrementa la cantidad de
alarmas real es no reportadas.
Se concluye que el objetivo perseguido se cumplió de modo exitoso, superando ampliamente los resultados del sistema antiguo y entregando a la empresa una alternativa más eficaz y rentable.
|
134 |
RDF binario para una publicación, intercambio y consumo escalable en la web de datosFernández García, Javier David January 2014 (has links)
Doctor en Ciencias, Mención Computación / El actual diluvio de datos está inundando la Web con grandes volúmenes de datos representados en RDF, dando lugar a la denominada Web de Datos. En la actualidad, se publican datos abiertos e interrelacionados sobre bioinformática, geografía o sobre redes sociales, entre otros, que forman parte de proyectos tan activos como Linked Open Data. Varias áreas de investigación han emergido de este diluvio; indexación y consulta de RDF (típicamente mediante el lenguaje SPARQL), razonamiento, esquemas de publicación, alineamiento de ontologías, visualización de RDF, etc. Los tópicos de la Web Semántica relacionados con RDF son, de hecho, trending topics en casi cualquier conferencia informática.
Sin embargo, podemos discernir tres importantes hechos del actual estado del arte: i) se han realizado aplicaciones e investigaciones apoyándose en datos RDF, pero aún no se ha realizado un trabajo que permita entender la esencia de este modelo de datos, ii) las representaciones clásicas de RDF continúan influenciadas por la visión tradicional de la Web basada en documentos, lo que resulta en sintaxis verbosas, redundantes y, aún, centradas en humanos. Ello conlleva iii) publicaciones pobres y difusas, procesamientos complejos e ineficientes y una falta de escalabilidad para poder desarrollar la Web de Datos en toda su extensión.
En esta tesis proponemos, en primer lugar, un estudio profundo de aquellos retos que nos permitan abordar un conocimiento global de la estructura real de los conjuntos de datos RDF. Dicho estudio puede avanzar en la consecución de mejores diseños de conjuntos de datos y mejores y más eficientes estructuras de datos, índices y compresores de RDF.
Posteriormente, presentamos nuestra representación binaria de RDF, HDT, que afronta la representación eficiente de grandes volúmenes de datos RDF a través de estructuras optimizadas para su almacenamiento y transmisión en red. HDT representa eficazmente un conjunto de datos RDF a través de su división en tres componentes: La cabecera (Header), el diccionario (Dictionary) y la estructura de sentencias RDF (Triples). A continuación, nos centramos en proveer estructuras eficientes tanto para el diccionario como para dicha estructura de sentencias, ya que forman parte de HDT pero también de la mayoría de aplicaciones sobre grandes volúmenes de datos RDF. Para ello, estudiamos y proponemos nuevas técnicas que permiten disponer de diccionarios e índices de sentencias RDF comprimidos, a la par que altamente funcionales. Por último, planteamos una configuración compacta para explorar y consultar conjuntos de datos codificados en HDT. Esta estructura mantiene la naturaleza compacta de la representación permitiendo el acceso directo a cualquier dato.
|
135 |
Optimización en la asignación de estacionamientos de los camiones de extracción para el cambio de turno mediante la utilización de redes neuronales y árboles de decisiónUrrutia Goldsack, Diego Ignacio January 2017 (has links)
Ingeniero Civil de Minas / El desafío de disminuir los costos de las operaciones mineras es un tema de interés dentro de la industria, el cual cobra especial relevancia estos últimos años debido a la constante baja del precio del cobre, junto con la disminución continua de las leyes de los yacimientos cupríferos y la escaza probabilidad de encontrar nuevos yacimientos de dimensiones significativas. En consecuencia, actualmente el trabajo no solo se debe centrar en la disminución de los costos, sino también en optimizar diversos procesos con el fin de lograr una mejor productividad y eficiencia.
El siguiente trabajo se centró en disminuir los tiempos perdidos asociados a las demoras en los cambios de turnos existentes en la minería a cielo abierto, mediante la creación de nuevas herramientas de gestión que apuntan hacia una producción continua. Lo anterior se llevó a cabo a través del uso de redes neuronales y un árbol de optimización, el cual basa su criterio en el rendimiento personal de cada operador. De esta forma, se obtuvieron y cuantificaron los resultados a través de simulaciones computacionales en donde se comparó la productividad actual de una faena minera versus la productividad utilizando el modelo planteado en este trabajo.
Los resultados obtenidos aplicando el modelo de optimización arrojaron que se logró disminuir en un 9.8% las demoras asociadas a los cambios de turno, lo que es equivalente a 398 minutos y a 24 descargas extras por turno, tomando en cuenta que el caso de estudio se realizó para una flota de 130 camiones de extracción. Lo anterior, en términos económicos se traduce en 5.7 MUSD anuales, considerando que solamente se ahorraran los costos asociados al transporte de mineral, suponiendo un costo de transporte igual a 1 dólar por tonelada y una carga efectiva de 330 toneladas por camión.
Al finalizar el trabajo, se observa que la posibilidad de mejorar el proceso de asignación de estacionamientos es completamente factible, al igual que mejorar el modelo planteado incluyendo otras condiciones de borde que puedan ayudar a realizar una simulación más realista, pero que deben ser personalizadas acorde a la manera de operar de cada faena. Por otro lado, se detectó que para las mismas condiciones de trabajo, existen operadores que tienen rendimientos completamente distintos, por lo que se recomienda realizar un análisis de velocidades por trabajador, en donde se comparen sus rendimientos individuales con los rendimientos que debiesen alcanzar las máquinas según su catálogo.
Por último, se concluye que el uso de redes neuronales como herramienta de gestión genera un valor agregado en la toma de decisiones que estén relacionadas a la formación de grupos de trabajo, además de identificar características que ayuden a entender y manejar el comportamiento de ciertas variables tales como la productividad o utilización dentro de una operación minera.
|
136 |
Medidas de centralidad en redes urbanas con datosAgryzkov, Taras 27 June 2018 (has links)
El 54% de la población mundial vive ya en torno a núcleos de población que llamamos ciudades, por lo que su estudio nos enseña la forma en que piensa y se desarrolla el propio ser humano. Un análisis de las relaciones espaciales que se producen en entornos urbanos reales requieren un procesamiento de dichas relaciones en paralelo. Con el fin de representar y analizar estas relaciones espaciales complejas, los especialistas en urbanismo han empezado a utilizar modelos basados en redes complejas. Las redes emergen como un nuevo modelo más acorde con el problema de la complejidad organizada que es una ciudad. Otro aspecto esencial unido a las ciudades es que se han convertido en unas entidades productoras y creadoras de datos, tanto físicos como virtuales. Un estudio serio de la ciudad significa, por tanto, un estudio de los datos que en ella se generan o se encuentran. Dentro de la moderna teoría de redes, un concepto fundamental y muy estudiado en la bibliografía en las últimas décadas es el de la centralidad de la red. La centralidad consiste en determinar cuantitativamente la importancia de cada nodo dentro de la red, dependiendo del criterio que se adopte en cuanto a lo que consideramos por “importante”. Existen unas medidas clásicas de centralidad en redes complejas, como son la centralidad de grado, de cercanía, de intermediación y basadas en el vector propio. Todas estas medidas solo tienen en cuenta la topología de la red para determinar un valor y una clasificación de los nodos en orden de importancia. Cuando aplicamos estas centralidades a las redes urbanas nos encontramos con el problema de la densidad de grado uniforme que tienen estas redes, lo que hace que no sean adecuadas para la realidad que representan las ciudades. En esta memoria, se han implementado un conjunto de medidas de centralidad para redes urbanas, con la principal característica que tienen en cuenta no solo la topología de la red sino la influencia de la cuantía de los datos presentes en la misma. De esta forma, cuando estudiamos la centralidad de una red urbana, tenemos en cuenta de forma determinante qué datos analizamos y su influencia en la red. Más concretamente, se han implementado tres medidas de centralidad basadas en el concepto de PageRank, introducido por Page y Brin en el conocido buscador Google, que clasifican los nodos de una red urbana en orden de importancia, tanto atendiendo a su conectividad como a los datos asociados a cada nodo. Se ha implementado una medida de centralidad basada en la clásica medida current-flow betweenness, un tipo concreto de medida de intermediación que estudia la distribución de flujos por una red. Por último, se ha implementado una medida de centralidad para redes urbanas basad en el concepto de centralidad basada en el vector propio, donde la idea básica es que un nodo es importante si sus conexiones o vecinos son importantes. Al final de la memoria se establece una pequeña comparativa entre las medidas basadas en el vector PageRank y vector propio, ya que todas se basan en el cálculo de un vector propio del valor propio dominante de una cierta matriz que resume tanto la conectividad de la red como sus datos.
|
137 |
Tecnologías de la información para medir socialmente la creatividadGuillem Aldave, Carlos 25 September 2018 (has links)
En esta tesis se ha trabajado en la medida de la creatividad a nivel social aprovechando los avances de las tecnologías de la información y de las redes sociales. Se ha realizado un profundo estudio de la literatura sobre creatividad analizando qué es, qué elementos la facilitan en su proceso creativo y cómo se viene midiendo hasta la fecha. En la creatividad intervienen numerosos elementos que hacen que se pueda desarrollar, éstos tienen una influencia en el resultado creativo que puede ser mayor o menor, pero hay estudios que demuestran su importancia. Éstos son, entre otros elementos: la motivación intrínseca, el trabajo en grupo, la improvisación, la preparación, la actitud, el entorno, el ambiente, etc. Los trabajos sobre la medida de la creatividad se pueden clasificar en dos corrientes generales. La primera, y la más habitual, es medir las destrezas cognitivas de los creativos a partir de test psicométricos. La segunda propone la evaluación de los productos que realizan los creativos. En este trabajo se ha considerado más interesante explorar esta opción y se ha profundizado en su estudio. Uno de los trabajos más completos sobre la medida de los productos creativos es el realizado por Susan Besemer con el Creative Product Semantic Scale, en el cual destaca tres categorías, denominadas dimensiones, por las que se puede medir el producto: novedad, resolución y estilo. Cada una de estas dimensiones se divide en facetas que son evaluadas para concluir cuánto de creativo es el producto. Entendemos producto como cualquier objeto, idea o proceso resultante del proceso creativo. En esta tesis, se ha escogido como punto de partida este estudio y se han aprovechado los avances de las tecnologías de la información para plantear un modelo que aporta un enfoque nuevo. Habíamos detectado durante la investigación el potencial de las redes sociales y nos propusimos aprovecharlo para encontrar una medida social de la creatividad, conectando un gran número de evaluadores, para lo que también ha sido necesario definir cuidadosamente las métricas necesarias. El modelo creado, que está basado en una herramienta digital, está diseñado para que se nutra de información y actualice y evalúe tanto a los productos creativos, como a sus creadores y a los propios evaluadores. Los evaluadores valoran los productos, se actualiza el nivel del creativo y a la vez estamos consiguiendo información sobre los propios evaluadores, por lo que también están siendo evaluados. Hemos dividido en cinco niveles de confianza a los evaluadores, y en función de la calidad de sus evaluaciones, a la confianza obtenida y su parecido con la evaluación canónica (consideramos la evaluación de los expertos como canónica) actualizamos su nivel. En este modelo todos los evaluadores tienen cabida, desde los no iniciados en el campo de la creatividad hasta los expertos contrastados. El modelo desarrollado conecta un número de evaluadores muy alto, que medirán las facetas que hacen que un producto sea creativo. Hemos realizado una lista de 66 facetas divididas en las tres dimensiones del CPSS, pero esta es una clasificación inicial. El modelo conforme comience a funcionar nos estará dando información de qué facetas tendrán mayor peso en la evaluación del producto. Por lo tanto, la medida de los productos estará representada en las 3 dimensiones y será el resultante de la evaluación de muchos evaluadores de los cinco niveles de confianza que comentábamos, de tal modo que, un evaluador de nivel más alto (5) tendrá cinco veces más peso que uno de nivel básico (1), y de forma análoga para el resto de niveles (los de nivel 4, tendrán cuatro veces el peso que los de nivel 1, y así sucesivamente). La medida que obtienen en su primera intervención los usuarios creativos es equivalente a la de su primera creación en las tres dimensiones; novedad, resolución y estilo. Una vez que incorporamos más productos entra en juego el factor de reducción, dando más importancia al último trabajo que a todos los realizados anteriormente. Hemos definido varias medidas de calidad del trabajo de los evaluadores: validez (grado de acuerdo con la evaluación canónica), confiabilidad (grado de acuerdo entre los revisores), sesgo (para el sesgo se toman varias medidas: mediana, rango intercuartílico, diferencia promedio a la evaluación canónica y su desviación estándar, que permiten estimar los sesgos de tendencia central, restricción de rango, clemencia y dureza). Al final, toda esta información es empleada por el sistema para evaluar la calidad de sus evaluaciones, por lo que, si los usuarios se van clasificando de una manera más correcta conforme usan el modelo, la calidad de la evaluación global de éstos, también comenzará a ser más precisa. La herramienta digital resultante, ha sido desarrollada durante el tiempo de estudio, y tenemos un prototipo que muestra el potencial de la propuesta. Se trata de una aplicación web que pone a prueba el modelo desarrollado en esta tesis. Esta herramienta proporciona un sistema automático que asigna cuestionarios a evaluadores (a los cuestionarios los denominamos estudios). En estos estudios se evalúan los atributos de los productos a través de respuestas a preguntas formuladas sobre el contenido vídeos, imágenes y otros soportes multimedia. La herramienta consta de varios módulos. El primero de ellos es el que permite la selección de evaluadores y generación de estudios. El segundo módulo es el que realiza el cálculo de evaluaciones de los productos y de sus creadores. Y, por último, el módulo de análisis y estadísticas nos dará toda la información necesaria sobre los usuarios, los productos y sobre el funcionamiento del propio sistema. Esta herramienta proporciona la información necesaria para mejorar el modelo y perfeccionarlo. Durante la investigación se ha recabado de manera informal la opinión de varios expertos, que han reconocido interés en el trabajo realizado. Además, con el objetivo de validar la propuesta, hemos realizado una entrevista estructurada con un grupo de ocho expertos, que trabajan a diario la creatividad en diferentes campos. Esto nos ha ayudado a tener una visión más global y práctica, y a contrastar las teorías planteadas en la tesis. La propuesta desarrollada da algunas respuestas al problema de la medida de la creatividad y constituye una base para profundizar en su estudio. A partir de los ejemplos que se han desarrollado utilizando el prototipo, ya se puede constatar que una medición social de la creatividad con este modelo es interesante y posible. El grado de objetividad alcanzado, probablemente sea proporcional al número de usuarios que se consiga, y la propia experiencia del uso de la herramienta, está aportando una cantidad de datos que hará posible mejorar el modelo y la propia herramienta. Entre las principales aportaciones de nuestro trabajo en la investigación se puede destacar que hemos desarrollado una forma de medir la creatividad de los productos y de integrarla como medida de la creatividad de sus creadores. También se ha logrado incluir una forma social de evaluación y se han aprovechado los avances de las tecnologías de la información para crear una herramienta digital con base en el modelo propuesto. Además, hemos desarrollado un conjunto de medidas de la calidad de las evaluaciones para estimar la validez, confiabilidad y sesgo del sistema en su conjunto, y de sus evaluadores individualmente. Con todo esto demostramos que la tecnología puede y debe jugar un papel importante en la medida de la creatividad y que es posible utilizar los avances en las redes sociales y la tecnología para crear una medición social.
|
138 |
Educational framework using robots with vision for constructivist teaching of robotics to pre-university students / Entorno educativo usando robots con visión para la enseñanza constructivista de Robótica a estudiantes preuniversitariosVega Pérez, Julio 21 September 2018 (has links)
Robotics will be a dominant area in society throughout future generations. Nowadays its presence is increasing in the majority of contexts of daily life, with devices and mechanisms which facilitate the accomplishment of diverse daily tasks; as well as at labor level, where machines occupy more and more jobs. This increase in the presence of autonomous robotic systems in society is due to the great efficiency and security they offer compared to human capacity, thanks mainly to the enormous precision of their sensor and actuator systems. Among these, vision sensors are of utmost importance. Humans and many animals enjoy powerful perception systems in a natural way, but which in Robotics constitutes a constant line of research. The main problem lies in the correct interpretation of visual data and the extraction of relevant information from camera images. Thus, Robotics becomes something beyond an scientific are, but also a social and cultural topic. Therefore, it is essential to raise an early awareness and train younger students to acquire the skills which will be most demanded in the short and mid-term future. In doing so, we will be ensuring their integration into a labor market dominated by intelligent robotic systems. In addition to having a high capacity for reasoning and decision-making, these robots incorporate important advances in their perceptual systems, allowing them to interact effectively in the working environments of this new industrial revolution. Since a few years ago, there are different Educational Robotics kits available in the market which are designed to be used in pre-university education. To use them as a learning tool, a correct teacher training is necessary, as well as a change in the teaching-learning methodology and in the educational environment in general. In addition, taking into account that young people live immersed in a constant environment of technological learning, most of these kits usually have a short period of interest for students, who demand motivating intellectual challenges. This thesis aims to provide several solutions to some classic problems inherent to Robotics, such as navigation and localization, but using a camera as the main sensor. In addition, a learning framework for teaching of Robotics with Vision as a subject is presented. Using it the students at pre-university curricular level learn the principles of Science and Engineering and the computer programming skills demanded in today's society. The use of Python language and its exercises about robots with vision makes this learning framework unique and more powerful than other existing frameworks. This teaching framework has been successfully used in several secondary education schools during the last two academic years (2016/2017 and 2017/2018), which includes: its software infrastructure, its hardware platform, an academic curriculum with theoretical and practical content, as well as a constructivist pedagogical methodology. The performance and satisfaction of more than 2,000 students and teachers using it, in curricular subjects such as Programming, Robotics and Technology and ICTs of Secondary Education (CSO) and extracurricular activities, have been evaluated.
|
139 |
La cartera estratégica de proyectos de TI como buena práctica para la Gobernanza de las TI en las universidadesValverde Alulema, Francisco 07 March 2019 (has links)
La Gobernanza de las TI es una nueva filosofía de trabajo que se está integrando con fuerte aceptación a nivel organizacional. Las empresas sean estas públicas o privadas han visto en las tecnologías de la información (TI) la oportunidad de mejorar los procesos de forma automatizada. Sin embargo, a pesar de que las organizaciones están incluyendo en su infraestructura más sistemas de información, aún faltan controles por parte de la alta dirección organizacional que les permita medir de algún modo el adecuado uso de las TI, es decir, si las TI están generando valor organizacional y si están contribuyendo al logro de los objetivos del negocio. Lograr integrar las responsabilidades en la alta dirección para que se tomen decisiones sobre las TI es un trabajo difícil. Por ello en la actualidad se han creado normas y marcos de referencia que se han establecido para que la alta dirección tenga un modelo a seguir en base a principios de Gobernanza de las TI. Además de la responsabilidad que deben asumir los altos directivos sobre las decisiones y el uso adecuado de las TI desde el punto de vista estratégico, la Gobernanza de las TI se apoya en buenas prácticas proporcionadas por organizaciones que han visto mejores resultados al integrar estos procesos de buen gobierno. Una de estas prácticas es la implantación de una cartera de proyectos de TI, que permita alinear los proyectos que se van a ejecutar desde el punto de vista estratégico, permitiendo la optimización de recursos y generando mayor valor organizacional. El propósito de la tesis es poder contribuir a la implantación de una cultura de Gobernanza de las TI a través de una buena práctica probada. Para ello se ha realizado un estudio exhaustivo de la cartera de proyectos de TI, al segmentar esta buena práctica en elementos y ventajas que deban considerarse antes de su implantación. La investigación realizada en esta tesis permitirá tener a la mano una herramienta sencilla de utilizar con el fin de diseñar estratégicamente una cartera de proyectos de TI que incorpore elementos que puedan demostrar su claro alineamiento a los principios de Gobernanza de las TI. El aporte principal de la investigación es la propuesta de un instrumento para evaluar una cartera proyectos de TI (rúbrica de la CEPTIU), determinar si esta es estratégica y si está alineada a la Gobernanza de las TI. Esta rúbrica tiene 16 elementos considerados la parte tangible de la cartera. Adicionalmente se establecen 20 ventajas consideradas y relacionadas inicialmente como efecto de los elementos propuestos. Las ventajas son la percepción de hacer bien las cosas y de condiciones favorables en la organización. Adicionalmente en la propuesta se ha podido determinar la relación de alineamiento tanto lineal como transversal entre los elementos, ventajas y los principios de Gobernanza de las TI tomando como referente la norma internacional ISO/IEC 38500. Esta propuesta ha sido realizada para el entorno de las universidades españolas, sin embargo, puede tomarse de referencia en cualquier universidad pública del mundo con condiciones similares.
|
140 |
Robótica asistencial ciber-física para terapia de habla-lenguaje / Assistive Cyber-physical Robotics for Speech-Language TherapyCaldwell Marín, Eldon Glen 27 April 2020 (has links)
Esta investigación doctoral aborda la robótica asistencial (Assistive Robotics) como tema general, también llamada robótica social; específicamente el estudio de la interacción de la relación humano-robot. Con base en el estudio del estado del arte realizado, esta tesis se orientó hacia el siguiente problema de investigación: ¿es posible mejorar la efectividad terapéutica y de esta forma la calidad de vida de las personas con dificultades para comunicarse verbalmente debido a singularidades relacionadas con el habla y lenguaje; por medio del desarrollo de estrategias socio-terapéuticas que utilicen robots y mundos virtuales con frecuencias de exposición flexibles en comparación con la exposición programada utilizando únicamente robots en el mundo físico? El problema de investigación brinda una direccionalidad innovadora desde varias perspectivas científicas. Por un lado, la integración terapéutica de recursos en el mundo virtual así como en el mundo físico con robótica asistencial en colaboración con el ser humano para cumplir un objetivo de crecimiento personal. Además, la posibilidad de romper la barrera del tiempo controlado de exposición terapéutica por medio de la tecnología. Y, por otro lado, metodológicamente buscar un abordaje científico que demuestre causalidad y no sólo asociación por medios cualitativos; dado que se quiere saber si la efectividad terapéutica realmente puede incrementar como variable de respuesta. Por lo tanto, y como elemento de innovación adicional, esta investigación abordó el diseño de un prototipo tecnológico de programación robótica con emulación animada, que integra el uso de un avatar robótico virtual para facilitar la interacción social de personas que presentan dificultades de comunicación verbal relacionadas con el habla y lenguaje. El objetivo general de esta tesis se plantea como sigue: “Aportar al conocimiento científico sobre la interacción humano-robot con fines terapéuticos de comunicación verbal en el idioma castellano comparando el uso de robots en el mundo físico y virtual con flexibilidad de tiempos versus la interacción limitada a robots físicos por periodos de tiempo fijos para saber si es posible incrementar de forma relevante la efectividad terapéutica en términos de mejora de habilidades y tiempo invertido en terapia.” Esta investigación contribuye científicamente con la propuesta de un enfoque metodológico que busca obtener resultados basados en la evidencia experimental y no sólo en el análisis hermenéutico o el análisis léxico de datos cualitativos que constituye lo más frecuente en la investigación científica en este campo. En este sentido, el método exploratorio basado en datos cualitativos y abordajes epistemológicos subjetivistas pueden verse bien complementados con investigación positivista más orientada a la evidencia basada en resultados vinculados a la causalidad. Otra aportación de esta investigación está en el desarrollo tecnológico orientado hacia el uso de la experiencia de realidad virtual de personas con condiciones de limitación en habla o lenguaje en combinación con un robot físico. Esta es una forma innovadora de buscar la exposición continua y en tiempo real a los protocolos de terapia de habla sin supervisión física del terapeuta, teniendo en cuenta que las aplicaciones robóticas en mundos virtuales vinculados con el "mundo físico" no son frecuentes.
|
Page generated in 0.1044 seconds