• Refine Query
  • Source
  • Publication year
  • to
  • Language
  • 41
  • 11
  • Tagged with
  • 52
  • 52
  • 36
  • 21
  • 13
  • 8
  • 6
  • 6
  • 6
  • 5
  • 5
  • 5
  • 5
  • 5
  • 5
  • About
  • The Global ETD Search service is a free service for researchers to find electronic theses and dissertations. This service is provided by the Networked Digital Library of Theses and Dissertations.
    Our metadata is collected from universities around the world. If you manage a university/consortium/country archive and want to be added, details can be found on the NDLTD website.
41

Corporeidad, identidad y cultura digital : género y sexualidad en videojuegos= Corporeality, identity and digital culture: gender and sexuality in video games

Belmonte Ávila, Juan Francisco 19 June 2015 (has links)
Esta tesis doctoral aborda la reproducción de los discursos sobre la identidad sexual y de género en los videojuegos utilizando metodologías del campo de los Estudios Culturales (Stuart Hall, Henry Jenkins), de los estudios de género y crítica queer (Donna Haraway, Judith Butler, Sandy Stone), y del ámbito de los Game Studies (Espen Aarseth, Ian Bogost, Wendy Chun, Jesper Juul y Gonzalo Frasca). El estudio analiza tanto los elementos representacionales que intervienen en la configuración de los videojuegos como otros propios del medio específico estudiado, tales como el código de programación utilizado, las articulaciones de opción que ofrecen los juegos, sus formas de control y su naturaleza interactiva. Así, se revisitan textos fundamentales en los Estudios Culturales para el estudio de relaciones entre texto e ideología al tiempo que se ofrecen nuevas propuestas para el análisis de las características propias del medio, al incidir en aspectos casi totalmente ignorados por la crítica hasta el presente. La tesis, en su primer capítulo, resume las fuentes fundamentales que abordan la relación entre ideología y media digitales interactivos, para así dar paso a cinco unidades temáticas entrelazadas y complementarias. La primera de estas unidades analiza la relación entre el devenir histórico de un país (Japón), los discursos sobre identidad generados a raíz de dichos eventos históricos, y el modo en el que la cultura popular refleja estas visiones identitarias con textos afines a los discursos dominantes. De esta forma, el capítulo dos analiza la relación entre la historia japonesa, los discursos sobre el género y la sexualidad en este país, y su reproducción en la cultura popular. Las fuentes bibliográficas para esta sección incluye a expertos sobre la historia de Japón como Andrew Gordon, Michiko Suzuki o Tom Gill, estudiosos de la cultura popular japonesa (Susan J. Napier), y textos claves de la cultura popular japonesa claves. La siguiente de estas unidades vincula una de las características principales de los videojuegos, choice (la interacción basada en opciones), con la difusión de identidades concretas que son absorbidas por los usuarios bajo un halo de interactividad y de relaciones entre usuario, máquina y texto digital aparentemente libres. Esta sección cuestiona percepciones automáticamente positivas sobre la interactividad y analiza este elemento como un mecanismo de difusión ideológica aplicando las ideas de Louis Althusser sobre Aparatos Ideológicos de Estado y los análisis del pensamiento arborescente formulados por los filósofos Gilles Deleuze y Félix Guattari. Una tercera unidad analiza la relación entre la naturaleza háptica (o táctil) de muchas interacciones entre el jugador y el videojuego y la absorción de discursos sobre la identidad. Muestra que con las interacciones táctiles con los videojuegos a través del mando, el cuerpo humano pasa a articularse con mecanismos de repetición y concentración háptica que complementan la transmisión visual de contenido y la absorción de flujos de carácter ideológico. La cuarta unidad se adentra en el análisis del código binario y de las líneas de código escritas durante la programación de este medio para abordar un estudio comparativo entre un código puramente computacional y otro tipo de código, de carácter normativo y social, que se complementan mutuamente. Y la quinta, y última, área de estudio retoma la temática no-humana (animal) del capítulo anterior para buscar formas de pensar sobre lo humano en videojuegos fuera de los circuitos de lo normativo. El capítulo encuentra dicho espacio en avatares y espacios no-humanos, en temáticas y entornos alejados de lo social, y en formas de relación con el entorno que no están relacionadas con percepciones, movimientos, o corporeidades humanas. / Combining the methodologies of Cultural Studies, Gender and Queer Studies, and Game Studies, this dissertation studies the articulation of gender and sexuality in video games, moving from a more general, representational-oriented, analysis to more abstract concerns. The dissertation starts with the human as a historical and ideology-regulated category, moves on to study the processes for reproducing gender and sexuality which are specific to Game Studies (such as choice, haptic input, and code) to go back to the human through the study of non-human elements. Not limited to image-based visions of gender and sexuality, this study also pays attention to invisible processes which run in the background of games or which seldom receive any attention. Chapter 2, the most representational-oriented chapter of all, explores the history of Japan and its national discourses about gender and sexuality in order to show that they have had a crucial role in the creation of characters and narratives in Japanese popular culture products, primarily, but not exclusively, in manga and anime. As this chapter shows, ideology limits the situations in which individuals are allowed to act (or, in which they perceive they are allowed to act). Together, choice and ideology serve as historical and social mechanisms for the production and reproduction of specific identities. Choice also happens to be a fundamental element in video games; to it is devoted Chapter 3, which explores the potential ideological capabilities of specific implementations of choice in this medium. This chapter shows that the affordances and limitations games offer players have a very specific impact on the kinds of gender and sexualities that are promoted and addressed during gameplay. Video games are, in general, cultural products created within normative identity discourses that also promote similarly aligned identities. The medium is, however, also malleable and subject to modification by users who might try to implement (or wish for) changes in the number and quality of choices available at any given time during gameplay. Choice, as a powerful tool, also allows game designers to consciously introduce critically relevant discourses into their games. As this chapter shows with the evolution of the choices available in the Dragon Age series, choice seems to evolve to accommodate a broader range of sensibilities and desires. This gradual broadening, however, is not necessarily always positive, and must be carefully analyzed when thinking about games as identitarian machines. Another fundamental element when playing games is the haptic relation established between players and games, studied in Chapter 4. The chapter demonstrates that, in addition to the visual elements of games (something I mainly covered on the second chapter), repeated tactile inputs and forms of haptic incorporation during gameplay also play a critical role as enforcements of specific visions of gender and sexuality. Chapter 5, with its divide between animal and human identities, computer code and social code, adds to this vision of video games as powerful ideological tools aligned with normativity. However, with the analysis of non-human elements, the chapter also opens the possibility of going beyond normativity in order to analyze less constrained identities in video games. Chapter 6 does precisely this and offers a way to talk about expanded representations of human relations and identities. The key to finding alternatives discourses about the human resides in looking at games that abandon the human world to explore non-human game mechanics and settings. In this sense, the chapter shows that it is through non-human relations, motions, and worlds that games might suggest presently new forms of thinking about the human.
42

Herramientas telemáticas para la comunicación educativa : catalogación, análisis y posibilidades de uso de los blogs

Bernal Galindo, Rosa María 30 June 2015 (has links)
El propósito de esta Tesis Doctoral consiste en la exploración, análisis y estudio de la blogosfera educativa con el fin de establecer una clasificación, características, así como recomendaciones, orientaciones y propuestas de uso de los blogs. Para su consecución, partimos de la idea del blog como herramienta online para la comunicación educativa. Los objetivos generales planteados en esta investigación han sido:  Explorar y analizar la blogosfera educativa a través de diferentes blogs.  Conocer y analizar el uso que los autores de los blogs realizan de los mismos según su función educativa para determinar sus posibilidades educativas en el proceso de enseñanza.  Formular algunas recomendaciones y propuestas de uso de blogs en contextos educativos. La investigación consta de tres momentos clave. En la primera fase se analizó una muestra de blogs con algún tipo de reconocimiento oficial a través de algún concurso o recomendados por estos blogueros. El análisis de la muestra se realizó a través de una ficha de observación. Durante la segunda fase se procedió a clasificar la muestra de blogs en cuatro tipos de funciones educativas: actividades de aprendizaje y evaluación; divulgación y difusión de información y experiencias; repositorio y gestión de información; comunicación y colaboración con la comunidad educativa. Después, se contactó con los blogueros de la muestra para conocer la valoración y uso de sus blogs educativos. Para esta recogida de información se utilizaron cuatro cuestionarios online. Finalmente, en la tercera fase se propusieron algunas recomendaciones, orientaciones y propuestas de uso de los blogs en contextos educativos. En relación a los resultados y conclusiones, se encontraron algunos rasgos identificativos de los blogs: una amplia mayoría de los blogs utilizan la plataforma Blogger y tiene entre 2 y 5 años y medio desde su creación. La mitad de los blogs tiene publicadas entre 1 y 500 entradas y no posee un patrón fijo para la publicación de entradas, estando gestionados por una única persona de enseñanzas regladas. Los blogs analizados permiten la publicación de comentarios y aproximadamente la mitad de ellos especifican un tipo de licencia de contenidos. Se comprobó la accesibilidad a través de la herramienta eXaminator, y gran parte de la muestra no supera las pautas de accesibilidad. Centrando la atención en las herramientas adicionales de los blogs, los blogueros utilizan herramientas sobre organización de información, publicación de contenidos, colaboración, interacción y recursos externos. En relación al perfil de los blogueros, la mayoría son mujeres entre 36 y 55 años y sus blogs están administrados por un único autor. Además trabajan por cuenta ajena en un centro público con una experiencia laboral entre 1 y 20 años. Respecto a la formación académica, una parte posee diplomatura de Magisterio frente al resto con licenciatura. Además, los blogueros utilizan las redes sociales y los servicios de microblogging para facilitar la difusión de las entradas del blog permitiendo llegar a una mayor audiencia. Asimismo, los autores de los blogs han proporcionado características para cada una de las funciones educativas de los mismos. Por otro lado, los blogueros afirman que ha cambiado su percepción inicial de sus blogs desde su creación. Hay que destacar que un mismo blog puede tener implícitas varias funciones educativas donde predominará una sobre la otra. Por último, los blogueros de las funciones de actividades de aprendizaje y evaluación, así como de divulgación y difusión de información y experiencias consideran que sus blogs son educativos. Sin embargo, hay una ausencia de respuesta por parte de los blogueros de las funciones de repositorio y gestión dela información, así como de comunicación y colaboración con la comunidad educativa. No obstante, debido a las características y actividad descrita sobre sus blogs, consideramos que también poseen una intención didáctica. Finalmente, proponemos algunas recomendaciones y propuestas de uso de los blogs en contextos educativos. / The purpose of this Doctoral Thesis is the exploration, analysis and study of the educational blogosphere in order to establish a classification, characteristics and recommendations, guidelines and proposals for the use of blogs. To achieve them, we start with the idea of the blog as an online tool for the educational communication. The general objectives for this study have been: - Exploring and analyzing the educational blogosphere through different blogs. - Understanding and analyzingthe use that blogs authors do according to their teaching function to determine their educational possibilities in the teaching/learning process. - Formulating some recommendations and proposals to use blogs in educational contexts. The research consists of three main sections. The first section deals with a blog simple which was analyzed with some kind of oficial recognition through a certain type of contest or recommended by those bloggers. The analysis of the simple was performed us in an observation form. During the second section we proceeded to classify the blog samples in four types of educational functions: learning and assessment activities; exposure and spreading of information and experiences; repository and information management; communication and collaboration with the education community. Then we contacted the bloggers in the sample to determine the value and use of their educational blogs. To collect this information we used four questionnaires online. The third section proposes some recommendations, guidelines and proposals for the use of blogs in educational contexts. In relation to the results and conclusions, some identifying features of blogs were found: a vast majority of blogs use the Blogger platform which was established between 2 and 5 ½ years ago, in relation to the results and conclusions, some identifying features of blogs found that half the blogs have between 1 and 500 entries with no fixed pattern for the inputs, The are managed by a single formal education person. The analyzed blogs allow posting comments and about half of them specify a type of content license Accessibility was tested with the eXaminator tool, and most of the sample fails the accessibility guidelines. Focusing on the additional tools of blogging, bloggers use tools for managing information, content publication, collaboration, interaction and external resources. Regarding the bloggers profile, most of them are women between 36 and 55 and their blogs are managed by a single autor. Moreover, they work as employees in a public academic centre with 1 to 20 of work experience. Regarding their educational background, one part had a primary school teacher degree the rest has a full university degree. In addition, bloggers use social networks and microblogging services to facilitate the spreading of blog entries which allows a much a wider audience. In addition to this, the authors of blogs have provided features for each of their educational functions. On the other hand, bloggers said that they have changed their initial perception of their blogs since their beginning. It should emphasize that one blog may have several educational functions which will prevail over one another. Finally, bloggers of the functions of learning and assessment activities, as well as exposure and spreading of information and experiences hold their blogs as educational. However, there is an absence of response from bloggers dealing with repository functions, information management and communication and collaboration with the education community. However, due to the features and the described activity on their blogs, we consider that they also have a didactic intention. Finally, we propose some recommendations and proposals for the use of blogs in educational contexts.
43

Administración electrónica : de la evidencia de la gestión de documentos a la documentación de la gestión de procesos institucionales locales

García González, María 19 June 2015 (has links)
Se propone el desarrollo de una metodología de trabajo para traducir procesos reales de la Administración Local a procesos lógicos para la Administración Electrónica. Llevar a cabo este cometido supone en primer lugar el diseño y aplicación de un «modelo de descripción» que permite obtener una estructura conceptual de todas las posibles funciones y componentes que podrían intervenir en la gestión de un proceso electrónico y, seguidamente, ofrecer y aplicarle una «propuesta de modelo de metadatos» semánticamente correcta. Tomando como modelo las directrices desarrolladas a nivel internacional por las diferentes corrientes teóricas sobre esta materia, se procede a diseñar el modelo de descripción de la gestión de procesos electrónicos a partir del estudio de una unidad documental compuesta, en este caso, el expediente administrativo. Se cree que la evidencia de los procesos, en cierta medida, queda reflejada en los documentos como resultado final de su ejecución, siendo necesario también efectuar un análisis de la legislación que les afectan, así como observar, para este caso, las funciones ejecutadas en la Administración Local. La estructura de metadatos diseñada responde a un modelo entidad-relación desarrollado a partir de los estándares de metadatos publicados a nivel internacional. La propuesta aquí presentada se aleja de la «descripción de documentos» para dirigirse hacia la «descripción de la gestión electrónica de procesos» institucionales mediante el uso de metadatos. La definición de las funcionalidades de la gestión de un proceso administrativo, de acuerdo a los resultados obtenidos para un entorno electrónico y la posterior aplicación de un modelo de metadatos, ha demostrado –no solo para las Administraciones Locales– que se trata de una tarea bastante complicada que merece una importante reflexión por parte de todas las Administraciones Públicas. Es necesario establecer previamente una política de gestión de procesos electrónicos para solucionar los aspectos orgánico-funcionales que impiden la puesta en funcionamiento de la Administración Electrónica –esto implica redactar textos legislativos para regular los procedimientos administrativos ejecutados por vía electrónica– y, posteriormente, atender a los aspectos técnicos de los que hablan las Normas Técnicas de Interoperabilidad redactadas en nuestro país, las cuales conllevan el uso de TIC y la aplicación de metadatos para su descripción. Finalmente se observa y demuestra que la falta de recursos económicos, materiales y sobre todo profesionales para llevar a cabo esta práctica, hace que las Administraciones Locales sean las más vulnerables en comparación con el resto de las Administraciones Públicas. / This is a proposal for the development of a methodology of work in order to translate real processes of local government administration to logical processes for electronic administration. To carry out this task, it firstly involves the design and implementation of a «model description» which will allow us to obtain a conceptual structure of all the possible functions and components that might be involved in the management of an electronic process and then provide and apply it to a semantically correct «proposed metadata model». Using the guidelines developed internationally by the different schools of thought on this subject as a model, we will proceed to design the model description of the management of electronic processes from the study of a compound document file, in this case, the administrative record. It is believed that the evidence of the processes, to some extent, is reflected in the documents as a final result of its execution, requiring an additional analysis of the laws that affect them, and to observe, in this case, the functions performed in local government administration. The designed metadata structure responds to an entity-relation model developed from standards of metadatas published internationally. The proposal presented here is far from a «description of documents» but moves more towards a «description of the management of electronic processes» by using institutional metadata. The definition of the functions of the management of an administrative process, according to the results obtained for an electronic environment and the subsequent implementation of a metadata model has proven – not only for the local government administration – that this is quite a complicated task that needs serious reflection by all levels of public administration. It is necessary to previously establish a policy for the management of electronic processes to solve the organic-functional aspects that hinder the operation of electronic administration –this involves drafting legislations to regulate administrative procedures executed electronically and then meet the technical aspects which are outlined by technical standards for interoperability written in our country, which involve the use of ICT and the application of metadata for its description. Finally it is observed and shown that the lack of economic resources, materials and particularly professionals to carry out this practice makes the local bodies more vulnerable compared to other public administrations.
44

Técnicas para el descubrimiento de patrones temporales= Techniques for the discovery of temporal patterns

Gomariz Peñalver, Antonio 18 February 2014 (has links)
Uno de los problemas a los que las tecnologías de la información han tenido que enfrentarse en los últimos años es el análisis de una enorme cantidad de datos originada en las actividades cotidianas de organizaciones o personas. Este análisis puede consistir en la búsqueda tanto de modelos como patrones que ayuden en la comprensión de los datos o el comportamiento de estas organizaciones o personas. Una componente esencial asociada a este tipo de conocimiento es la dimensión temporal, que cuando es tenida en cuenta en los patrones, no sólo proporciona mucha más información, sino también los convierte en más complejos. La minería de datos de secuencias (SDM) es un área en el campo de la detección de conocimiento en bases de datos (KDD) cuyo objetivo es extraer los conjuntos de patrones frecuentes que se encuentran, ordenados en el tiempo, en una base de datos. Algunas técnicas de SDM han sido empleadas en una amplia variedad de dominios de aplicación, tales como el descubrimiento de patrones en secuencias de ADN, el análisis de secuencias de compras de clientes, número de clics en una web, etcétera. Los patrones que se obtienen en estos dominios dependen de la naturaleza de los datos que son objeto de análisis y del propósito de dicho análisis. Por un lado, hay patrones sencillos que sólo contienen eventos que denotan puntos ordenados en el tiempo. Por ejemplo, un patrón puede modelar el comportamiento de una persona que, durante la noche, se despierta, toma agua, va al baño, y luego regresa a la cama. Por otra parte, otros patrones mucho más complejos incluyen eventos que denotan intervalos con distancias temporales entre ellos. Por ejemplo, una persona duerme durante 3 horas, seguidamente pasa 3 minutos en la cocina y, después de ver la televisión durante 40 minutos, vuelve a dormir durante 2 horas más. Entre estos dos extremos existe una amplia gama de diferentes patrones. Esta tesis supone distintas aportaciones al campo de la SDM. En primer lugar, proponemos una clasificación clara de los patrones y algoritmos dentro de la SDM. Hacemos un estudio claramente diferenciado en tres distintas dimensiones: representación de los patrones, su expresividad y la estrategia de búsqueda utilizada para la extracción de patrones frecuentes. En esta clasificación hemos encontrado algunas lagunas en los algoritmos existentes en el estado del arte. En segundo lugar, con el fin de completar las lagunas que aún no han sido exploradas, ofrecemos cinco nuevos algoritmos que utilizan diferentes representaciones y estrategias. Finalmente, discutimos la conveniencia de utilizar un algoritmo determinado en función de las propiedades de la base de datos y los patrones que son objeto de nuestro interés. / One of the problems that information technologies have had to confront in recent years is the analysis of the huge amount of data that originates during the daily activities of organisations or people. This analysis may consist of searching for models or patterns that will assist in understanding the data or behaviour of these organisations or people. One essential component in this kind of knowledge is the temporal dimension. When time is included in the patterns, they provide much more information but also become more complex. Sequence Data Mining (SDM) is an area in the field of Knowledge Discovery whose aim is to extract sets of frequent patterns that occur, ordered in time, in a database. SDM techniques have been used in a wide array of application domains, such as the discovery of motifs in DNA sequences, the analysis of customer purchase sequences, web click streams, and so forth. The patterns obtained in these domains depend on the nature of the data under analysis and the purpose of the analysis. On the one hand, there are simple patterns that only contain point events ordered in time. For example, a pattern can model the behavior of a person who, during the night, wakes up, drinks water, goes to the bathroom, and then goes back to bed again. On the other hand, much more complex patterns include interval events with temporal distances between them. For example, a person sleeps for 3 hours, then spends 3 minutes in the kitchen and, after watching TV for 40 minutes, goes back to sleep for 2 more hours. There is a wide range of patterns between these two extremes. This thesis presents a number of contributions to the SDM field. Firstly, we propose a clear categorisation of patterns and algorithms within SDM. We principally study three different dimensions: the representation of the patterns, their expressiveness and the search strategy used to mine patterns. In this categorisation we have found certain gaps in the state-of-the-art algorithms. Secondly, in order to complete those gaps that have not yet been explored, we provide five new algorithms that use different representations and strategies. Finally, we discuss the convenience of using a particular algorithm depending on the properties of the database and the patterns that we are interested in finding.
45

Restricciones algebraicas epipolares para estimación visual eficiente de movimiento sin la estructura 3D = Algebraic epipolar constraints for efficient structureless multiview motion estimation.

Rodríguez López, Antonio Leonardo 31 May 2013 (has links)
Resumen En esta tesis proponemos GEA (Global Epipolar Adjustment), un método de corrección de movimiento para aplicaciones de Visual SLAM y SfM altamente eficiente basado en restricciones algebraicas epipolares, que no hace uso de la información sobre la estructura. Este método obtiene resultados muy cercanos, y en muchos casos equivalentes a los obtenidos mediante bundle adjustment (BA), a pesar de su naturaleza algebraica, requiriendo por contra un coste computacional mucho menor. En este trabajo describimos cómo usar esa técnica para estimar las poses de cámara de forma incremental en aplicaciones SfM, sin necesidad de estimar en el proceso información sobre la estructura tal como correspondencias multivista de características de imagen. Estas poses de cámara pueden ser usadas a posteriori para obtener una estimación de alta precisión para la estructura. Demostramos que las técnicas descritas son robustas a los errores típicos de correspondencia obtenidos por los métodos habituales usados en SfM. / In this work we propose GEA (Global Epipolar Adjustment), a high-performance structureless BA correction method based on algebraic epipolar constraints. The GEA cost can be optimized very efficiently, in most cases using a small fraction of the time required by BA to obtain the optimal configuration. Despite of the algebraic nature of the cost, under general circumstances the accuracy of the obtained camera poses is very close to that obtained with classical BA methods. We also describe how to obtain accurate initializations for the camera poses incrementally using GEA and pairwise image feature correspondences, without requiring the composition of feature trackings or triangulation of scene landmarks. The resulting camera poses can be used afterwards to obtain highly accurate sparse or dense estimations of the scene structure. The techniques described are robust against outliers found by common pairwise image matching techniques.
46

Evaluación de plataformas de alto rendimiento para el descubrimiento de fármacos

Guerrero Hernández, Ginés David 27 June 2014 (has links)
Tesis por compendio de publicaciones / En la primera década del siglo XXI, la ley de Moore, que ha guiado el desarrollo de procesadores en los últimos cincuenta años, fue puesta en entredicho por la comunidad científica. Esto fue debido principalmente a las limitaciones físicas del silicio que provocaron un cambio de tendencia en el desarrollo de procesadores, tomando como principal estandarte para este cambio el paralelismo. Esta transición ha situado a la programación (masivamente) paralela como la única manera de extraer el máximo rendimiento de las nuevas plataformas de consumo; siendo esto fundamental para abordar los retos científicos de la actualidad. Desafortunadamente, estos retos plantean problemas cuyas necesidades computacionales están fuera del alcance de una sola máquina. Simulaciones como las tratadas en esta Tesis Doctoral, necesitan escalar a grandes centros de cálculo, cuyos costes, sólo están al alcance de grandes instituciones y gobiernos. Sin embargo, la actual situación socio-económica obliga a la utilización eficiente de los recursos. Herramientas como la computación en la nube o voluntaria ofrecen una alternativa para aprovechar al máximo los recursos computacionales de una manera flexible, rápida, económica y respetuosa con el medio ambiente. En esta Tesis Doctoral evaluamos el actual paradigma de computación descrito anteriormente, utilizando como caso de estudio un problema de alta repercusión en la sociedad como es la simulación de cribado virtual, utilizada para el descubrimiento de nuevos fármacos. El estudio ha recorrido los distintos niveles de procesamiento; partiendo por un análisis exhaustivo de las diferentes alternativas a nivel de chip disponibles en el mercado, pasando por la evaluación de los mismos en un entorno clúster, hasta escalar a niveles de computación en la nube y computación voluntaria. Como conclusión de este estudio podemos afirmar que las GPUs están a la vanguardia del desarrollo de aplicaciones científicas con patrones de cómputo masivamente paralelos y altas demandas computacionales, como es el cribado virtual. Además, nos atrevemos a afirmar, con los números mostrados en esta tesis doctoral y los resultados de estas plataformas en los últimos años, que se debería valorar su uso en la gran mayoría de campos científicos que demanden gran capacidad de cómputo. Es posible, sin embargo, que la migración de estas plataformas impliquen replantear el problema desde su origen, pero sin lugar a dudas, esto forma parte del pensamiento computacional, imprescindible en el desarrollo de aplicaciones científica en el estado actual de la computación de altas prestaciones. Por otro lado, si las ejecuciones que se quieren realizar son a mayor escala, se han de valorar diferentes alternativas computacionales diferentes a los tradicionales centros de cómputo; entre ellas la utilización de computación en la nube y la computación voluntaria. La computación en la nube puede ser una opción muy interesante si el cómputo que se desea realizar se desarrolla en periodos de tiempo intermitentes, ya que la no utilización de los recursos locales implica que la inversión económica no quede justificada. Por otro lado, la opción de usar una plataforma de computación voluntaria es muy atractiva, siempre y cuando, la aplicación que se está paralelizando admita ser portada a una plataforma de este tipo; pudiendo conseguir computación de altas prestaciones a un coste cercano a cero. Finalmente, nos gustaría subrayar que esta Tesis Doctoral ha contribuido al desarrollo de una aplicación de cribado virtual y que el uso de la misma debería de ayudar a encontrar nuevos candidatos a fármacos de manera eficiente en términos de rendimiento, energía y costes económicos. / In the first decade of the century, the Moore's Law, which has led the microprocessor design in the last fifty years, was put into question by the scientific community. This was mainly due to the physical limitations of silicon-based architectures, which caused a change in the trend of designing processors, guided by parallelism. This transition has placed (massively) programming parallel as the only way to extract the maximum performance to new consumer platforms; being this essential to address today's scientific challenges. Unfortunately, these challenges propose several issues whose computing needs are our of the scope for a single machine. Simulations, such as those discussed in this PhD Thesis, need to scale to large data centers; whose costs are only affordable for large institutions and governments. However, the current socio-economic situation requires an efficient use of resources. Tools such as cloud computing or volunteer computing offer an alternative to exploit computing resources in a flexible, fast, economical and environmentally friendly way. In this dissertation, we evaluate the current landscape of computation, previously described, using as a case study a high-impact problem for society as virtual screening. Virtual screening is a computational tool extensively used for drug discovery. The study has covered all processing levels, starting with an extensive analysis of the different commercially available alternatives at chip level, through their evaluation in a cluster environment, to scale to cloud computing and volunteer computing levels. This study concludes that GPUs are at the leading-edge of the development of scientific applications with massively parallel computing patterns and high computational demands, such as virtual screening. Moreover, this conclusion can be extended to other application fields with the same characteristics in its computation. However, migration to GPUs may cause an application redesign and even rethought, but this is actually part of computational thinking, which is now essential to develop scientific applications for the current state of high performance computing. Different alternatives to the use of a cluster need to be evaluated, such as the use of cloud computing and volunteer computing for a larger-scale executions. Cloud computing can be an interesting option if the computation you may perform is executed periodically, as the non-use of local resources implies that the economic investment is not justified. On the other hand, the option of using a volunteer computing platform looks interesting for developing some kind of hpc applications, as it is offering huge amount of hardware resource at no cost.
47

Análisis y modelado del proceso de gestión de la innovación en PYMES y su implementación en una plataforma WEB

García Esquiva, Manuel 17 December 2015 (has links)
Las pequeñas y medianas empresas aportan un considerable valor social a las economías de la OCDE sosteniendo más de la mitad del empleo y del PIB de la zona; tienen características propias y están necesitadas de recursos que les ayuden a competir en el mercado global, siendo la innovación uno de los factores de valor estratégico con mayor capacidad de impacto en esa dirección. Esta investigación, que se orienta a la implementación práctica de sus resultados, tiene como objetivos: a) Ofrecer un marco conceptual, coherente, que defina los aspectos relevantes de la gestión de la innovación, de la tecnología y el conocimiento y las relaciones entre ellas. b) Proponer un modelo del proceso de la innovación ajustado a la realidad de la pyme. c) Diseñar una metodología que facilite la explotación del modelo y ayude a la empresa en la gestión del proceso de la innovación. d) Fundamentar el desarrollo de una herramienta TIC que automatice el proceso. Para alcanzarlos, se apoya en: - Una revisión de la literatura científica y empresarial acerca del fenómeno de la innovación y sus implicaciones para la competitividad de las empresas; incluida una revisión de diferentes estudios y trabajos estadísticos que ha desvelado múltiples aspectos del comportamiento innovador de las pymes en la actualidad. - Una revisión, mediante consulta sistemática y análisis, de varios de los más relevantes sistemas de gestión de innovación y de las herramientas asociadas que actualmente se están ofreciendo a las pymes, tanto por parte de instituciones como de empresas comerciales. Todo ello ha posibilitado descomponer y discutir, con el soporte de marcos y teorías de referencia, el fenómeno de la innovación en elementos susceptibles de caracterizar un modelo general, que se muestra en forma de árbol de pertinencias. Dicha caracterización es la aportación de una estructura semántica que representa la taxonomía de elementos que constituyen los parámetros esenciales con los que puede modelarse el proceso de innovación y su gestión en una organización dada. Estos elementos se han confrontado y analizado su consistencia relacional, tomando como ápice de contraste el nivel de las etapas o fases de la gestión de la innovación, con el fin de establecer las pautas de configuración, buenas prácticas y factores relevantes o facilitadores de la innovación y su gestión en una pequeña o mediana empresa cualquiera. Este modelo general es el soporte de INNUP, un nuevo modelo orientado por el enfoque de procesos, dotado de una metodología de aplicación práctica y de la capacidad de ser implementado en una plataforma web, y que ofrece, en esencia, las siguientes aportaciones: - Se articula a partir de un sólido soporte teórico que se revela integrador al recoger, en sí mismo, las mejores prácticas en la gestión de la innovación identificadas como resultado del análisis de los modelos y propuestas más relevantes. - Ofrece un modelo de procesos que detalla las funciones que se desarrollan en él así como sus interrelaciones, que al adoptar los mecanismos de la gestión por procesos, facilita su implementación directa en la empresa. - Está dotado de una metodología que acompaña la implementación y explotación del proceso en cada una de sus etapas. - Tiene un efecto transformador sobre la empresa al afectar a diferentes dimensiones de la misma: estratégica, organizativa, operativa, de control y formativa. De esta investigación ya se ha derivado un resultado concreto con el proyecto INNUP, liderado por una empresa del sector TIC y seleccionado en el programa Avanza, que incluye el desarrollo de una herramienta comercial para ofrecer a las pymes una aplicación en la nube con la que mecanizar su gestión de la innovación asumiendo el modelo y la metodología INNUP. / Small and medium-sized enterprises contribute with a significant social value to OCDE economies and support more than a half of employment and GDP of the zone; they have their own characteristics and need resources to help them compete in the global market, being innovation one of the strategic value factors with a higher impact capacity in that sense. This research, which is oriented to practical implementation of its results, has as objectives: a) Offer a conceptual frame, coherent, which defines the relevant aspect of management innovation, technology and knowledge and relationship between them. b) Propose a model of innovation process adjusted to SME´s reality. c) Design a methodology which simplifies the model exploitation and helps the company in the innovation process management. d) Be the basis of an ICT tool development which automates the process. To reach them, it is supported with: - A review of scientific and business literature about innovation phenomenon and its consequences for company competitiveness, including a review of different studies and statistical works which has revealed multiple aspects of innovative behaviour of SMEs at present. - A review, through systematic request and analysis, of several of the most relevant innovation management systems and related tools which are now being offered to SMEs by institutions as well as commercial companies. All that has made possible to decompose and discuss, with the help of referral frames and theories, innovation phenomenon at elements capable of defining a general model, which is shown in a pertinence tree. Such characterization is the contribution of a semantic structure which represents the element taxonomy, forming the essential parameters which innovation and its management can be modelled in a given organization. These elements have been confronted and analyzed their relational consistency, taking as contrast apex the level of stages or phases at innovation management with the objective of setting configuration patterns, good practices and relevant factors or enhancing innovation and its management in any small or medium-sized enterprise. This general model is INNUP´s support, a new process oriented model, with a practical methodology application and capacity of being implemented in a web platform, and which offers, in essence, the following contributions: - It is articulated from a solid theoretical basis which reveals as integrating by collecting itself, the best practices at innovation management identified as a result of the analysis of the most relevant models and proposals. - Offers a process model which details functions developed inside as well as their interrelations, which facilitates its direct implementation in the company by adopting process management mechanisms. - It is equipped with a methodology which accompanies process implementation and exploitation at each one of its stages. - It has a transforming effect in the company by having an impact on different dimensions: strategic, organizational, operational, controlling and training. From this research, INNUP project has already been produced as a concrete result, led by an ICT company and selected by Avanza program, which includes a commercial tool development to offer a cloud application for SMEs to automate their innovation management adopting INNUP model and methodology.
48

Integración de los sistemas de información para la gestión de la cadena de suministro : un estudio empírico en grandes empresas

Gonzálvez Gallego, Nicolás 01 February 2016 (has links)
Tesis por compendio de publicaciones / Objetivos El objetivo general de esta investigación es la generación de conocimiento en torno a la relación entre las TIC, considerando de manera particular los sistemas de información, y la generación de resultados en el marco de la gestión de la cadena de suministro de grandes empresas. De manera más específica, las publicaciones de esta Tesis Doctoral persiguen dar respuesta a las siguientes preguntas de investigación: - ¿Existe una relación directa entre el uso de las TIC en procesos internos y externos de la empresa y la mejora de los resultados? - ¿Influye el tamaño de la empresa en los tipos de sistemas de información a implantar y en las motivaciones para ello? - ¿La integración de los flujos de información de la empresa a través de los sistemas de información de proveedores y clientes incide positivamente en los resultados? - ¿La integración de los sistemas de información en la cadena de suministro, considerado de manera conjunta con el uso de las TIC dentro y fuera de la empresa, tiene un efecto positivo en resultados? Metodología La población objetivo está formada por las 1.000 empresas más grandes según su cifra de negocio en la Península Ibérica (España y Portugal), encuadradas en uno de estos sectores de actividad: industrial, comercial, servicios y construcción. Se ha identificado como informante clave a la persona responsable de TIC en cada compañía, generalmente el Chief Information Officer (CIO). La muestra está compuesta por 102 empresas, de las cuales 59 son portuguesas y 43 son españolas. Ha quedado garantizada la representatividad de la muestra y se ha evaluado el sesgo de no respuesta y el sesgo de método común, no mostrando impacto significativo. El modelo de medida, por su parte, es resultado de una extensa revisión de la literatura y ha sido refinado mediante un análisis factorial confirmatorio (CFA). En cada artículo se detalla, además, la metodología específica aplicada en cada caso. Conclusiones En primer lugar, los resultados arrojan una necesidad de reorientar el esfuerzo inversor de manera que, además de procurar determinados recursos TIC, que ya no generan un valor añadido por sí mismos, aquél se dirija también al desarrollo de capacidades TIC y a la implantación de tecnologías colaborativas. En segundo lugar, encontramos que en la adopción de los sistemas de información más comunes, como el ERP, el CRM y el SCM, no existen diferencias significativas según el tamaño de la empresa. En cambio, sí que aparecen en el caso de los sistemas de inteligencia empresarial, las tecnologías para la gestión de flujos de trabajo y el groupware. Asimismo, conforme a los resultados de la investigación, las principales motivaciones para invertir en TIC esperando la generación de un resultado superior en la empresa están relacionadas con mejoras de carácter estratégico para la empresa, frente a otras de carácter más operacional. Finalmente, en lo que respecta a los sistemas de información, su mera implantación no contribuye directamente a generar resultados superiores. Sin embargo, la integración con proveedores y clientes a través de sistemas de información ha demostrado tener un rol moderador positivo en el efecto de las TIC externas e internas sobre resultados, si bien la integración completa de los sistemas de información para la gestión global de la cadena de suministro debe ser desarrollada más en profundidad para que en el futuro pueda constituirse como fuente de ventaja de competitiva. / Aims The general aim is to generate knowledge on the relationship between ICTs, considering specifically Information Systems, and firm’s performance within the framework of large companies’ supply chain management. Particularly, papers integrated in this PhD Thesis contribute to answer the following research questions: - Is there a direct relationship between ICTs for internal and external processes and better firm results? - Does firm size affect the type of information systems implemented by a company and their motivations to do so? - Do integrated information systems with suppliers and customers have a positive impact on firm performance? - Do integrated information systems along the supply chain, considered together with using ICTs within and beyond firm’s boundaries, have a positive effect on firm performance? Methodology The target population consisted of 1000 largest companies by gross revenue in the Iberian Peninsula (Spain and Portugal) which had their primary business activity in one of the following business activities: manufacturing, commercial, services and construction. The key informant was the Chief Information Officer (CIO) or the IT manager. The final sample was made up of 102 companies, 59 from Portugal and 43 from Spain. Sample representativeness was guaranteed. Non-response bias and common method bias were assessed so that they had no impact in this study. Measurement model was developed on the basis of a comprehensive literature review and it was refined by conducting a confirmatory factor analysis (CFA). More details on specific methodology is provided in each paper. Conclusions First, according to results, firms should redirect their investment efforts so that, apart from ensuring certain ICTs resources which are no longer the source of competitive advantage, they develop ICTs capabilities and implement collaborative technologies. Second, firm size has no significant impact on the adoption of the most widespread information systems, such as ERP, CRM and SCM. However, there are significant differences in terms of the implementation of business intelligence, workflow management systems and groupware. Moreover, according to results, the main motivations to invest in ICTs to improve firm’s performance are linked to strategy rather than operations. Finally, regarding the adoption of information systems, it does not contribute directly to generate higher performance. On the other hand, integrated information systems with suppliers and customers has a positive moderating effect in the relationship between ICT capabilities, both internal and external, on firm performance. However, the integration for the whole management of the supply chain required a more intense development so that it may be a source of competitive advantage in the future.
49

La enseñanza de la Física en las universidades de la Región Norte de la República Dominicana ante las TIC

Polozháev, Nikoláy Petróvich 21 July 2008 (has links)
El objetivo de esta Tesis es conocer el estado en que se encuentra la enseñanza de la Física en seis universidades de la Región Norte de la República Dominicana que imparten clases de Física a los estudiantes de diferentes carreras académicas, frente a la eventual innovación tecnológica del proceso enseñanza-aprendizaje. Este objetivo se desglosa en: conocer las características generales, las aptitudes y las actitudes de los estudiantes que están cursando alguna materia de Física, de los profesores de Física y de los directores de departamentos de Física o equivalentes, respecto a la disponibilidad, la valoración y el uso de las TIC (tecnologías de la información y la comunicación) actualmente, en el área de la Física y en el futuro; hacer el estudio comparativo de la actitudes de los estudiantes, profesores y directores; conocer la opinión de los directores de departamentos sobre el estado actual de la integración de las TIC, capacitación de los profesores de Física en el uso de la tecnología educativa, y los plantes estratégicos de la innovación en la enseñanza de la Física para el futuro. El tipo de investigación se define completamente como descriptivo, destacándose su carácter exploratorio: se pretendió conocer la realidad estudiada, ver posibles asociaciones estadísticas entre las variables estudiadas, sin pretender - en el marco de esta investigación - interpretar, ni explicar, ni transformar la realidad estudiada. Tomando en cuenta los posibles proyectos de innovación cuya factibilidad pueda derivar del presente estudio, se podría calificar esta investigación como de diagnóstico. Antes de realizar el trabajo de campo, se ha realizado un estudio bibliográfico sobre el estado actual de las TIC en la educación general y también, más específicamente, en la enseñanza de la Física. Se ha analizado las condiciones previas para la realización de los proyectos de innovación tecnológica de los procesos de enseñanza-aprendizaje. Esta revisión ha determinado las variables de estudio y los mecanismos de recolección de datos, que se emplearon en la investigación. Los instrumentos de medida han sido tres encuestas aplicadas a los estudiantes, profesores y directores de departamentos. Tomando en cuenta el número reducido de los profesores y los directores de departamentos, las encuestas correspondientes se han aplicado a la totalidad de sus universos. En caso de los estudiantes se ha seleccionado una muestra estadísticamente justificada. En caso de los directores de departamentos, a causa de la ausencia total de investigaciones previas sobre el tema del estudio, se han usado algunas preguntas abiertas en el cuestionario correspondiente con el fin de conocer el mayor número posible de detalles. A la hora del análisis, estas preguntas abiertas han sido categorizadas. Los resultados obtenidos han sido procesados con la ayuda del paquete estadístico SYSTAT versión 11.0. Las frecuencias de las variables y sus asociaciones estadísticamente relevantes se presentan en forma de 132 tablas y 172 gráficos con los análisis correspondientes. Las conclusiones detalladas que se han hecho en relación con los objetivos específicos declarados en la Tesis, se pueden resumir en lo siguiente: el nivel de acceso a las TIC en las universidades estudiadas es aceptable tanto en el caso de los estudiantes como en el caso de los profesores de Física; tanto los estudiantes como los profesores tienen aptitudes informáticas generales aceptables para introducirse en posibles proyectos de la innovación tecnológica, destacándose sin embargo la falta marcada de preparación en cuanto a las tecnologías educativas de parte de los profesores; la actitud muy positiva de los estudiantes respecto a la importancia de las TIC para sus carreras académicas y la alta disposición de los profesores para la participación en los proyectos futuros, también hace pensar que la innovación sería activamente apoyada por los dos grupos; la percepción de los estudiantes, profesores y directores sobre la disponibilidad de las TIC en el futuro y alto grado de valoración de las TIC en las tres muestras, son actitudes favorables para el eventual proceso de la innovación; las universidades estudiadas carecen de mecanismos adecuados de trazar estrategias para la innovación tecnológica y para la evaluación pedagógica del equipo tecnológico educativo. Las recomendaciones en forma resumida: crear planes de entrenamiento de los profesores en programas educativos; extender el estudio de las condiciones para la innovación tecnológica a otras áreas de la enseñanza y a otras universidades del país; crear un mecanismo de asesoramiento a las universidades dominicanas en las estrategias de innovación tecnológica y en la evaluación del equipo tecnológico educativo. / The objective of this Thesis is to know the state in which is the education of the Physics in six universities of the North Region of the Dominican Republic which they give classes of Physics to the students of different academic races, as opposed to the possible technological innovation of the process education-learning. This objective is detached in: to know the characteristics, the aptitudes and the attitudes of the students general who are attending some matter of Physics, the professors of Physics and the directors of equivalent departments of Physics or, with respect to the availability, the valuation and the use of the ICT (Information and Communications Technology) at the moment, in the area of the Physics and the future; to make the study comparative of the attitudes of the students, professors and directors; to know the opinion the directors of departments on the present state of the integration of the ICT, qualification of the professors of Physics in the use of the educat ive technology, and you plant them strategic of the innovation in the education of the Physics for the future. The type of investigation is defined completely as descriptive, standing out its exploratory character: it was tried to know the reality studied, to see possible statistical associations between the studied variables, without trying - within the framework of this investigation - to interpret, neither to explain, nor to transform the studied reality. Taking into account the possible projects from innovation whose feasibility can derive from the present study, this investigation could be described like of diagnosis. Before making the work of field, it has been made bibliographical study on the present state of the ICT in the general education and also, more specifically, in the education of the Physics. One has analyzed the previous conditions for the accomplishment of the projects of technological innovation of the education-learning processes. This revision has determined the variables of study and the mechanisms of data collection that was used in the investigation. The measurement instruments they have been three surveys applied to the students, professors and directors of departments. Taking into account the reduced number of the professors and the directors of departments, the corresponding surveys have been applied to the totality of their universes. In case of the students a sample statistically justified has been selected. In case of the directors of departments, because of the total absence of previous investigations on the subject of the study, some questions opened in the corresponding questionnaire with the purpose of knowing the greater number possible of details have been used. To the hour of the analysis, these open questions have been categorized. The obtained results have been process with the aid of statistical package SYSTAT version 11.0. The statistically excellent frequencies of the variables and their associations appear in form of 132 tables and 172 graphs with the corresponding analyses. The detailed conclusions that they have become in relation to the declared specific objectives in the Thesis, can be summarized in the following thing: the level of access to the ICT in the studied universities is acceptable as much in the case of the students as in the case of the professors of Physics; as much the students as the professors have acceptable general computer science aptitudes to introduce themselves in possible projects of the technological innovation, standing out nevertheless the marked lack of preparation as far as the educative technologies from the professors; the very positive attitude of the students with respect to the importance of the ICT for its academic races and the high disposition of the professors for the participation in the future projects, also makes think that the innovation actively would be supported by both groups; the perception of the students, professors and directors on the availability of the ICT in the future and stop degree of valuation of the ICT in the three samples, is favorable attitudes for the possible process of the innovation; the studied universities lack suitable mechanisms to draw up strategies for the technological innovation and the pedagogical evaluation of the educative technological equipment. The recommendations in summarized form: to create plans of training of the professors in educative programs; to extend the study of the conditions for the technological innovation to other areas of education and other universities of the country; to create a mechanism from advising to the Dominican universities in the strategies of technological innovation and the evaluation of the educative technological equipment.
50

Sistemas Inteligentes para el ajuste de Modelos Hidrológicos.Aplicación al río Paraná

La Red Martínez, María del Carmen Montserrat 29 July 2013 (has links)
El objetivo es la implementación de sistemas inteligentes para ajustar modelos hidrológicos, comparando las series temporales con redes neuronales, que permitan el aprendizaje y ajuste de parámetros para la obtención de modelos que realicen predicciones óptimas de alturas del río Paraná, en períodos de inundaciones. El interés radica en su aplicación en la provincia de Corrientes, Argentina, afectada por inundaciones que ocasionan pérdidas en la economía regional. Se realiza un análisis previo con series temporales que permite establecer las variables y factores que determinan las alturas hidrométricas, en períodos de inundación en la localidad de Corrientes. Posteriormente se presenta un pronóstico a corto plazo en períodos de crecidas, que predice las alturas hidrométricas a tres días implementando redes neuronales con función de penalización modificada. Se finaliza con un pronóstico a mediano plazo, para períodos de inundación, de alturas hidrométricas a siete días que se realiza con redes neuronales con diferentes arquitecturas. / The aim is the implementation of intelligent systems to adjust hydrological models comparing time series and neural networks which allow learning and setting parameters for models that make optimal predictions of the Paraná river heights in flood periods. The interest lies in its implementation in the province of Corrientes, Argentina, hit by floods causing losses in regional economy. We performed a time-series analysis to discover the variables and factors that influence the hydrometric height in flood periods in the town of Corrientes. Subsequently we present a short-term prediction for flood periods, which predicts the hydrometric heights three days in advance, using neural networks with a modified penalty function. Then we obtain a medium-term forecast for flood periods, seven days in advance, using neural networks with different architectures.

Page generated in 0.4485 seconds